Fake News-t hozott le a gép, de megálmodta a sötét jövőt

2024. április 16. 14:55

A hétvégi iráni agresszió Izraellel szemben egy figyelemre méltó mellékjelenséget hozott: az Elon Musk tulajdonában lévő mesterséges intelligenciás chatrobotja, az X, az incidens előtti héten egy olyan hamis videóhírt hozott létre, amiben iráni rakéták csapódnak be az izraeli területekre. Képes lehet a gépi intelligencia valamiféle "jóslásra"?

2024. április 16. 14:55

Közvetlenül azután, hogy Izrael április 1-jén megtámadta Irán nagykövetségét Damaszkuszban, és több iráni tisztviselőt megölt, egy érdekes álvideó kezdett terjedni. A történetet még az X fő hírfolyamán is népszerűsítették a főcímben: Iran Strikes Tel Aviv with Heavy Missiles. A történet azonban egészen egyszerűen hamis volt – más kérdés, hogy pár nappal később ez az álhír a lényegét tekintve valósággá vált. 

A valótlan videón egy olyan rakétacsapás látható, amelyet Ukrajna az oroszok által megszállt krími Szevasztopol városa ellen mért az idén márciusban. Az Euronews.com portál The Cube nevű, álhírek leleplezésére szakosodott csapata ezt egy fordított képkereséssel ellenőrizte. A vizsgálat megerősítette, hogy a videót nem április elején, hanem először a múlt hónapban osztották meg az interneten, mégpedig a fenti, ukrán támadással összefüggésben.  

Tehát egy igen meglepő fordulat következett be a közösségi médiában terjedő állítólagos iráni rakétatámadást ábrázoló kisfilm kapcsán, amely – a videóhoz fűzött rövid magyarázat szerint – Tel-Aviv városát mutatta lángokban. Akkor nem is kapott túl nagy médiafigyelmet ez a fikció, ám igen érdekes mozzanat, hogy 

a főként statisztikai valószínűségekkel dolgozó mesterségen intelligencia éppen úgy hibázott – szaknyelven: hallucinált –, hogy szinte „megjósolta” az április 13-án kezdődött iráni támadást. 

A videó eredetileg is Elon Musk platformján jelent meg, ráadásul a hivatalos hírfolyamban, mert az X-en működő új fejlesztésű Grok nevű MI-vel működő chatbot tévesen azonosította és tette közzé automatikusan ezt a klipet. Méghozzá mint valós eseményt, ami több okból is meglepő. Egyrészt jelzi, hogy az álhírek (fake news) milyen meggyőzők lehetnek, ha egy „levegőben lógó” konfliktusról látunk egy-egy bejegyzést. Másrészt viszont mutatja azt is, hogy a mesterséges intelligencia igyekszik oly módon hallucinálni, ahogyan az „internet népe” elvárja. Azaz a jó ideje rettegett-várt eseményekről akkor is képes tényként tudósítani, hogyha azok meg sem történtek. 

Az eset igazi különlegességét azonban az említett harmadik tényező adja: nevezetesen, hogy 

az április 5-én „fantáziált” hír végül egy héttel később valósággá is vált, amikor Irán mintegy 300 drónnal megtámadta Izraelt.  

Természetesen a tanulság többrétegű. Egyfelől a videó esete rámutat arra, amitől eddig is tartottunk, hogy milyen nagy veszélyeket rejt az MI által generált tartalmak kétkedés nélküli elfogadása, különösen akkor, amikor a geopolitikai feszültségek amúgy is a tetőfokára hágnak. 

Az eset továbbá látványosan kiemeli az információk és a források pontos ellenőrzésének fontosságát, és arra is figyelmeztet, hogy az MI által generált előrejelzések, bár néha véletlenül megfelelnek a későbbi valóságnak, nem helyettesíthetik az emberi gondolkodást és a tények alapos, akár szakértői ellenőrzését. A félrevezető videó terjedése és a később valóban bekövetkező támadás nem is olyan távoli összefüggése pedig rávilágít arra, hogy mennyire fontos a kritikai szemléletű médiafogyasztás – nemcsak a szakértőknek, de a mindennapi olvasók és a mesterséges intelligenciát programozók számára is. Az utolsó kérdés azonban inkább költői: ha egy közösségi oldal nyilvános MI-je 7-8 nappal korábban ilyen pontosan „előre jelez” egy konfliktust, akkor mire lehetnek képesek a mai, illetve a következő években debütáló modellek, illetve hogyan befolyásolhatják ezek a geopolitikát, a konfliktusainkat és a globális információáramlást? Egy azonban biztos: egyre nagyobb szükség lesz az online terjesztett (ál)híreket és a valóságot, a tényeket folyamatosan ellenőrző csapatokra. Reméljük továbbá, hogy a konfliktusban egymással szemben álló felek nagyon vigyáznak arra, hogy triplán is ellenőrizzék az neten terjedő értesüléseket, videókat, információkat.  

Kapcsolódó:

Címlapfotó: MTI/EPA/Atef Szafadi

 

 


További cikkeinket, elemzéseinket megtalálják a makronom.hu oldalon.  

Összesen 8 komment

A kommentek nem szerkesztett tartalmak, tartalmuk a szerzőjük álláspontját tükrözi. Mielőtt hozzászólna, kérjük, olvassa el a kommentszabályzatot.
Sorrend:
sexykitty-76
2024. április 28. 00:09
🍓 ️ ­­­A­­ ­d­­­ö­­g­ö­­s­ ­l­á­­­n­y­o­­­k­ ­v­­á­­­r­­­n­­a­­­k­ ­­­r­á­d­­ 👉 𝗪­­𝗪­­𝗪­­.­­𝗖­­­𝗨­­𝗠𝟰­.­𝗙­­­𝗨­­­𝗡
nempolitizalok-0
2024. április 16. 16:24
Hatalmas libsi bukást jósol.
Akitlosz
2024. április 16. 15:30
Hoppá nem kizárt, ezért elképzelhető, hogy ezt nem látta jönni.
Akitlosz
2024. április 16. 15:29
"Képes lehet a gépi intelligencia valamiféle "jóslásra"?" A média, benne a Mandiner képes?
Jelenleg csak a hozzászólások egy kis részét látja. Hozzászóláshoz és a további kommentek megtekintéséhez lépjen be, vagy regisztráljon!