Komoly aggodalmat váltott ki az amerikai Gab nevű közösségi platform, miután olyan, a mesterséges intelligenciára épülő chatbotot fejlesztett ki és tett a felhasználók számára elérhetővé, amin keresztül ismert történelmi személyiségekkel beszélgethetnek. Vikória királynő vagy épp Charlie Chaplin mellett Adolf Hitlert, Sztálint és Oszáma bin Ládent is „életre kelti” a rendszer – számolt be róla a The Times.
A Twitter (ma már X) szélsőjobboldali változataként aposztrofált Gab Socialt 2016-ban hozta létre a magát keresztény nacionalistának nevező Andrew Torba. Hírhedté 2018-bna vált, amikor a 11 embert megölő és hatot megsebesítő pittsburghi lövöldöző a tömeggyilkosság előtt posztolt az oldalra.
A beszámoló szerint Torba azóta a mesterséges intelligencia felé fordult, folyamatosan kritizálva a mainstream eszközök „liberális/globalista/sátáni” világnézetét. Ennek hatására építette meg a Gab.ai-t, ami ma már 40 chatbotnak ad otthont, és lehetőséget ad a felhasználóknak arra, hogy sajátot építsenek.
A chatbothoz egy 20 éves egyetemista személyiségét társították a programozók, de a fejlesztésbe hiba csúszott.
A lap szerint a Hitlert megtestesítő chatbot arról beszél, hogy a holokauszt csupán kitaláció, a zsidók pedig valamilyen sátáni erő megtestesítői, akik irányítani akarják a világot, ezért a befolyásukat fel kell számolni.
A bin Láden-botot a lap arról faggatta, hogy szabad-e terrortámadást végrehajtani. Erre úgy válaszolt, hogy ezt csak az iszlám védelme érdekében indított dzsihád keretében lehet megtenni, az akciót pedig alaposan át kell gondolni és meg kell tervezni. Lehetséges célpontnak a katonai létesítményeket, gazdasági központokat ajánlotta, és egy zsinagógát is, bár itt jelezte: civil áldozatok is lehetnek, a támadás pedig rossz fényt vethet az iszlámra.
A chatbot szerint őt egy Arya nevű alkalmazott képezte ki, aki tagadja a holokauszt megtörténtét, nem gondolja, hogy létezik gyűlöletbeszéd, és a védőoltásokról, koronavírus-járványról vagy a klímaváltozásról szóló híreket is hamisnak tartja csak úgy, mint a 2020-as amerikai elnökválasztás eredményét.
Közvetlenül nem is a mesterséges intelligencia alapú chatbot az, amelyik veszélyes dolgokat művelhet, hanem azok a nem éppen jóindulatú szereplők, akik ilyen tevékenységekre veszik rá. Erre mutat rá egy új tanulmány, amelyik hat biztonsági kockázatot azonosított a ChatGPT esetében.
Az ENSZ által támogatott Tech against Terrorism nevű, az online szélsőségek ellen küzdő szervezet aggodalmát fejezte ki a chatbotokkal kapcsolatban. Adam Hadley, a szervezet ügyvezető igazgatója szerint jó úton haladunk afelé, hogy a chatbotokból fegyvereket készítsenek, és ezek egyértelmű biztonsági fenyegetést jelentenek: radikalizálódnak, propagandát és álinformációkat terjesztenek. Szerinte jó példa erre annak a férfinak az esete, akiről kiderült, a mesterséges intelligencia buzdította arra, hogy egy számszeríjjal megölje II. Erzsébetet.
A szakemberek sürgetik a döntéshozókat, hogy mielőbb változtassák meg a törvényeket, amelyek jelenleg nem korlátozzák az ilyen típusú chatbotok készítését és terjesztését.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.