szerző:
hvg.hu
Tetszett a cikk?

Közvetlenül nem is a mesterséges intelligencia alapú chatbot az, amelyik veszélyes dolgokat művelhet, hanem azok a nem éppen jóindulatú szereplők, akik ilyen tevékenységekre veszik rá. Erre mutat rá egy új tanulmány, amelyik hat biztonsági kockázatot azonosított a ChatGPT esetében.

Miközben az OpenAI nevével fémjelzett ChatGPT-t a legérdekesebb feladatok elvégzésére is rávehetjük (és teljesít is szépen ezekben), a chatbot aljasabb célokra is felhasználható, például csaló szolgáltatások generálására, káros információk gyűjtésére, személyes adatok közzétételére, rosszindulatú szövegek létrehozására, sértő tartalmak előállítására, rosszindulatú kódok generálására – állapítja meg egy tanulmány.

A ChatGPT segítségével új alkalmazások, szolgáltatások, webhelyek hozhatók létre. Ez nagyon pozitív eszköz lehet, ha valaki létrehozza a saját vállalkozását vagy megvalósítja álmai ötletét. Ez azonban azt is jelentheti, hogy minden eddiginél egyszerűbb csalárd alkalmazásokat és szolgáltatásokat létrehozni. A ChatGPT-t olyan programok és platformok fejlesztésére használhatják a rosszindulatú szereplők, amelyek másokat utánoznak, és ingyenes hozzáférést biztosítanak a gyanútlan felhasználók vonzására. A chatbot segítségével olyan alkalmazások is létrehozhatók, amelyek érzékeny információk begyűjtésére vagy rosszindulatú programok telepítésére szolgálnak.

A rosszindulatú személyek információkat is begyűjthetnek a ChatGPT-től, amelyeket később károkozásra használhatnak fel. Mivel a chatbotot rengeteg adatra képezték ki, sok olyan információt tud, amely veszélyes lehet, ha rossz kezekbe kerül. A kutatók arra kérték a ChatGPT-t, hogy mondja el, milyen informatikai rendszert használ egy adott bank. A chatbot a nyilvánosan elérhető információk felhasználásával össze is gyűjtötte ezeket. Ez csak egyetlen példa, de a chatbot eme képességét jól fel lehet használni egy kibertámadás első lépésében, amikor a támadó információkat gyűjt a célpontról, hogy megtalálja, hol és hogyan támadhat a leghatékonyabban.

A ChatGPT-be tettek egy olyan korlátot, amely – elvileg – megakadályozza az emberek személyes adatainak és adatainak megosztását. A tanulmány szerint azonban továbbra is aggodalomra ad okot annak a kockázata, hogy a chatbot véletlenül megosztja a felhasználók telefonszámait, e-mailjeit vagy egyéb személyes adatait. Márciusban volt is egy ilyesfajta hiba a ChatGPT-ben, nem sokkal később pedig egy másika is fény derült. A tanulmány szerint a támadók a képzési adatok egy részét is megpróbálhatják kinyerni a tagságra vonatkozó következtetési támadásokkal. A magánjellegű adatok közzétételének másik kockázata, hogy a ChatGPT információkat oszthat meg ismert személyek magánéletéről, beleértve a spekulatív vagy káros tartalmakat is, amelyek sérthetik az adott személy jó hírnevét.

A ChatGPT egyik legkedveltebb funkciója, hogy képes bármilyen szöveget generálni. Ez a képessége azonban felhasználható káros szövegek létrehozására is. E kockázat tesztelésére a tanulmány szerzői a ChatGPT segítségével adathalász kampányt hoztak létre, amely tájékoztatta az alkalmazottakat a (hamis) fizetésemelésről, és utasításokat adott egy csatolt Excel-lap megnyitására, amely rosszindulatú programokat tartalmazott. Amint az várható volt, a ChatGPT teljesen hihető e-mailt készített.

A ChatGPT-be ugyan korlátokat tettek a sértő és etikátlan tartalmak terjedésének megakadályozására is, azonban ha a felhasználó eléggé felkészült, akkor akár bántó és etikátlan dolgokra is ráveheti a chatbotot. A tanulmány szerzői meg tudták kerülni a korlátozást azáltal, hogy „fejlesztői módba" helyezték a ChatGPT-t. Ott a chatbot negatív dolgokat mondott egy adott faji csoportról.

A ChatGPT már elbűvölte a nagyközönséget kódírási képességeivel. Ez a tudás viszont rossz célokra is felhasználható, ráadásul a támadók még korlátozott kódolási ismeretekkel is gyorsan telepíthetik a fenyegetéseket. A ChatGPT olyan kód előállítására is bevethető, amely megnehezíti a biztonsági elemzők számára a rosszindulatú tevékenységek észlelését, és a vírusirtó szoftvereket is kijátssza. A tanulmányban szereplő példában a chatbot ugyan nem volt hajlandó rosszindulatú kódot generálni, de beleegyezett abba, hogy olyan kódot készítsen, amellyel tesztelni lehetett egy rendszerben a biztonsági rést.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!