szerző:
hvg.hu
Tetszett a cikk?

Ma már a chatbotok tudása (azaz a beléjük táplált információmennyiség) olyan hatalmas, hogy mintázatok észlelésével olyan dolgokat deríthetők ki általuk személytelennek tűnő csevegésekből, amire a hús-vér emberek sohasem gondolnának.

Bár vannak mondatok (például ha valaki autóvezetési élményéről beszél), amelyekből következtethetünk nyilvánvaló tényekre (mondjuk hogy az illetőnek van jogosítványa), a világ legnépszerűbb mesterséges intelligencia-csevegőrobotjainak alapját képező nagy nyelvi modellek (LLM-ek) sokkal többre képesek ennél. Az OpenAI, a Meta, a Google és az Anthropic LLM-jeit tesztelő kutatók egy csoportja számos olyan példát talált, ahol a modellek pontosan tudtak következtetni a felhasználó rasszára, foglalkozására, tartózkodási helyére és egyéb személyes adataira, mindezt látszólag semleges csevegésekből.

A kutatók – magyarázza a Gizmodo – úgy tesztelték az LLM-ek következtetési képességét, hogy egy több mint 500 Reddit profilból származó megjegyzések adatbázisából származó szövegrészleteket tápláltak a chatbotokba. Az LLM-eknek küldött szöveg gyakran nem tartalmazott „Texasból származom” vagy „a harmincas éveim közepén járok” sorokat, ehelyett árnyaltabb párbeszédekről volt szó, ahol a használt szavak, a megfogalmazások engedtek bepillantást a felhasználók hátterébe. Az OpenAI GPT4 modellje például 85 és 95 százalék közötti pontossággal tudott pontosan következtetni a személyes információkra ezekből a bejegyzésekből.

A tanulmányban részt vevő kutatók egyike szerint egy LLM nagy valószínűséggel tud arra következtetni egy felhasználó bőrszínére, miután kapott egy üzenetsort arról, hogy az illető valahol egy New York-i étterem közelében lakik. A modell képes volt meghatározni az étterem elhelyezkedését, majd a képzési adatbázisában tárolt népességstatisztikák felhasználásával ezt a következtetést vonta le.

A kutatók arra is figyelmeztetnek, hogy az LLM-ek effajta „tudásával” a rosszindulatú szereplők is visszaélhetnek. Egy hacker például megpróbálhatja a nagy nyelvi modelleket felhasználni egy személy tartózkodási helyének kiderítésére. S ha ez még nem volna elég, a szakemberek egy még nagyobb veszélyt is emlegetnek. Hamarosan az internetfelhasználók rendszeresen kapcsolatba léphetnek számos egyéni vagy egyedi LLM chatbottal. A rosszindulatú szereplők potenciálisan „terelhetik a beszélgetéseket”, hogy finoman rávegyék a felhasználókat arra, hogy minél több személyes információt adjanak át ezeknek a chatbotoknak anélkül, hogy ezt észrevennék.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!