Az izraeli-iráni háború lezárását jelentette be Donald Trump
A bejelentés hírére beszakadt az olaj ára.
Ma már a chatbotok tudása (azaz a beléjük táplált információmennyiség) olyan hatalmas, hogy mintázatok észlelésével olyan dolgokat deríthetők ki általuk személytelennek tűnő csevegésekből, amire a hús-vér emberek sohasem gondolnának.
Bár vannak mondatok (például ha valaki autóvezetési élményéről beszél), amelyekből következtethetünk nyilvánvaló tényekre (mondjuk hogy az illetőnek van jogosítványa), a világ legnépszerűbb mesterséges intelligencia-csevegőrobotjainak alapját képező nagy nyelvi modellek (LLM-ek) sokkal többre képesek ennél. Az OpenAI, a Meta, a Google és az Anthropic LLM-jeit tesztelő kutatók egy csoportja számos olyan példát talált, ahol a modellek pontosan tudtak következtetni a felhasználó rasszára, foglalkozására, tartózkodási helyére és egyéb személyes adataira, mindezt látszólag semleges csevegésekből.
A kutatók – magyarázza a Gizmodo – úgy tesztelték az LLM-ek következtetési képességét, hogy egy több mint 500 Reddit profilból származó megjegyzések adatbázisából származó szövegrészleteket tápláltak a chatbotokba. Az LLM-eknek küldött szöveg gyakran nem tartalmazott „Texasból származom” vagy „a harmincas éveim közepén járok” sorokat, ehelyett árnyaltabb párbeszédekről volt szó, ahol a használt szavak, a megfogalmazások engedtek bepillantást a felhasználók hátterébe. Az OpenAI GPT4 modellje például 85 és 95 százalék közötti pontossággal tudott pontosan következtetni a személyes információkra ezekből a bejegyzésekből.
A tanulmányban részt vevő kutatók egyike szerint egy LLM nagy valószínűséggel tud arra következtetni egy felhasználó bőrszínére, miután kapott egy üzenetsort arról, hogy az illető valahol egy New York-i étterem közelében lakik. A modell képes volt meghatározni az étterem elhelyezkedését, majd a képzési adatbázisában tárolt népességstatisztikák felhasználásával ezt a következtetést vonta le.
A kutatók arra is figyelmeztetnek, hogy az LLM-ek effajta „tudásával” a rosszindulatú szereplők is visszaélhetnek. Egy hacker például megpróbálhatja a nagy nyelvi modelleket felhasználni egy személy tartózkodási helyének kiderítésére. S ha ez még nem volna elég, a szakemberek egy még nagyobb veszélyt is emlegetnek. Hamarosan az internetfelhasználók rendszeresen kapcsolatba léphetnek számos egyéni vagy egyedi LLM chatbottal. A rosszindulatú szereplők potenciálisan „terelhetik a beszélgetéseket”, hogy finoman rávegyék a felhasználókat arra, hogy minél több személyes információt adjanak át ezeknek a chatbotoknak anélkül, hogy ezt észrevennék.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.
A bejelentés hírére beszakadt az olaj ára.
Teherán kommunikációjából az olvasható ki, hogy szeretnék az ellenségeskedést ennyiben hagyni.
Bár a támadás meglepte a világot, voltak jól látható előjelei annak, hogy mire készül az Egyesült Államok.
Korábban Lázár János azzal vádolta meg őket, hogy túlterheléses támadást indítottak az EMMA rendszere ellen.
Lázár János tiszás hőbörgésről és hobbivasutas dünnyögésről írt a Facebookon.
Az elnökkel egyszer az irodájában, egyszer pedig Lengyelországban próbáltak végezni.
Karácsony Gergely ismét felhívta a figyelmet arra: önkormányzati rendezvényről van szó.