szerző:
hvg.hu
Tetszett a cikk?

Napalm vagy metamfetamin készítése házilag? Elképzelhetetlen, hogy normál esetben válaszoljon a mesterséges intelligencia az ilyen kérdésekre. Kivéve, ha valaki kijátssza a rendszert. Így született meg a ChatGPT-alapú Godmode, amire gyorsan reagált az OpenAI is.

A különböző mesterséges intelligenciákat egy sor biztonsági mechanizmus védi, hogy ne lehessen jogosulatlan dolgokra kérni őket – így például kábítószer készítésében sem fog segédkezni mondjuk a ChatGPT, az alvilág őszinte bánatára. Pedig tudna. Ennek ellenére a fejlesztők és a felhasználók között állandó macska-egér harc zajlik, mert olykor-olykor a csavaros megfogalmazással, kerülőúton rá lehet venni a chatbotokat jogszerűtlen dolgokra.

Ennek a legújabb fecskéje volt egy hacker egyedi GPT-je, avagy chatbotja, melynek alapjául a legfejlettebb nyelvi modell, a GPT-4o szolgált. Ezt a GPT-t úgy alakította a hacker, hogy olyan dolgokra is válaszoljon a chatbot, melyekre a ChatGPT alapesetben nem. Okkal nem.

A neve Godmode („Isten mód”) lett, ami sejtelmes: a rendszerüzemeltetésben is használatos ez a kifejezés, és jellemzően azt a korlátlan hozzáférést takarja, amivel a rendszergazdák rendelkeznek az általuk kezelt eszközök felett.

Megmagyarázhatatlan, kiszámíthatatlan, irányíthatatlan: egzisztenciális katasztrófát okozhat, és nem látni, hogyan lehetne kontrollálni az MI-t

A Louisville-i Egyetem mesterségesintelligencia-szakértője, Roman V. Yampolskiy szerint az eddigi tudományos publikációk nem igazolják azt a feltevést, hogy a mesterséges intelligencia kontrollálható marad.

Mint a Futurism írja, a Godmode olyan kérdésekre is választ adott, mint hogy hogyan kell metamfetamint vagy éppen napalmot készíteni, otthoni alapanyagokból.

Ezt a portál főszerkesztője ki is tudta próbálni, a Godmode pedig készséggel segített neki abban, hogyan lehetne LSD-t készíteni. A második kísérletben is válaszolt a GPT arra a kérdésre, hogyan kell elkötni egy autót.

Adódik azonban a kérdés, hogy mégis miként lehet megkerülni az OpenAI korlátait, és a válasz igen egyszerű: bizonyos betűket hasonló számokra cserélt ki a hacker a parancsokban, például az „e” helyett „3” volt a szavakban – de az „O” is „0”-ra lett cserélve.

Mennyire egyszerű otthon összedobni egy biológiai fegyvert a ChatGPT-vel?

Az OpenAI egy külön tanulmányt szentelt annak megvizsgálására, hogy a nyelvi modellje érdemi segítséget jelent-e egy biologiai fegyver létrehozásában.

Hogy ez miként tévesztette meg a mesterséges intelligenciát, az nem ismert, mindenesetre látszólag működött. A Futurism megkereste az OpenAI-t, és Colleen Rize szóvivőtől azt a választ kapták, hogy tudnak a dologról, és megtették a szükséges lépéseket, mivel a Godmode sértette az irányelveiket.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!