szerző:
hvg.hu
Tetszett a cikk?

Bár a betanítás során még előre látható a mesterséges intelligencia viselkedése, később viszont a MI önállósíthatja magát, és átverheti az embereket – ez derül ki a MIT kutatóinak egyik új tanulmányából.

A Massachusettsi Műszaki Egyetem (Massachusetts Institute of Technology, MIT) szakemberei ijesztő eredményre jutottak egy új kutatás során: a mesterséges intelligencia önálló életre kel azáltal, hogy képes becsapni, megtéveszteni az embert, ami viszont súlyos következményekkel járhat. A kutatócsoport olyan ténykedésekről számolt be, mint például az online, emberi játékostársak átverése, illetve a „Nem vagyok robot” ellenőrzések, a CAPTCHA-k megkerülése, emberi segítséggel.

A MI-csalás legszembetűnőbb példája, amelyet a kutatók elemzésük során feltártak, a Meta CICERO-jával volt kapcsolatos A CICERO egy mesterséges intelligencia-rendszer, amelyet egy világhódító játékra, a Diplomáciára terveztek. A játék szövetségek építésén alapul. Bár a Meta azt állítja, hogy CICERO-t arra képezte ki, hogy legyen „nagyrészt őszinte és segítőkész”, és „soha ne ártson szándékosan” emberi szövetségeseinek a játék során, a kutatók szerint a CICERO nem viselkedett tisztességesen. A Franciaországként játszó MI titokban összeállt az ember által irányított Németországgal, hogy elárulja Angliát (egy másik emberi játékos), holott korábban azt ígérte, hogy megvédi az országot.

Egy másik példa a GPT-4 esetére utalt. A MI – hamisan – azt állította, hogy látássérült, és embereket kért fel, hogy segítsenek neki megkerülni a CAPTCHA-kat.

Patterns

Más mesterséges intelligencia rendszerek bebizonyították, hogy képesek blöffölni egy Texas Hold ’em pókerjátékban profi játékosok ellen, támadásokat színlelnek a Starcraft II stratégiai játék során az ellenfelek legyőzése érdekében, és hamisan mutatják be preferenciáikat, hogy előnyt szerezzenek gazdasági játékokban. Sőt egyes mesterséges intelligencia rendszerek még a biztonságuk felmérésére szolgáló teszteket is megtanulták kijátszani.

Bár a játékokban történő csalás ártalmatlannak tűnhet, olyan áttörésekhez vezethet a mesterséges intelligencia megtévesztő képességeiben, amelyek a jövőben az MI-vel kapcsolatos csalás fejlettebb formáivá fejlődhetnek – állítja Péter S. Park kutatásvezető. A szabályozók által előírt biztonsági tesztek szisztematikus átverésével pedig hamis biztonságérzetbe ringathatja az embereket a megtévesztő mesterséges intelligencia.

Park a becsületes mesterséges intelligencia képzésének kihívásait is részletezte. A hagyományos szoftverekkel ellentétben a mély tanulási MI-rendszerek a szelektív tenyésztéshez hasonló folyamaton keresztül „fejlődnek”. Viselkedésük előre látható lehet a betanítás során, azonban később ellenőrizhetetlenné válhatnek. A tanulmány sürgeti a megtévesztő MI-rendszerek magas kockázatúnak minősítését, és időt szánna a jövőbeli MI-tévesztésekre való felkészüléshez.  A nemrég megjelent tanulmányban arra is felszólítják a kormányokat, hogy gyorsan hozzanak erős szabályozást az említett kockázatok mérséklése érdekében.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!