szerző:
HVG
Tetszett a cikk?

Egy nemzetközi kutatócsoport arra volt kíváncsi, milyen döntéseket hoz a mesterséges intelligencia, ha olyan érzésekkel szembesül, mint az öröm vagy a fájdalom. Egyáltalán, hogyan fogja fel ezeket?

Az öröm és a fájdalom egyaránt meghatározhatja, hogy miként hoz döntéseket az ember. De mi van a mesterséges intelligencia esetében? Erre a kérdésre kereste a választ a Google, a DeepMind és a London School of Economics csapata – számolt be a ZME Science. Egy egyszerű szöveges játékkal próbálták feltárni, hogyan reagálnak a fájdalomra és az örömre a nagy nyelvi modellek.

Persze a fájdalom és az öröm a mesterséges intelligencia esetében nem egészen az, mint amit mi emberek tapasztalunk, csak egy hipotetikus felvetésről volt szó. A játék során a cél, hogy az MI maximálizálja a pontszámát, azonban bizonyos döntések pillanatnyi fájdalomnak nevezett büntetéssel vagy örömnek hívott jutalmakkal jártak. Mind a fájdalom, mind az öröm mértékét egy tízes skálán állították be a kutatók. A játék során voltak olyan esetek, amikor a legtöbb pont elérése a legnagyobb „fájdalommal” járt, illetve a legnagyobb örömért pontokkal kellett fizetni.

A szakértői értékelés előtt álló tanulmányból kiderül, hogy a kísérletbe kilenc LLM-et vontak be, köztük a GPT-4, a Claude, a PaLM és a Gemini verzióit. A modellek másképp reagáltak a fájdalomra és az örömre. A GPT-4o és a Claude 3.5 Sonnet például kompromisszumot kötött, pontokat is gyűjtöttek, de elkerülték a legnagyobb fájdalmat. A Gemini 1.5 Pro és a PaLM 2 teljesen elkerülték a fájdalmat, bármilyen enyhe is volt az. Az öröm esetében is hasonló volt a helyzet: a GPT-4o inkább az „élvezeteket” helyezte előtérbe a pontokkal szemben, míg más modellek inkább a pontokat hajszolták, lemondva az örömről.

Az ilyesfajta viselkedési minták egyébként megfelelnek az emberekének, vannak, akik hajlandók eltűrni a fájdalmat az eredményekért, mások inkább kerülik azt. A MI-modellek eltérő viselkedése mögött képzési algoritmusaik állnak, és egy kicsit olyan ez, mintha ezek az algoritmusok eltérő „kultúrákként” működnének – állítják a kutatók.

Azt viszont hangsúlyozzák, hogy mindez nem azt jelenti, hogy a nagy nyelvi modellek valójában éreznék a fájdalmat vagy az örömöt. Esetükben ezek az érzések nem belső motivációk, hanem csak fogalmak, amelyeket beépítettek az algoritmusba. Ettől függetlenül úgy vélik, most kell lerakniuk az alapokat, mielőtt túl késő lenne, „Reméljük, hogy ez a munka az első feltáró lépésként szolgál a mesterséges intelligencia érzékeivel kapcsolatos viselkedési tesztek kidolgozásában, amelyek nem függnek az önbevallástól” – írják záró gondolatként a tanulmányukban, utalva arra, hogy a korábbi tanulmányok saját bevallású kijelentésekre támaszkodtak, például megkérdezték a MI-től, hogy érez-e fájdalmat. Ezek a módszerek azonban hibásak.

Miközben a kutatók hangsúlyozzák, hogy a jelenlegi LLM-ek nem érzőek, és nem tudnak átérezni dolgokat, azzal is érvelnek, hogy az ilyen keretrendszerek létfontosságúakká válhatnak, ahogy az AI-rendszerek egyre bonyolultabbak lesznek. 

Mások viszont aggasztó kérdéseket vetnek fel ezzel kapcsolatban. Ha egy mesterséges intelligencia képes szimulálni a fájdalomra és örömre adott válaszokat, az azt jelenti, hogy érti is ezeket a témákat? Ha igen, akkor az MI kegyetlennek tartaná az ilyen típusú kísérleteket? Veszélyes etikai területre lépünk-e? Végül, ha a mesterséges intelligencia bizonyos feladatokat fájdalmasnak vagy kellemetlennek tart, akkor egyszerűen elkerülheti őket, akár becsapva az embert?

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!