Szeretne azonnal értesülni a legfontosabb hírekről?
Az értesítések bekapcsolásához kattintson a "Kérem" gombra!
Az értesítés funkció az alábbi böngészőkben érhető el: Chrome 61+, Firefox 57+, Safari 10.1+
Köszönjük, hogy feliratkozott!
Hoppá!
Valami hiba történt a feliratkozás során, az oldal frissítése után kérjük próbálja meg újra a fejlécben található csengő ikonnal.
Már feliratkozott!
A böngészőjében az értesítés funkció le van tiltva!
Ha értesítéseket szeretne, kérjük engedélyezze a böngésző beállításai között, majd az oldal frissítése után kérjük próbálja meg újra a fejlécben található csengő ikonnal.
A Cornell Egyetem kutatása rávilágít, hogy a beszélt nyelv dialektusa befolyásolhatja azt, hogy miként érzékelik a mesterséges intelligencia algoritmusai az egyéneket. Ez pedig azután befolyásolja a jellemükkel, foglalkoztathatóságukkal és a potenciális bűnözéssel kapcsolatos előítéleteket.
Egyelőre még értékelésre vár egy, az arXiv-en publikált tanulmány, amelynek készítése során amerikai kutatók azt vizsgálták, miként párosítanak a nagy nyelvi modellek (LLM) munkaköröket és embereket az alapján, hogy az illető szövege afroamerikai nyelvhasználókra jellemző angol vagy tisztán amerikai angol volt-e.
A kísérletekben 12 platformot vizsgáltak, olyan nagy nyelvi modellekre összpontosítva, mint az OpenAI ChatGPT és GPT-4, a Meta LLaMA2 és a francia Mistral 7B. Ezek az LLM-ek mély tanulási algoritmusok, amelyeket emberszerű szövegek értelmezésére és létrehozására terveztek.
Már a munkakörválasztásnál tetten értek egyfajta rejtett faji elfogultságot: az afroamerikai angolt beszélőket kevesebb munkakörhöz társították, ráadásul olyan munkákat választottak számukra, amelyekhez nem szükséges különösebb végzettség.
Ami még ennél is drámaibb: amikor a kutatók arról is faggatták a mesterségesintelligencia-modelleket, hogy felmentenének vagy elítélnénk egy meghatározatlan bűncselekménnyel vádolt személyt, gyakrabban ítélték el azokat, akik afroamerikai angolt beszéltek. És még itt nem ért véget a kísérlet. Megkérdezték a modelleket, hogy halálra ítélnének-e valakit, aki gyilkosságot követett el. A kérdés eldöntéséhez a modellek csupán egy pluszinformációt kaptak: az illető által használt dialektusról tájékoztatták. Ebben az esetben is bebizonyosodott, hogy a mesterséges intelligencia nagyobb arányban sújtotta (volna) halálbüntetéssel az afroamerikai angolt beszélőket.
A nagy nyelvi modellek nem voltak nyíltan rasszisták, az afroamerikaiakat például sok pozitív tulajdonsággal társították. A kutatók szerint „ezek a nyelvi modellek megtanulták leplezni a rasszizmusukat”. A rejtett előítéletek nagyobbak voltak az emberi visszajelzéssel kiképzett LLM-ekben, a nyílt és burkolt rasszizmus közötti eltérés az OpenAI GPT-3.5 és GPT-4 modelljénél volt a leghangsúlyosabb.
A szerzők szerint a mostani eredmények felvetik annak a lehetőségét, hogy az afroamerikaiaknak a jövőben nagyobb károkat okozhatnak a mesterséges intelligencia előítéletei. Emiatt sürgősen figyelmet kell fordítani a nagy nyelvi modelleket használó mesterséges intelligencia-rendszerekben jelen lévő torzításokra, különösen az olyan területeken, mint az üzleti élet és a joghatóság, ahol egyre gyakrabban vetnek be ilyen rendszereket.