szerző:
hvg.hu
Tetszett a cikk?

Oxfordi kutatók szerint a mesterséges intelligencia gyakran hajlamos arra, hogy hamis információkat hitelesként tálaljon. Ez komoly problémát jelenthet a tudomány számára.

Az ismert chatbotok mögött is dolgozó nagy nyelvi modellek (Large Language Model, LLM) riasztó módon hajlamosak arra, hogy hallucináljanak. Mindez ebben az esetben azt jelenti, hogy hamis tartalmakat generálnak, amit aztán pontos információként tálalnak a felhasználóknak. Az Oxford Internet Institute kutatói arra figyelmeztetnek, mindez komoly veszélyt jelent a társadalomra és a tudományra nézve is.

A Nature Human Behaviour című tudományos lapban megjelent publikációban a szakemberek arról írnak, hogy „az LLM-eket úgy tervezték, hogy segítőkész és meggyőző válaszokat adjanak anélkül, hogy bármiféle garanciát vállalnának a pontosságukra vagy a tényekkel való összhangjukra vonatkozóan”. A problémát tetézi, hogy ezeket a rendszereket jelenleg a tudás forrásaként kezelik az emberek – írja a The Next Web.

Az LLM-ek kérdésekre és felszólításokra generálnak válaszokat, ám az adatkészlet, amin kiképezték őket, nem feltétlenül tényszerűen helyes. Ennek oka, hogy a modellek gyakran használnak online forrásokat, ahol vagy téves információ, vagy vélemény szerepel, a rendszer viszont úgy veszi, hogy megbízható, pontos adatokat lát.

Brent Mittelstadt, a tanulmány társszerzője szerint a felhasználók antropomorfizálják a mesterséges intelligenciát, vagyis úgy bíznak benne, mintha egy ember válaszolna nekik. A szakember úgy látja, ez részben annak köszönhető, hogy a szoftvert úgy tervezték meg, hogy az emberi hangvételben kommunikáljon, és magabiztosan közölje az általa leírt adatokat. Emiatt viszont a felhasználók akkor is megbíznak benne, ha valójában nem pontos adatokat közöl a rendszer, vagy elfogult választ ad.

Ne feküdjön a kése alá: gyenge kettessel csúszott át az orvosi vizsgán a Google mesterséges intelligenciája

Néhány százalékon múlt, de teljesítette az amerikai orvosi engedélyhez szükséges vizsgát a Google Med-PaLM-modellje, melynek már az új változatán is dolgoznak.

A tudomány ezt megszenvedheti, ezért a kutatók arra ösztönzik a tudományos közösséget, hogy lássák el minél több adattal az LLM-eket. Ezután kérniük kell, hogy következtessen vagy alakítsa kóddá a válaszát, így könnyen ellenőrizhetővé válik, hogy a rendszer jól dolgozik-e, a kimenet pedig tényszerű és helyes-s.

Az oxfordi kutatók abban egyetértenek, hogy a mesterséges intelligencia segíteni fogja a tudományt, előtte azonban meg kell tanulni pontosan használni azt.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!