szerző:
hvg.hu
Tetszett a cikk?

Veszélybe kerülhet a tudományba vetett bizalom – figyelmeztetnek az amerikai kutatók, akik szerint a mesterséges intelligenciára alapuló ChatGPT olyan jó összefoglalót ír a tudományos cikkekhez, hogy az esetek harmadában a kutatás hitelességét ellenőrző tudósokon is átcsúszik mint emberi szerzemény.

Egy ideje szinte napi szinten lehet hallani OpenAI fejlesztéséről, a ChatGPT-ről. A mesterséges intelligencián alapuló szoftver meglepően jó, és rendkívül sokoldalúan felhasználható: amellett, hogy új stílusban tud prezentálni egy már meglévő szöveget, saját forráskódot is tud írni, az ember által írt kódban megkeresi és megtalálja a hibákat, sőt a chatboton belül egy másik chatbotot is képes szimulálni.

A fejlesztés annyira jó, hogy a Google-nél már bepánikoltak tőle, a Microsoft pedig bejelentette, beépíti a saját internetes keresőjébe, a Bingbe. A kiváló szövegalkotás azonban komoly veszélyeket is rejt magában.

Az amerikai Northwestern Egyetem és a Chicagói Egyetem szakemberei szerint az egyik ilyen veszélyforrás az, hogy a ChatGPT az általa alkotott szöveggel képes akár a tudományos lektorokat is megtéveszteni – vagyis azokat a szakembereket, akik egy tudományos publikáció hitelességét és pontosságát ellenőrzik azok megjelenése előtt. A kutatók arra figyelmeztetnek: ha mindez általánossá válik, az a tudomány válságához vezethet.

Átverhet bennünket a mesterséges intelligencia?

Egyre gyakrabban kapunk bizonyítékokat arra, milyen fejlettek lettek a mesterséges intelligencián alapuló megoldások. Amerikai kutatók azon fáradoznak, hogy leleplezzék a gépi algoritmusokkal elkövetett csalásokat.

A kutatók 50 valódi, már publikált orvostudományi cikkel végeztek kísérletet. A ChatGPT-t arra kérték, hogy az adott cikkek címe alapján készítsen összefoglalót egy adott folyóirat stílusában. Ezután fogták az igazi és a gép által írt összefoglalókat, majd a 100 anyagot négy különböző szakembernek küldték el átolvasásra. Itt csak arra figyeltek, hogy egy ember ne kapja még egy cikk eredeti és géppel írt absztraktját. A kutatók ezután annyit mondtak az olvasóknak, hogy az összefoglalók egy része hamis, más része pedig valódi.

A bioRxiv preprint szerveren közzétett eredmény szerint bár az esetek többségében, 68 százalékában helyesen találták el, hogy melyik valódi és melyik a mesterséges összefoglaló, aggasztó, hogy az esetek 32 százalékában (vagyis gyakorlatilag harmadában) tévedtek.

Ráadusul ez annak ellenére volt így, hogy a generált 50 összefoglaló csupán 8 százaléka felelt meg a szakfolyóirat szerkesztési irányelveinek.

Emellett az alanyok az esetek 14 százalékában a valódi cikkösszefoglalóra mondták azt, hogy azt a mesterséges intelligencia írta.

A tanulmány szerzői azt írták, az alanyok szerint meglepően nehéz volt eldönteni, melyik a valós és melyik a gépi absztrakt – idézte őket a Gizmodo.

Az olvasók észre sem veszik, de hazavághatja a tudományt, ha robot szerkeszti a szövegeket

Segíti a tudósok munkáját, de ronthatja eredményeik hitelességét az az egyre gyakrabban alkalmazott technológia, mely képes hatalmas mennyiségű szövegből egy rövid összefoglalót generálni.

Catherine Gao, a Northwestern Egyetem tudósa szerint azért aggasztó, hogy a szöveg hitelességét ellenőrző szakemberek az esetek harmadában tévedtek, mert ők tudták, hogy az összefoglalók egy része hamis – akinek viszont erre eleve fel sem hívják a figyelmét, az még nagyobb eséllyel megtéveszthető.

A kutatók attól tartanak, hogy a mesterséges intelligencia még jobban felpörgeti a csalásokat. Vannak ugyanis olyanok, akik plagizálnak anyagokat, vagy helytelen adatokat raknak össze egy tudományosnak tűnő cikkbe, hogy aztán azt eladják olyanoknak, akik szeretnék egy kicsit felgyorsítani a szakmai előmenetelüket.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!