Szemtelenül fejlődik a mesterséges intelligencia, már néhány szemésznél is ügyesebb
Több tucat kérdést tettek fel az MI-nek és különböző tudásszinten lévő szemésznek, hogy kiderüljön, ki vagy mi a jobb. Az eredmények alapján a technológia ígéretes, de azért ennél némileg bonyolultabb a képlet.
hvg.hu
A mesterséges intelligencia folyamatosan fejlődik, és egyre több területre teszi be a lábát. A kezdetektől fogva téma – és számos vizsgálat alapja –, hogy egyszer az orvosokat is kiválthatja a technológia, legalábbis segítheti az orvostudományt. Jelen állás szerint azonban felemás a kép; van, hogy kicsit jobban teljesít az orvosi feladatsorok felett, és van, hogy igen rosszul.
Most a Cambridge-i Egyetem orvosi iskolája járt utána annak, hogy a különböző nyelvi modellek hogyan teljesítenek a szemészeti vizsgálatok terén. Mint kiderült: a ChatGPT fizetős verziója mögött is álló, OpenAI-féle GPT-4 (tavalyi verziója) majdnem olyan jól teljesít a területen, mint a hús-vér szakemnerek.
A PLOS Digital Health folyóiratban publikált tanulmányban a kutatók összesen 87 feleletválasztós kérdést szegeztek olyan nyelvi modelleknek, mint a Meta LLaMA, a Google PaLM 2, vagy a már említett GPT-4 régebbi, a ChatGPT ingyenes változatát kiszolgáló GPT-3.5.
Az Egyesült Királyságban törvény fogja büntetni, ha valaki deepfake pornót készít egy másik ember arcával. Az igazán szigorú büntetés akkor jár majd, ha valaki meg is osztja azt.
A kérdéseket öt képzett szemész, három gyakorló szemész szakorvos, és két, még nem szakosodott fiatal orvos elé is letették. Olyan tankönyvből származtak a kérdések, melyek nem nyilvánosak, így a kutatók szerint a nyelvi modelleket nem is képezhették belőle – így nem rendelkeztek ismeretekkel ebből a tankönyvből.
Ami az eredményeket illeti, a GPT-4 magasabb pontszámot ért el, mint a gyakorló és a fiatal orvosok – 60 helyes választ adott a 87-ből. A szakképzett orvosok átlagosan 66,4 helyes választ adtak, amivel le tudták gyűrni a mesterséges intelligenciát.
A PaLM 2 modell 49, míg a GPT-3.5 42 helyes választ adott, az utolsó helyre pedig az LLaMa került 28 ponttal – az eredményeket a Financial Times összegezte elsőként.
Dán kutatók hatmillió ember adataival tanították be a Life2Vec nevű mesterséges intelligenciának, hogyan jósolhatja meg az ismétlődő mintázatok alapján, milyen sors vár egy emberre.
Azt ugyanakkor érdemes szem előtt tartani, hogy a kísérleteket 2023 közepén végezték (a tanulmányt azonban csak most publikálták), így az is elképzelhető, hogy azóta jobbak lettek a nyelvi modellek.
Az aggályok és kockázatok azonban nem kerülik el ezeket a megállapításokat sem; korlátozott volt a kérdések – és az érintett témák – száma, így érdemes bizonyos tekintetben fenntartással kezelni az eredményeket. Elég csak megemlíteni az MI-kre jellemző „hallucinációk” problémáját, vagy hogy kitalálnak nem létező dolgokat.
Az sem valószínű, hogy a szemészeknek néhány éven belül más állás után kéne nézniük: a mesterséges intelligencia inkább lehet egy hasznos segédeszköz, mint egy, a szakembereket teljesen kiváltó technológia.
Ritkán látott botrány lett egy csökkenő eladásokkal küzdő divatház reklámjából, amely közel egy hete tematizálja az amerikai közéletet. Mások belebuktak hasonló ügyekbe, ám itt még jól is alakulhatnak a dolgok az American Eagle számára, és ebben nagy szerepe lehet Donald Trumpnak.