szerző:
HVG
Tetszett a cikk?

Mi történik, ha a mesterséges intelligencia rossz adatokat tanul meg, és emiatt szükségszerűen félrevezeti a döntéshozókat? A toxikus adatok eltávolítása mellett hogyan garantálható, hogy az MI csak addig kezeljen érzékeny adatokat, ameddig szükséges és a jogszabályok azt megengedik? Ezek a kérdések vezették az IBM legújabb fejlesztéseit, amelyeknek köszönhetően a modellek képesek a megbízhatóságot és a jogi megfelelést egyaránt támogatva szelektíven „elfelejteni” bizonyos információkat. Ez az unlearning technológia a szakértők szerint fontos mérföldkő.

Az unlearning fogalmát fordított tanulásként lehetne lefordítani: célja, hogy a modellekből eltávolítsa a nemkívánatos adatokat anélkül, hogy újra kellene kezdeni a teljes tanítási folyamatot. Ennek a fejlesztésnek fontos szerepe lehet abban, hogy a jövőben az MI-modellek egyszerre hatékonyabban és etikusabban működhessenek olyan környezetekben, ahol az érzékeny adatok törlése kötelező előírás vagy elvárás – vélik az IBM-nél.

A vállalat kutatói szerint az unlearning jelentős előrelépés lehet az MI-modellek tökéletesítésében és biztonságosabbá tételében, ami nélkülözhetetlen annak érdekében, hogy a vállalati és intézményi döntéshozók mesterséges intelligenciába vetett bizalma erősödjön. A fordított tanulás amellett, hogy segít kiszűrni a téves következtetésekre vezető inputokat, megoldást kínál a nagy nyelvi modellek válaszaiban megjelenő toxikus, vagy etikai aggályokat felvető információk kiszűrésére és eltávolítására is. Ilyen például az, ha az alapadatok faji vagy nemi alapú, vagy éppen a szocioökonómiai státuszhoz kapcsolódó torzításokat tartalmaznak, hiszen ezeket a modellek is átvehetik. Az így születő következtetések és legenerált outputok pedig hátrányosan érinthetnek például olyan álláshirdetésre jelentkezőket, akiknek az önéletrajzát egy AI válogatja szét, vagy hiteligénylőket, akik első körös elbírálását mesterséges intelligencia végzi. Az ilyen esetek korrekcióját teszi lehetővé az unlearning:

ha egy MI-modell „megtanult” egy torzított adatsor alapján egy toxikus eljárást, az unlearning folyamat eredményeképpen ezt nemcsak elnyomni lesz képes, hanem el is felejti minden formáját.

Az unlearning ugyanakkor a döntéshozók a mesterséges intelligenciával kapcsolatos egyik leggyakoribb és legfontosabb fenntartásának kezelésére is alkalmas lehet, ez pedig az MI birtokába kerülő érzékeny, vagy személyes adatok sorsa – közölte az IBM. Nem véletlen, hogy a technológia iránti igény először az adatvédelmi törvények, például az EU-s GDPR rendelkezések miatt jelent meg, amelyek az adattulajdonos kérése esetén előírják a cégeknek és az intézményeknek a személyes adatok törlését. A hagyományos adatvédelmi eljárások ugyanakkor nem mindig elegendők az olyan modelleknél, amelyek több milliárd szóra és sok-sok terabájtnyi adatra épülnek, ezek esetében már fordított tanulásra van szükség.

Ezeket a számokat keresi, ha ma meg holnap jó döntést akar hozni

Bizonyíték, nem ígéret – beszédes adatokkal, immár számokban jól mérhető eredményekkel megjelent a HVG mesterséges intelligenciával foglalkozó kiadványának negyedik száma.

Az IBM szerint új fejlesztései azért lehetnek hatékonyak a mesterséges intelligenciát alkalmazó vállalatok és intézmények számára, mert azt is lehetővé teszik, hogy a modellek mindig csak a torzításokat okozó, vagy személyes jellegük miatt érzékeny adatokat felejtsék el, miközben megőrzik az adathalmazban található többi információt, ezzel javítva a modellek hatékonyságát.

A technológiai vállalat jelenleg saját, Granite névre hallgató modellcsaládján is teszteli az unlearning technológiát. Véleményük szerint at unlearning kitörési pontot jelenthet az MI-alkalmazások iránti bizalom erősítésében.”

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!