Olyat láttak a képviselők, hogy elmehet a kedvük az arcfelismerő rendszerek engedélyezésétől

Egy arcfelismerő algoritmus tévesztése elméletben megmosolyogtató, gyakorlatban szomorú következményekkel járhat. De akkor sem feltétlenül aludhatunk nyugodtan, ha jól működik a technológia.

Olyat láttak a képviselők, hogy elmehet a kedvük az arcfelismerő rendszerek engedélyezésétől

Hideg zuhanyként hatott a mesterséges intelligencia heti rendszerességű sikerbeszámolói után az a kísérlet, amelynek híre a napokban bejárta a világsajtót, és látványosan illusztrálta, mennyire messze állunk attól, hogy önálló döntéseket merjünk gépekre bízni. Az arcfelismerés állami alkalmazása ellen – a technológia gyerekbetegségeként adódó hibalehetőségek miatt – hosszú évek óta küzdő amerikai polgárjogi szervezet, az American Civil Liberties Union (ACLU) a világ egyik legjobbjának tartott arcfelismerő technológiát tesztelte politikusok és bűnözők fényképein. A szervezet ugyanahhoz az Amazon Rekognition szolgáltatáshoz vásárolt fejlesztői hozzáférést, amelyet Florida és Oregon államban is kipróbáltak már a rendvédelmi szervek. Megmutatták a szoftvernek az amerikai kongresszus tagjairól készült hivatalos fényképeket, majd 25 ezer körözési fotót, és arra kérték, keressen egyezéseket. A rendszer 28 képviselőről állapította meg (tévesen), hogy szerepel a körözési listán. A képviselőház 435 és a szenátus 100 politikusával számolva ez alig több ugyan, mint 5 százaléknyi „fals pozitív” riasztás, mégis komoly kétségeket ébreszt azt illetően, mennyire bízhatunk meg a technológiában olyankor, amikor valakinek a büntetőeljárás alá vonása a tét.

A kísérlet során az ACLU az alapértelmezett beállítást használta, a szoftver legalább 80 százalékos egyezés esetében vélt azonosnak két arcot. Az Amazon sietett is leszögezni: épp ez a gond, az ilyen mértékű hasonlóság ugyanis tárgyak azonosítására alkalmas, emberekére már kevésbé. A vállalat szóvivője a Reuters hírügynökségnek úgy nyilatkozott, hogy személyek azonosításához legalább 95 százalékos egyezési beállítás ajánlatos. Később Matt Wood, a cégnek a mesterséges intelligencia fejlesztéséért felelős vezetője az Amazon hivatalos blogjában már arról írt, hogy a bűnözők után kutató hatóságoknak úgy kell beállítaniuk a szoftvert, hogy csak 99 százalékos egyezés esetén jelezzen azonosságot, mert így – saját, 25 ezer körözési fotó helyett 850 ezer képpel végzett tesztjük alapján – már nem fog tévedni.

Nagyon is kérdéses, hogy elvárhatunk-e valóban 100 százalékos pontossággal dolgozó – és kijátszhatatlan – rendszert. Éppen egy évtizede annak, hogy a Glasgow-i Egyetem pszichológusai közhírré tették: meg-, illetve inkább feltalálták az arcfelismerés szent grálját. Ehhez nem programoztak, csak gondolkodtak. Egy szokványos hibahatárral dolgozó algoritmusnak nem egyetlen képet adtak ahhoz, hogy „megismerjen” valakit, hanem John Travolta esetében például húsz, különböző életkorban, más-más helyszínen, változatos beállítás és fényviszonyok mellett, eltérő frizurával és eltérő arckifejezésekkel készített fotót mutattak meg neki. A kutatók két tucat ember esetében futtatták végig a kísérletet, a szoftver pedig az ilyen alapos „ismerkedés” után minden esetben képes volt bármelyik célszemély azonosítására, bármilyen felismerendő képet mutattak is róla.

Bár a glasgow-i eredmény a patinás Science tudományos folyóiratban jelent meg, már akkor is többen a kétségüket fogalmazták meg azzal kapcsolatban, hogy sikerült nemcsak a fals pozitív arányt nullára csökkentő, de egyben megtéveszthetetlen rendszert kitalálni. Az idő a szkeptikusokat látszik igazolni, hiszen a nagy bejelentés után több mint tíz év elteltével is szállingóznak hírek a hatóságok által is használt arcfelismerő technológiák tévedéseiről. Azt pedig a saját életünkben tapasztalhatjuk, hogy az arcunkat éveken át napi szinten több tucatszor látó okostelefonok is messze állnak a 100 százalékos felismerési pontosságtól.

A technológia kiforratlanságából adódó hibalehetőségek helyett éppen az egyre jobban működő, egyre több helyen alkalmazott arcfelismerés miatt aggódik a Microsoft. Brad Smith, a vállalat főjogásza még július elején hosszabb értekezést írt erről. Szerinte a technológia széles körű alkalmazása olyan kérdéseket vet fel, amelyek alapvető emberi jogokig vezetnek el, mint a magánélethez való jog és a szólásszabadság. Különösen aktuálisan hangzik ez az arcfelismerő algoritmussal dolgozó Facebook adatgyűjtési botrányainak korában. A szakjogász úgy látja, a technológiát fejlesztő vállalatok önszabályozásában kár bíznunk, mindenképpen szükség lenne a modern helyzethez igazított, új törvényekre. Ehhez persze csak igazán demokratikus viszonyok szerencsések: Kínában vagy Oroszországban akár könnyen a visszájára is fordulhat. Elrettentő példaként gondolhatunk az 1984 című műre vagy a Különvélemény című filmre.

A cikk eredetileg a HVG hetilap 2018/32. számában jelent meg. Ha máskor is tudni szeretne hasonló dolgokról, keresse a Tech + tudomány rovatot a hetilapban és kövesse a HVG Tech rovatának Facebook-oldalát.