Rájöttek a kutatók, hogyan lehet átverni a kamuvideókat kiszűrő programokat

A Kaliforniai Egyetem tudósai arra figyelmeztetnek: még a legjobb, a deepfake videók kiszűrésére fejlesztett mesterséges intelligenciát is át lehet verni egy újfajta trükkel.

  • hvg.hu hvg.hu
Rájöttek a kutatók, hogyan lehet átverni a kamuvideókat kiszűrő programokat

Az álhírek elleni küzdelem egyik legfontosabb része, hogy képesek legyünk felismerni, ha deepfake technológiával készült videó kerül elénk. Ezek azok a tartalmak, amiknél első ránézésre úgy tűnik, mintha egy valós személyt látnánk beszélni, de valójában egy algoritmus segítségével profi módon összepakolt anyagot láthatunk.

Hogy mindez mennyire veszélyes, azt talán nem kell magyaráznunk: ha egy világhatalom, például az Egyesült Államok elnökének szájába olyasmit adnak, amit soha nem mondott el, az bel- és külpolitikai szempontból is igen súlyos következményekkel járhat. Éppen ezért az elmúlt években az egyetemektől a techcégekig számos kutató dolgozott azon, hogy olyan szoftvert fejlesszenek ki, amely képes felismerni a deepfake videókat. Ezen a téren a Microsoft megoldása egészen jónak tűnik, ám a tudósok most arra figyelmeztettek, az ilyen típusú szoftverek sem tévedhetetlenek.

Egyszer csak megjelent a kanapén Mark Zuckerberg, és lopott adatokról kezdett halandzsázni

Egy újabb deepfake-technológiával készült videó terjed a közösségi oldalakon, amely újfent arra figyelmeztet, hogy nem szabad mindent elhinni, amit a neten látunk/hallunk.

A Kaliforniai Egyetem kutatói szerint ezeket a felismerő programokat át lehet ejteni, így olyan videók is átmehetnek a szűrőiken, amelyeknek nem volna szabad. Az eljárás lényege röviden az, hogy a videó minden egyes képkockájához olyan plusz tartalmat adnak hozzá, ami az ellenőrzésre készített mesterséges intelligenciától kikényszeríti a hibát.

A legtöbb ellenőrző szoftver az arcról készít felvételt, amit tovább küld a mesterséges intelligenciának. Az olyan elemeket keres a felvételen, amelyeket a deepfake technológia nem képes tökéletesen reprodukálni – például a pislogást.

Csakhogy azzal, hogy hogy a kutatók minden egyes képkockához egy azzal ellentétes képkockát illesztettek a videóba, a mesterséges intelligencia vak marad a csalásra. A szakemberek szerint ezzel a trükkel még a legkorszerűbb algoritmusokat is át lehet ejteni. Az alábbi videó Barack Obamáról deepfake technológiával készült, ám a rendszer folyamatosan valódiként értékeli.

A kutatók azt javasolják, az ilyen módszerek felismerésére is képezzék ki a szoftvereket.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.