szerző:
hvg.hu
Tetszett a cikk?

A mesterséges intelligencia (MI) eszközeinek elterjedésével minden eddiginél könnyebb megszemélyesíteni valakit és megtéveszteni másokat, pénzt, adatot kicsalni a célpontoktól. A korábban kifejlesztett módszerek hatékonyságát megsokszorozza az MI, melyet a vezető intézmények irányelvek és technológiák kombinációjával próbálnak kezelni – áll a Deloitte legfrissebb Tech Trends 2024 elemzésében.

A mesterséges intelligencia és deepfake elérte azt a minőséget, hogy bárkit úgy lehessen beállítani, mintha valamit mondott vagy tett volna. A generatív MI gyors fejlődésének köszönhetően a mesterségesen generált tartalom elérte azt a pontot, hogy nehéz megkülönböztetni, mi a valós, és mi nem. Ezt jól példázza a friss ügy, melyben 9 milliárd forintnyi összeg átutalására bírták rá egy cég pénzügyes munkatársát, aki a videokonferenciák során meg volt róla győződve, hogy végig a vállalat pénzügyi vezetőjével beszél. Ugyanis őt látta az élőképen és az ő hangját is hallhatta.

„Az MI eszközök elterjedésével a kiberbűnözők minden eddiginél könnyebben adják ki magukat másnak és tévesztik meg áldozataikat. Sokan a hang- és arcfelismeréses hozzáférés-ellenőrzés megkerülésére, valamint adathalász-kísérletekhez deepfake-et használnak. A biztonsági kockázatok megsokszorozódnak minden egyes új tartalomgeneráló eszközzel, amely az internetre kerül” – mondta Szöllősi Zoltán, a Deloitte Magyarország kockázatkezelési tanácsadás üzletágának partnere.

A pszichológiai manipulációt alkalmazó bűnözők fő módszere, hogy meggyőzzék a célpontot, aki hozzáférést enged a rendszerekhez. Ez a stratégia ugyan nagyon hatékony, de sok személyes interakciót igényel a csaló és az áldozat között. A mesterségesen generált tartalom lehetővé teszi a támadók számára, hogy sokkal kisebb időbefektetéssel hozzák létre ezt a személyes kapcsolatot: a mesterségesen generált tartalmak mostanában a cégek biztonsági réseit veszik célba, megbízható forrásoknak kiadva magukat.

Dimenziót ugrottak a bűnözők a neten, ijesztően lejjebb került a léc

A mesterséges intelligenciával hatékony eszköz került a hackerek kezébe, már egy átlagos tudással rendelkező felhasználó is képes rosszindulatú programok megírására. Az MI ugyanakkor a védekezőket is segíti, így új dimenzióba került a kiberbűnözés és az ellene folytatott harc.

A Deloitte felmérésében a megkérdezettek többsége úgy véli, képesek megkülönböztetni az MI és a valós emberek által létrehozott tartalmat, és mindössze 20 százalék kételkedik ebben. Ez abból adódik, hogy az emberek arra számítanak, hogy a mesterségesen generált tartalom valamilyen módon mesterségesnek néz ki vagy annak hangzik. Azonban a valóságban kevesen tudnak megbízhatóan különbséget tenni a kettő között, mivel az MI tartalomgenerátorokat az ember által létrehozott tartalmakon tanítják.

Hogyan védekezzenek a vállalatok az új fenyegetés ellen?

Amikor a generatív MI-eszközök nyilvánossá váltak, a hackerek előnyt élveztek, mivel ezek a modellek a legnagyobb technológiai cégek legerősebb hardvereihez és legnagyobb méretű adathalmazaihoz fértek hozzá. A felismerő rendszerek első generációjának nem volt megfelelő nagyságú adathalmaza a szintetikus tartalmak azonosítására ám ez mára megváltozott. Bizonyos vállalatok egy petabájt méretű szöveg-, kép- és hangadatbázison tanítják szintetikus médiafelismerő platformjukat, amelynek egy része mesterségesen generált. Egy ekkora adathalmazon alapuló vizsgálat során már apró jelek is mutathatják, hogy valamit MI-eszközzel hoztak létre.

Más eszközök is vannak már MI által generált tartalmak felismerésére. Az Intel még 2022 végén mutatta be deepfake-felismerőjét, amely az adatokon túlmenően a videókon szereplő emberek arcán való véráramlást figyelve elemzi a videókat. Az ember szívének pumpálásával az erek színe enyhén megváltozik, amelyet az MI-modellek számára nagyon nehéz jelenleg utánozni. Az Intel állítja: FakeCatcher nevű eszköze 100-ból 96-szor kiszúrja, ha deepfake-videót lát.

Felkészül: a kvantumszámítógép

A kvantuminformatika még néhány évnyire van attól, hogy széleskörben elérhetővé váljon, a Deloitte elemzői szerint a folyamat azonban gyorsul és könnyen lehet, hogy ez lesz a hackerek és a vállalatok harcának következő eszköze. A technológia egyik legígéretesebb felhasználási területe a kvantum gépi tanulás, amely révén kevesebb rendelkezésre álló adatból is lehet előrejelző modelleket létrehozni, és sokkal összetettebb modellek kidolgozását teszi lehetővé, mint ami ma a legfejlettebb grafikus feldolgozóegységek hardverének segítségével lehetséges.

A kiberbiztonságukat javítani kívánó vállalatok számára a kvantum gépi tanulás a szintetikusmédia-szűrőket javíthatná. Ahelyett, hogy több milliárd adatpontra lenne szükségük ahhoz, hogy megtanulják felismerni a mesterségesen létrehozott médiát, a speciális szűrők már néhány példa megvizsgálása után megtanulhatják felismerni a hamisítványokat.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!