szerző:
hvg.hu

Több mint két tucat szakember állítja: a mesterséges intelligencia kapcsán nem(csak) a lázadó robotoktól, de saját magunktól is félnünk kell. Egy tanulmányban foglalták össze, miért.

Régóta komoly vita folyik arról, hogy a mesterséges intelligencia képes-e egy nap az ember fölé kerekedni, és így potenciális veszélyt jelent-e ránk nézve, vagy ez nem fog bekövetkezni. Stephen Hawking például meglehetősen borúsan látja a dolgotMark Zuckerbergnek azonban félig teli van az a bizonyos pohár. Bár a felvetés mindkét oldalról jogos, ez még mindig csak a történet egyik fele. Mert míg sokan a gyilkos robotok miatt aggódnak, a dolognak volna egy másik aspektusa is: az emberi tényező.

Sokan úgy vélik, nem is a gépek lázadásától kell igazán tartanunk, hanem attól, hogy az emberek rossz célokra használják majd az eszközt. Ennek kapcsán több mint két tucat szakember – köztük például Elon Musk OpenAI nevű szervezetének képviselői – egy olyan tanulmányt készített, ami épp ezekre a veszélyekre hívja fel a figyelmet. Az előrejelzés egyik megállapítása szerint:

ha a jelenlegi trendek folytatódnak a következő 5 évben, arra számítunk, hogy jelentős mértékben megnő a hackerek képessége arra, hogy károkat okozzanak a digitális és robotizált rendszerek segítségével.

A szakemberek szerint az egyik legnagyobb problémát az jelenti, hogy a mesterséges intelligencia használata jelentős mértékben csökkenti a különböző kibertámadások költségeit, hiszen azokhoz már nem feltétlenül kell emberi erőforrás. Ilyen lehet például, ha a kiberbűnözők adatokat akarnak lopni tőlünk. A rendszer feltérképezi a különböző személyeket, majd átverős e-mailekkel, chatbotokkal keres meg bennünket, hogy kiadjuk a jelszavunkat. Persze egy ilyen rendszer létrehozása nem megy egyik pillanatról a másikra, de miután elkészült, bármennyiszer be lehet vetni.

©

Egy másik, igen komoly probléma, hogy a mesterséges intelligencia segítségével bárkit "le lehet utánozni". Egy néhány perces tanulás után a gép már képes leutánozni a hangunkat, így bárkinek a beszédét meg lehet hamisítani. És ez már nemcsak az adathalászat miatt lehet elképesztően veszélyes, hanem az álhírek terjedését is erre fűzhetik fel a kibernűnözők. Az arcfelismerés segítségével pedig bárkit be lehet azonosítani egy pillanat alatt – elég csak a kínai rendőrök szemüvegére gondolni. A deepfake videók készítéséről már nem is beszélve.

Mindezek mellett olyan veszélyek is leselkednek ránk, amelyek néhány évvel ezelőtt még elképzelhetetlenek lettek volna. A terroristák képesek lehetnek egy takarító robotba bombát telepíteni, majd megcélozni vele egy épületet vagy személyt: a gépi látással mindkettő sikeresen végrehajtható lehet.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

Állj mellénk!

Tegyünk közösen azért, hogy a propaganda mellett továbbra is megjelenjenek a tények!

Ha neked is fontos a minőségi újságírás, kérjük, hogy támogasd a munkánkat.

Állj mellénk!

Tegyünk közösen azért, hogy a propaganda mellett továbbra is megjelenjenek a tények!

Ha neked is fontos a minőségi újságírás, kérjük, hogy támogasd a munkánkat.
Megmondta a MÁV, mennyibe kerülne, hogy ne legyenek késések

Megmondta a MÁV, mennyibe kerülne, hogy ne legyenek késések

Még morcosabb macska lehet Grumpy Cat utóda

Még morcosabb macska lehet Grumpy Cat utóda

Drónvideón a Tiszából kiemelt legendás gőzhajó

Drónvideón a Tiszából kiemelt legendás gőzhajó

Újítás a Wizz Airnél: pénzért automatikusan elvégzi a rendszer az utasfelvételt

Újítás a Wizz Airnél: pénzért automatikusan elvégzi a rendszer az utasfelvételt

75 éve ölte meg Szerb Antalt egy magyar keretlegény

75 éve ölte meg Szerb Antalt egy magyar keretlegény

Karanténba zárják, megvizsgáltatják a gödi Samsung-gyárban dolgozó kínai munkásokat

Karanténba zárják, megvizsgáltatják a gödi Samsung-gyárban dolgozó kínai munkásokat