szerző:
hvg.hu
Tetszett a cikk?

A Facebook mesterséges intelligencia-kutatásért felelős szakemberei nemrég két csevegőbotot engedtek egymásnak, hogy a gépi tanulás segítségével gyakorolják a kommunikációt. Korábbi sajtóhírek szerint pánik lett a vége. Bár egy fontos részletről valóban megfeledkeztek, de közben kiderült: túl nagy baj nem történt.

Alig egy hónappal ezelőtt számoltunk be arról, hogy a Facebook mesterséges intelligenciája véletlenül saját nyelvet talált ki. A fejlesztők eredetileg azért engedték össze a csevegőbotokat, hogy egymással beszélgetve javuljon a kommunikációs képességük. Ehhez képest ahelyett, hogy angolul beszéltek volna, olyan mondatokat küldözgettek egymásnak, amik az emberek számára értelmetlenek, ők azonban tökéletesen megértették egymást.

©

Az eset kapcsán az elmúlt napokban több helyen is megjelent a hír, miszerint a Facebook fejlesztői annyira megijedtek a mesterséges intelligencia által kitalált nyelvtől (mert azt nem értették, ellentétben a géppel), hogy jobbnak látták, ha az egész rendszert lekapcsolják. A Gizmodo szerint azonban szó sem volt ilyesmiről, a korábban szárnyra kapott hírek pedig túlzóak voltak.

A fejlesztők még júniusban írtak a Facebook blogján arról, hogy a szóban forgó botokat "alkudozásra" találták ki, ami képes egyezségre jutni a csevegőpartnerével.

A Gizmodo szerint a csevegőbotok soha nem csináltak mást, csak végezték a rájuk bízott feladatot. Az eredeti cél az volt, hogy olyan eszközt fejlesszenek ki, ami az emberi viselkedésből tanulva fejlődik, egészen addig, míg végül a felhasználó nem fogja tudni eldönteni, hogy emberrel vagy géppel beszélget-e. A mesterséges intelligencia kutatásáért (Facebook Artificial Intelligence Research (FAIR)) felelős szakemberek szerint pedig a projekt sikeres volt.

A fejlesztők azért is engedték egymásnak a két csevegőbotot, hogy azok egymással beszélgetve fejlődjenek, a szakemberek azonban hibáztak, ugyanis nem kötötték ki, hogy csak az angol nyelv szabályainak megfelelően folytathatják a beszélgetést. Az "ijesztő" robotnyelv pedig emiatt alakult ki. Dhruv Batra, a FART egyik kutatója szerint amikor a robot ugyanazokat a dolgokat ismételgette, az csupán annyit jelentett, hogy annyi darab kell nekik az adott tárgyból, ahányszor elismételték azt.

A hiba megjelenése után a fejlesztők valóban leállították a rendszert, azonban nem azért, mert megijedtek volna tőle, csupán azért, hogy ne egy rossz metódust tanuljanak meg a robotok.

Ettől függetlenül persze még jó okunk lehet arra, hogy megakadályozzuk a számítógépnek, hogy saját dolgokat fejlesszen ki – kontroll alatt ugyanis csak akkor lehet tartani, amíg a fejlesztők értik, mit miért tesznek és mondanak –, az ilyen "kommunikációs" hibák azonban általánosak.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

VELETEK VAGYUNK – OLVASÓKKAL, ÚJSÁGÍRÓKKAL!

A hatalomtól független szerkesztőségek száma folyamatosan csökken, a még létezők pedig napról napra erősödő ellenszélben próbálnak talpon maradni. A HVG-ben kitartunk, nem engedünk a nyomásnak, és minden nap elhozzuk a hazai és nemzetközi híreket.

Ezért kérünk titeket, olvasóinkat, hogy tartsatok ki mellettünk, támogassatok bennünket, csatlakozzatok pártolói tagságunkhoz, illetve újítsátok meg azt!

Mi pedig azt ígérjük, hogy továbbra is minden körülmények között a tőlünk telhető legtöbbet nyújtjuk a számotokra!
Egyetlen elnök sem volt annyira népszerűtlen első ciklusa végén, mint Trump

Egyetlen elnök sem volt annyira népszerűtlen első ciklusa végén, mint Trump

Műemléki védettséggel mentheti meg a kormány a Márványmenyasszonyt és a Wichmann épületét

Műemléki védettséggel mentheti meg a kormány a Márványmenyasszonyt és a Wichmann épületét

A Népligetben mindig több volt, de talán nem marad mostohagyerek

A Népligetben mindig több volt, de talán nem marad mostohagyerek