szerző:
hvg.hu
Tetszett a cikk?

Gyakorlatilag „megőrül” a mesterséges intelligencia, ha olyan adatokon tanítják be, amelyet nem más generált, mint egy másik mesterséges intelligencia.

Nem hétköznapi kísérletet végeztek a Rice és a Stanford Egyetem szakemberei: a mesterséges intelligencia által generált tartalmakon tanítottak egy mesterséges intelligenciát. Igen, pontosan – és kiderült, hogy ez bizony nem jó ötlet, mert a kimeneti eredmény minőségére igencsak rossz hatással lesz.

Pedig ez nem egy lehetetlen dolog: ahogy az interneten elterjednek majd a mesterséges intelligencia által generált tartalmak, úgy tanulhat egy másik MI-modell is ezekből, miközben az interneten kutat.

Pedig nagyon úgy fest, hogy mindez nem kifejezetten tetszik a mesterségesintelligencia-modellnek, ami voltaképpen „megőrül” ettől.

Félnek a magyarok a mesterséges intelligenciától?

A magyar közösségimédia-felhasználók mindösszesen 13 százaléka használt már olyan alkalmazásokat, mint a szövegelő ChatGPT vagy a képgeneráló DALL-E 2. A mesterséges intelligencia használatát óvatosság és félelem kíséri, derül ki a Sophos felméréséből, amely szerint 3 válaszadóból 2 úgy véli, hogy az ilyen programokba bevitt adatokkal visszaélhetnek az alkalmazások tulajdonosai vagy a kiberbűnözők.

Mint kiderült, „friss és valós” adatok hiányában – ami valódi emberek által készült –, ha csak az MI által generált dolgokat kap egy másik modell a betanításakor, akkor a kimenet „drasztikusan megsérülhet”.

Az arXiv folyóiratban publikált tanulmányt egyelőre még nem lektorálták. A Futurism szerint azonban öt ilyen, mesterséges adatokkal történő tanítási körre volt szükség ahhoz, hogy annak látható eredménye legyen a kimeneten.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!