szerző:
hvg.hu
Tetszett a cikk?

A munkájukhoz kértek segítséget, eközben azonban három alkalommal is bizalmas adatokat adtak át a ChatGPT-nek a Samsung munkatársai – a chatbot alatt dolgozó nyelvi modellt ugyanis folyamatosan tanítják a betáplált információkból, azaz a beszélgetésekből.

Saját bőrén tapasztalta meg a Samsung – és annak néhány dolgozója –, hogy miért nem jó ötlet bizalmas adatokról beszélgetni a ChatGPT-vel.

A dél-koreai gyártó néhány munkatársa ugyanis rendkívül fontos, titkos információkról csevegett a chatbottal. Miközben azonban a munkájukhoz kértek segítséget a ChatGPT-től, valójában szivárogtattak: a chatbot mögötti nyelvi modellbe betáplált adatok ugyanis megmaradnak, és azokkal fejlesztik tovább azt.

A Samsung a félvezető-részleg mérnökeinek engedte meg, hogy a ChatGPT-vel ellenőrizzenek forráskódokat. A dél-koreai The Economist Korea szerint azonban az alkalmazottak három alkalommal is bizalmas információkat adtak ki a chatbotnak, egyszer például valaki egy egész forráskódot illesztett be hibakeresés céljából. Más a kód „optimalizálását” kérte a chatbottól, a harmadik esetben pedig egy meetingről készült felvételt táplálták be a ChatGPT-nek, hogy egy prezentációhoz készítsenek jegyzeteket.

Akár már idén jöhet a ChatGPT alatt dolgozó mesterséges intelligencia új változata, amit már nem lehet majd megkülönböztetni az embertől

Előnyökkel és hátrányokkal egyaránt járhat, ha eléri az általános mesterséges intelligencia (AGI) szintjét a GPT-5-tel az OpenAI, ami az elmúlt hónapokban a ChatGPT-vel került a hírek középpontjába.

A Samsung azonnal lépett, a ChatGPT feltöltési korlátját 1024 bájtra korlátozta (megelőzve ezzel minden bizonnyal a nagyobb fájlok, hosszabb kódok megosztását), az érintett munkavállalókkal szemben pedig vizsgálatot indított. Emellett azon is gondolkodnak a cégnél, hogy saját, belső felhasználású chatbotot fejlesztenek, hogy megelőzzék az ehhez hasonló incidenseket a jövőben – fűzi hozzá a Mashable.

A fenti eset is rávilágít arra, hogy miért aggódnak az adatvédelmi szakértők a ChatGPT miatt. A chatbottal megosztott információkat mind felhasználják a modell további fejlesztésére – így, bár hasznos lehet a szolgáltatás jogi szövegek vagy más, üzleti titoknak minősülő dokumentumok összefoglalására, de ezek az információk nem feltétlenül maradnak titokban.

Emlékezetes, Olaszország néhány hete éppen adatvédelmi aggályok miatt tette elérhetetlenné a ChatGPT-t az országban.

Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.

HVG

HVG-előfizetés digitálisan is!

Rendelje meg a HVG hetilapot papíron vagy digitálisan, és olvasson minket bárhol, bármikor!