Néhány napja kisebb botrány alakult ki a Google képgeneráló mesterséges intelligenciája, a Gemini körül – az eszköz ugyanis történelmileg helytelenül náci katonákat, valamint az amerikai alapító atyákat is színesbőrűként ábrázolta.
A Gemininek több esetben is meggyűlt a baja a fehér emberek ábrázolásával, és miután terjedni kezdtek a beszámolók a történelmileg helytelen fotókról, átmenetileg le is állították a szolgáltatás ezen részét. Ennek következtében egyáltalán nem lehetett a segítségével embereket ábrázoló képeket generálni.
A Google most egy külön blogbejegyzést szánt az eset tisztázására, melyet Prabhakar Raghavan, a Google egyik alelnöke jegyez. Ebben a szakember elnézést kér a Gemini hibájáért, megjegyezve, hogy nem szándékosan tiltották le a Geminit bizonyos embercsoportok ábrázolásáról – és azt sem akarták, hogy történelmileg, vagy bármilyen nézőpontból pontatlan képeket generáljon a modell.
Komoly problémákba futott a Google képgeneráló mesterséges intelligenciája, a javításig nem is lehet tőle emberábrázolást kérni.
Raghavan szerint a történteknek az állhat a hátterében, mert a Google nem szeretett volna beleesni azokba a hibákba, melyekbe más képgenerátorok fejlesztői a múltban belefutottak. Ilyen, hogy erőszakos, szexuális tartalmú, vagy valós személyeket ábrázoló fotókat hoztak létre.
A Geminivel történt probléma hátterében az is állt, hogy a modell idővel sokkal óvatosabb lett, mint várták, és bizonyos parancsokra megtagadta a választ – így félreértve bizonyos érzékeny dolgokat.
A végeredmény: a Gemini egyes esetekben „túlkompenzált”, míg más helyzetekben „túl konzervatív” volt, ennek eredményei pedig „kínos és helytelen” fotók lettek.
Taylor Swiftről, valamint más hírességekről is generáltak deepfake felvételeket a Microsoft szolgáltatásával, megkerülve annak erre vonatkozó védvonalait. A cég azonban most lépett.
Raghavan is megismételte, hogy érkezni fog egy javított Gemini-változat, de azt nem tudta megígérni, hogy nem fog a jövőben is hibázni a modell – de a Google mindent megtesz, hogy elejét vegye az ilyen eseteknek.
Ha máskor is tudni szeretne hasonló dolgokról, lájkolja a HVG Tech rovatának Facebook-oldalát.