Shop menü

A GOOGLE TÚLTOLTA A FAJI ÉS NEMI DIVERZITÁST A GEMININÉL, LEÁLLT A SZOLGÁLTATÁS EGY RÉSZE

Átmenetileg nem lehet olyan képeket generálni, amiken emberek szerepelnek, mivel a szolgáltatás „kiszínezte” a történelmet.
Szécsi Dániel
Szécsi Dániel
A Google túltolta a faji és nemi diverzitást a Gemininél, leállt a szolgáltatás egy része

Valószínűleg egy olvasónknak sem kell azt bemutatni, hogy a Google minden területen igyekszik arról gondoskodni, hogy a faji és a nemi sokszínűség meglegyen. A termékeit mindig úgy mutatja be, hogy a képeken mindenféle ember megjelenjen, és még a hátrányos helyzetűeket is igyekszik a célcsoportokban megmutatni. Viszont van az a helyzet, amikor ez már valódi kellemetlenségeket szül.

Nincs azzal semmi gond, ha mozgássérült emberek kezében jelennek meg a Pixel okostelefonok, vagy fekete melegek vásárolnak maguknak egy Pixel okosórát. Az már egy fokkal problémásabb talán, amikor a Google Keresőben megjelenő képek sorrendjét és összetételét manipulálja a szolgáltatás, hogy a találati lista politikailag és társadalmilag korrektebbnek nézzen ki, mint a valóság. De a Gemini ennél is sokkal messzebbre ment.

Galéria megnyitása

A generatív MI képek létrehozására szolgáló funkciója is abban a szellemiségben született meg a jelek szerint, hogy a nemi és a faji diverzitást mindenképpen erőltetni kell. Ameddig egy vízvezeték szerelő nőt vagy óvóbácsit rajzol a mesterséges intelligencia, annyira nem kapják fel az emberek a fejüket, és azzal sem lenne gond, ha egy sötét bőrű papot mutató képet készít a rendszer, hiszen Afrikában ez mindennapos dolog.

A Gemini szekere amiatt siklott ki, mert a történelmi képeket is megpróbálta átalakítani, így lényegében meghamisította a múltat.

Nem tett különbséget a generatív MI a működése során a jelenlegi és a történelmi pillanatok „megfestése” között, ez pedig oda vezetett, hogy az Egyesült Államok alapító atyái között is megjelentek a színesbőrűek. Emellett érdekes példa volt az is, hogy a náci Németország második világháborúban résztvevő katonáit arra utaló parancsszavak nélkül alkotta meg egy afroamerikai férfi képében, de még egy ázsiai nő is előkerült.

Galéria megnyitása

„Tisztában vagyunk azzal, hogy a Gemini pontatlanságokba futott bele egyes történelmi jelenetek ábrázolásának generálása során.” – jelentette ki a Google. „A történelmi események kialakítását azonnali javításnak vetjük alá. A Gemini mesterséges intelligenciája által generált képeken az emberek sokszínűek. És ez általában jó dolog, mert az emberek világszerte használják. De ilyen helyzetben ez célt tévesztett.”

Galéria megnyitása

Minden bizonnyal sokáig lehetne a Geminit ilyen témákkal szórakoztatni, de a Google úgy döntött, hogy ez már tényleg annyira kínos, hogy inkább leállítja a szolgáltatásnak ezt a részét. Felfüggesztette az emberek generálását a vállalat, vagyis egyelőre olyan képeket nem készít a platform, amin valamilyen formában emberek, arcok jelennének meg. „Már dolgozunk a Gemini képgeneráló funkciójával kapcsolatos legújabb problémák megoldásán. Amíg ezt tesszük, szüneteltetni fogjuk az emberek esetén a képgenerálást, de rövidesen újra elérhetővé tesszük a funkció egy javított verzióját.” – olvasható a cég közleményében.

Egyelőre a képgenerálási lehetőség még csak az angol felhasználóknak érhető el, nem is megy globálisan. Azt nem tudni, hogy ezt a lehetőséget a vállalat mikor fogja megnyitni szélesebb közönség számára, de a mostani események tükrében addigra már valószínűleg ebből a szempontból egy pontosabb szolgáltatást kapunk majd.

Neked ajánljuk

    Tesztek

      Kapcsolódó cikkek

      Vissza az oldal tetejére