Mint kiderült, a Google AI képgenerátora, a Gemini nem menne át a történelem érettségin, szerinte ugyanis léteztek fekete bőrű SS-tisztek.


Bódi Dániel

2024.02.23. – Február 22. óta nem generál embereket a Google saját fejlesztésű AI képalkotója, a Gemini, miután néhányan rájöttek, hogy a mesterséges intelligencia már-már annyira woke, hogy történelmi promptokat is mérlegelés nélkül meghamisít.

Többen a Twitteren/X-en osztottak meg olyan Geminivel létrehozott képeket, melyeken többek között fekete bőrű nácik és SS-tisztek, ázsiai római katonák, esetleg a közismerten fehérekből álló amerikai honatyák diverzebb megfelelői voltak láthatók. Az AI állítólag úgy generált ilyen történelmileg meglehetősen pontatlan alakokat, hogy a gép másik oldalán ülő ember arra egyáltalán nem kérte. Emiatt többen azt gyanítják, hogy a Google a motorháztető alatt rejtve olyan utasításokat automatizált, melyek miatt a létrehozott képeken látható embereket megpróbálja többféle etnikumúként megrajzolni.

Mielőtt azonban mindenki kapát-kaszát ragadva woke-fasizmust kiáltana a kommentek között, érdemes tisztában lenni azzal, hogy ez nem feltétlenül a Google vagy a Gemini hibája. Mikor 2022-ben a DALL-E elindult, a felhasználók azt vették észre, hogy az interneten edzett AI meglehetősen érdekesen generálja az embereket: mikor vezérigazgatót kértek, azt túlnyomó többségében fehér emberekkel illusztrálta, ha viszont mérges, vagy agresszív arcokat kértek tőle, akkor az a legtöbbször fekete bőrű lett. Az OpenAI emiatt hozzáadott egy automatikusan működő, de a felhasználók előtt rejtett promptot, amivel sokszínűbbé tették az embereket ábrázoló képeket úgy, hogy az olyan általános kifejezések elé, mint a „férfi vagy nő” titkon beszúrja a „fekete, ázsiai, indiai” stb. szócskákat is.

Elég valószínű, hogy a Google Geminije is hasonlóképp működik, a gond csak az vele, hogy nem képes felismerni az írott szöveg kontextusát, ezért olyan témákban is diverzifikál, melyekben nem volna szabad. Egy másik probléma, hogy a rejtett utasítást gyakorta túl is tolja, ami miatt például fehér embert sokszor nem is hajlandó generálni. A Google hamar reagált is a kritikára:

„Már dolgozunk az ilyen jellegű ábrázolások azonnali javításán. A Gemini mesterséges intelligencia képalkotása valóban az emberek széles skáláját generálja, ami általában jó dolog, hiszen a világon mindenhol használják. De itt elhibázta a célt”.

Bár a Google leszögezte, hogy dolgozik a javításon, a probléma valójában sokkal mélyebb néhány promptnál. Régóta nagy fejfájást okoz, hogy a mesterséges intelligenciák és a közösségi médiába mélyen beágyazódott algoritmusok egyszerűen képtelenek értelmezni az emberi szövegek-mondatok kontextusát. Ezért valójában csak konkrét, a gyakorlatban felmerülő, esetleg nagyon általános hibákat tudnak orvosolni (például beírják a promptok elé, hogy diverz), hogy azok ne forduljanak elő többet, de a program alapvető működése – amíg nem találnak rá jobb megoldást – változatlan marad.

Ezt is olvasd el:

Így néznének ki a Harry Potter hősei pontosan a könyvek alapján

×