Tech/Tudomány

Fekete bőrű SS-tisztek miatt kellett leállítani a Google AI képgenerátorát


Bódi Dániel

2024.02.23. – Február 22. óta nem generál embereket a Google saját fejlesztésű AI képalkotója, a Gemini, miután néhányan rájöttek, hogy a mesterséges intelligencia már-már annyira woke, hogy történelmi promptokat is mérlegelés nélkül meghamisít.

Többen a Twitteren/X-en osztottak meg olyan Geminivel létrehozott képeket, melyeken többek között fekete bőrű nácik és SS-tisztek, ázsiai római katonák, esetleg a közismerten fehérekből álló amerikai honatyák diverzebb megfelelői voltak láthatók. Az AI állítólag úgy generált ilyen történelmileg meglehetősen pontatlan alakokat, hogy a gép másik oldalán ülő ember arra egyáltalán nem kérte. Emiatt többen azt gyanítják, hogy a Google a motorháztető alatt rejtve olyan utasításokat automatizált, melyek miatt a létrehozott képeken látható embereket megpróbálja többféle etnikumúként megrajzolni.

Mielőtt azonban mindenki kapát-kaszát ragadva woke-fasizmust kiáltana a kommentek között, érdemes tisztában lenni azzal, hogy ez nem feltétlenül a Google vagy a Gemini hibája. Mikor 2022-ben a DALL-E elindult, a felhasználók azt vették észre, hogy az interneten edzett AI meglehetősen érdekesen generálja az embereket: mikor vezérigazgatót kértek, azt túlnyomó többségében fehér emberekkel illusztrálta, ha viszont mérges, vagy agresszív arcokat kértek tőle, akkor az a legtöbbször fekete bőrű lett. Az OpenAI emiatt hozzáadott egy automatikusan működő, de a felhasználók előtt rejtett promptot, amivel sokszínűbbé tették az embereket ábrázoló képeket úgy, hogy az olyan általános kifejezések elé, mint a „férfi vagy nő” titkon beszúrja a „fekete, ázsiai, indiai” stb. szócskákat is.

Elég valószínű, hogy a Google Geminije is hasonlóképp működik, a gond csak az vele, hogy nem képes felismerni az írott szöveg kontextusát, ezért olyan témákban is diverzifikál, melyekben nem volna szabad. Egy másik probléma, hogy a rejtett utasítást gyakorta túl is tolja, ami miatt például fehér embert sokszor nem is hajlandó generálni. A Google hamar reagált is a kritikára:

„Már dolgozunk az ilyen jellegű ábrázolások azonnali javításán. A Gemini mesterséges intelligencia képalkotása valóban az emberek széles skáláját generálja, ami általában jó dolog, hiszen a világon mindenhol használják. De itt elhibázta a célt”.

Bár a Google leszögezte, hogy dolgozik a javításon, a probléma valójában sokkal mélyebb néhány promptnál. Régóta nagy fejfájást okoz, hogy a mesterséges intelligenciák és a közösségi médiába mélyen beágyazódott algoritmusok egyszerűen képtelenek értelmezni az emberi szövegek-mondatok kontextusát. Ezért valójában csak konkrét, a gyakorlatban felmerülő, esetleg nagyon általános hibákat tudnak orvosolni (például beírják a promptok elé, hogy diverz), hogy azok ne forduljanak elő többet, de a program alapvető működése – amíg nem találnak rá jobb megoldást – változatlan marad.

Ezt is olvasd el:

Bódi Dániel

Korábbi cikkek

Gyakorlómódot is magával hoz a Warzone harmadik szezonja

2024.04.03. - A Warzone fejlesztői március utolsó napjaiban ismertették, hogy milyen újdonságokkal készülnek az új…

20 perc telt el azóta...

Egy halom pénz és két új játék ütheti a GTA+ előfizetők markát

2024.04.03. - A GTA+ egy létező előfizetős program, aminek keretein belül speciális játékbeli tartalmakhoz juthatunk…

49 perc telt el azóta...

Ha kiborultál a Discord reklámjai miatt – itt van 8 másik király csevegő

Gábor János 2024.04.03. - Nem tudni, hogy csak kezdeti hisztéria, esetleg súlyosabb, elhúzódó balhé kezdete,…

1 óra telt el azóta...

Jobb felbontás, szebb játék? – Érkezik az AMD FSR 3 PS5-re és Xbox-ra

2024.04.03. - Nagyon jó hírekkel szolgálhatunk azok számára, akik PlayStation 5 és Xbox Series X/S…

2 óra telt el azóta...

Ilyen egy átlagos gamer PC 2024 áprilisában – RTX 40 menetelés?

2024.04.03. - Manapság, amikor a videokártya és hardver piac már egy ideje helyreállt, sokszor előkerül…

2 óra telt el azóta...

Két csodás vadiúj megjelenésű játékot is kapnak a PS Plus-előfizetők

Bódi Dániel 2024.04.03. - "NA! Most pofázzá Jóskagyerek!" - szólott a klasszikus, amit idézve csitíthatjuk…

3 óra telt el azóta...