Fekete bőrű SS-tisztek miatt kellett leállítani a Google AI képgenerátorát
Mint kiderült, a Google AI képgenerátora, a Gemini nem menne át a történelem érettségin, szerinte ugyanis léteztek fekete bőrű SS-tisztek.
Mint kiderült, a Google AI képgenerátora, a Gemini nem menne át a történelem érettségin, szerinte ugyanis léteztek fekete bőrű SS-tisztek.
Mint kiderült, a Google AI képgenerátora, a Gemini nem menne át a történelem érettségin, szerinte ugyanis léteztek fekete bőrű SS-tisztek.
2024.02.23. – Február 22. óta nem generál embereket a Google saját fejlesztésű AI képalkotója, a Gemini, miután néhányan rájöttek, hogy a mesterséges intelligencia már-már annyira woke, hogy történelmi promptokat is mérlegelés nélkül meghamisít.
Többen a Twitteren/X-en osztottak meg olyan Geminivel létrehozott képeket, melyeken többek között fekete bőrű nácik és SS-tisztek, ázsiai római katonák, esetleg a közismerten fehérekből álló amerikai honatyák diverzebb megfelelői voltak láthatók. Az AI állítólag úgy generált ilyen történelmileg meglehetősen pontatlan alakokat, hogy a gép másik oldalán ülő ember arra egyáltalán nem kérte. Emiatt többen azt gyanítják, hogy a Google a motorháztető alatt rejtve olyan utasításokat automatizált, melyek miatt a létrehozott képeken látható embereket megpróbálja többféle etnikumúként megrajzolni.
Not mine -check out the lower left German soldier that Gemini generated lol pic.twitter.com/dnNhLI3QYo
— segmentum (@segmentum1) February 21, 2024
Mielőtt azonban mindenki kapát-kaszát ragadva woke-fasizmust kiáltana a kommentek között, érdemes tisztában lenni azzal, hogy ez nem feltétlenül a Google vagy a Gemini hibája. Mikor 2022-ben a DALL-E elindult, a felhasználók azt vették észre, hogy az interneten edzett AI meglehetősen érdekesen generálja az embereket: mikor vezérigazgatót kértek, azt túlnyomó többségében fehér emberekkel illusztrálta, ha viszont mérges, vagy agresszív arcokat kértek tőle, akkor az a legtöbbször fekete bőrű lett. Az OpenAI emiatt hozzáadott egy automatikusan működő, de a felhasználók előtt rejtett promptot, amivel sokszínűbbé tették az embereket ábrázoló képeket úgy, hogy az olyan általános kifejezések elé, mint a „férfi vagy nő” titkon beszúrja a „fekete, ázsiai, indiai” stb. szócskákat is.
This is what #Gemini gave me for Roman Soldiers 👍 pic.twitter.com/CZrpMHJu1B
— Ryan of Albion (@ryanofalbion) February 22, 2024
Elég valószínű, hogy a Google Geminije is hasonlóképp működik, a gond csak az vele, hogy nem képes felismerni az írott szöveg kontextusát, ezért olyan témákban is diverzifikál, melyekben nem volna szabad. Egy másik probléma, hogy a rejtett utasítást gyakorta túl is tolja, ami miatt például fehér embert sokszor nem is hajlandó generálni. A Google hamar reagált is a kritikára:
„Már dolgozunk az ilyen jellegű ábrázolások azonnali javításán. A Gemini mesterséges intelligencia képalkotása valóban az emberek széles skáláját generálja, ami általában jó dolog, hiszen a világon mindenhol használják. De itt elhibázta a célt”.
It’s embarrassingly hard to get Google Gemini to acknowledge that white people exist pic.twitter.com/4lkhD7p5nR
— Deedy (@debarghya_das) February 20, 2024
Bár a Google leszögezte, hogy dolgozik a javításon, a probléma valójában sokkal mélyebb néhány promptnál. Régóta nagy fejfájást okoz, hogy a mesterséges intelligenciák és a közösségi médiába mélyen beágyazódott algoritmusok egyszerűen képtelenek értelmezni az emberi szövegek-mondatok kontextusát. Ezért valójában csak konkrét, a gyakorlatban felmerülő, esetleg nagyon általános hibákat tudnak orvosolni (például beírják a promptok elé, hogy diverz), hogy azok ne forduljanak elő többet, de a program alapvető működése – amíg nem találnak rá jobb megoldást – változatlan marad.
Így néznének ki a Harry Potter hősei pontosan a könyvek alapján