A kísérletet ugyan nem tartják túlságosan etikusnak a szakmabeliek, de remekül rávilágít bizonyos közösségek toxikus tulajdonságaira – főleg, ha az a 4chan.

2022. 06. 10. – Yannic Kilcher amatőr mesterséges intelligencia kutató és YouTuber 3,3 millió, a 4chan egyik legsötétebb bugyrából, a Politically Incorrect (/pol/) alfórumáról származó poszttal és beszélgetéssel tanította viselkedni és kommunikálni egy Open AI által fejlesztett GPT-3 nyelvi modellre épülő generatív mesterséges intelligenciát. Az így született botot ezután ráengedte a 4chan fórumára, ami egészen toxikus eredményt hozott.

Bár a bot viselkedése várható volt, azért így is elég ijesztő a forma. A mesterséges intelligenciából Kilcher kilenc változatot szabadított a 4chanre, melyek 24 órán keresztül 15.000 alkalommal posztoltak valamit – ez egyébként a fórum napi posztjainak kb. 10 százalékát tette ki. A botok pedig pontosan úgy viselkedtek, olyan szélsőséges témákról beszéltek, olyan stílusban, ami a 4chan legtoxikusabb felhasználóit jellemzi:

gyűlölködő, aljas, antiszemita, rasszista és fogékony az összeesküvés-elméletekre.

 

Kilcher programjára a mesterséges intelligencia szakértői is felfigyeltek, akik kifejezetten elítélő és kritikus véleményt fogalmaztak meg vele szemben. Lauren Oakden-Rayner, az Australian Institute for Machine Learning vezető kutatója szerint a 4chanes kísérlet súlyos morális és etikai szabályokat rúgott fel, ami egy hivatalos humán kutatási etikai bizottságon egészen biztosan nem menne át.

„Az orvosi kutatásnak erős etikai kultúrája van, mert szörnyű történelmünk van abban, hogy kárt okozunk az embereknek, általában a jogfosztott csoportoktól… emberkísérleteket végzett a felhasználók tájékoztatása, beleegyezés vagy felügyelet nélkül. Ez sérti az emberi kutatás etikájának minden alapelvét.” – mondta a Vice-nak Oakden-Rayner.

A szakmabeliek azonban nemcsak Kilcher módszerét kritizálták, hanem annak utóéletét is. A videós ugyanis a botot feltöltötte a Hugging Face nevű GitHub-féle platformra, amit így tulajdonképpen bárki szabadon letölthet és használhat. A platform üzemeltetői előbb letiltották a bot oldalát, de nem sokkal később – bizonyos feltételekhez kötve – újra elérhetővé tették.

„Egy olyan rendszer létrehozása, amely képes kimondhatatlanul szörnyű tartalmakat létrehozni, és arra használni, hogy több tízezer, többnyire mérgező hozzászólást hozzon létre egy valódi üzenőfalon, majd ezt a világra bocsátani, hogy bárki más is megtehesse ugyanezt, egyszerűen – nem is tudom – nem tűnik helyesnek” – mondta Arthur Holland Michel, a Vöröskereszt Nemzetközi Bizottságának mesterséges intelligencia kutatója és írója a Motherboardnak. „Nyilvánvaló, hogy már most is rengeteg emberi troll van az interneten, akik ezt a régi módszerrel teszik. Ami itt más, az a puszta tartalommennyiség, amit ezzel a rendszerrel létrehozhat:

egyetlen személy képes volt néhány nap alatt 30.000 kommentet közzétenni a 4chanon. Most képzeljük el, hogy egy tíz, húsz vagy száz összehangolt emberből álló csapat ezzel a rendszerrel mekkora kárt tudna okozni.”

Kilcher mindeközben azzal védekezik, hogy szerinte a trollbot messze az egyik legenyhébb posztokat írta 4chanre, ami valójában semmilyen mérhető hatással nem volt az ottani közösség működésére. Úgy véli, hogy a programját nem is lehetne használni célzott támadásokra és gyűlöletkampányokra sem, ugyanis a rendszer teljesen random, sokszor összefüggéstelenek a posztjai, de a botkód sem nyilvános, illetve a napi létrehozható posztok számát és idejét is erősen korlátozta.

Bárhogyan is, Kilcher ötlete emberi internetezők domináns viselkedésmintáinak gyűjtésére is alkalmas lehet, ami képes megmutatni, hogy egy adott közösség kollektíve milyen jellemző tulajdonságokkal bír. Ebből kiindulva a legkevésbé sem meglepő, hogy a 4chan egy ilyen robotot szült.

A mesterséges intelligenciáknak azonban vannak sokkal hatékonyabb felhasználási módjai is:

Egy mesterséges intelligencia menthet meg minket a műanyagba fulladástól

 

×