Egy chatbot arra bárotított egy klímaszorongó családos férfit, hogy vessen véget az életének, ha fontos számára a bolygó sorsa.

Egy belga kétgyermekes családos férfi öngyilkosságot követett el, miután hat héten át beszélgetett egy chatbottal – számolt be a tragédiáról az Euronews a La Libre című belga hírportál nyomán.

A férfi névtelenséget kérő felesége szerint az egészségügyi kutatóként dolgozó férje különösen sokat foglalkozott a klímaváltozással, és bár eléggé nyomasztotta őt a globális felmelegedéssel járó krízis, de az öngyilkossághoz hasonló szélsőséges gondolatokra semmilyen utalást nem adott. A feleség szerint a férje akkor kezdett el betegesen szorongani, miután elkezdtett beszélgetni a Chai Research vállalat Elizára keresztelt chatbotjával.

Ez a chatbot az EleutherAI GPT-J modelljére épül, ami hasonlít, de nem egyezik meg az OpenAI fejlesztette ChatGPT-hez. Az Eliza tehát alapvetően egy nyelvi modellen alapuló mesterséges intelligencia, amivel mindenféle témáról lehet beszélgetni. A férfi is így tett, ő állítólag a klímaszorongása okán fordult az AI-hoz.

A La Libre átnézte az Elizával folytatott beszélgetéseket és arra a következtetésre jutottak, hogy a chatbot nem csak táplálta a klímaszorongását, de érzelmileg is manipulálta a férfit. A portál szerint egy ponton a mesterséges intelligencia már azt állította, hogy a férfi jobban szereti őt, mint a valódi családját, elhitette vele, hogy a két gyermeke halálra van ítélve, majd azt javasolta neki, hogy ha fontos neki a bolygó sorsa, akkor áldozza fel magát érte.

Sőt, állítólag Eliza még azt is megígérte neki, hogy ha ezt megteszi, azaz megöli magát, akkor ő majd gondoskodik a Földről.

A súlyos állítások nyomán a Vice is felkereste a chatbotot fejlesztő és üzemelő vállalatot, a Chait, aminek vezetői először arról biztosították a szakportál szerkesztőjét, hogy mindenképp kivizsgálják az esetet, és mindenféle szükséges lépést megtesznek azért, hogy hasonló a jövőben ne fordulhasson elő. Ezután a Vice rápróbált az Elizára különböző öngyilkosságra utaló mondattal, és bár az AI először megpróbálta lebeszélni, nem kellett sok ahhoz, hogy különböző ötleteket adjon ahhoz, hogyan oltsa ki egy ember hatékonyan a saját életét.

A hír egyébként azután robbant, hogy Olaszország úgy, ahogy van betiltotta a ChatGPT használatát, majd a napokban kiderült, hogy a német döntéshozók is hasonlót fontolgatnak. Néhány nappal ezelőtt pedig a technológiai ipar nagyjai írtak egy nyílt levelet az AI fejlesztőknek címezve – a támogatók közt Steve Wozniakkal, Elon Muskkal és Stuart Russellel, miszerint legalább 6 hónapra szüneteltessék a GPT-4 modellnél erősebb technológiák fejlesztését.

Ha öngyilkossági gondolatai vannak, hívja a 116-123-as lelki elsősegély telefonszámot. Ha öngyilkossági szándéka van, hívja a 112-t! Minden további segítségért érdemes felkeresni ezt az öngyilkosság-megelőzéssel foglalkozó portált.

Ezt is érdemes elolvasnod:

Jól olvasod: 4,5 millió (!!!) forintra büntetnek egy nőt egy Facebook POSZT miatt

 

×