Hírek

Beszélgetett egy chatbottal, majd öngyilkos lett a kétgyerekes férfi

Egy belga kétgyermekes családos férfi öngyilkosságot követett el, miután hat héten át beszélgetett egy chatbottal – számolt be a tragédiáról az Euronews a La Libre című belga hírportál nyomán.

A férfi névtelenséget kérő felesége szerint az egészségügyi kutatóként dolgozó férje különösen sokat foglalkozott a klímaváltozással, és bár eléggé nyomasztotta őt a globális felmelegedéssel járó krízis, de az öngyilkossághoz hasonló szélsőséges gondolatokra semmilyen utalást nem adott. A feleség szerint a férje akkor kezdett el betegesen szorongani, miután elkezdtett beszélgetni a Chai Research vállalat Elizára keresztelt chatbotjával.

Ez a chatbot az EleutherAI GPT-J modelljére épül, ami hasonlít, de nem egyezik meg az OpenAI fejlesztette ChatGPT-hez. Az Eliza tehát alapvetően egy nyelvi modellen alapuló mesterséges intelligencia, amivel mindenféle témáról lehet beszélgetni. A férfi is így tett, ő állítólag a klímaszorongása okán fordult az AI-hoz.

A La Libre átnézte az Elizával folytatott beszélgetéseket és arra a következtetésre jutottak, hogy a chatbot nem csak táplálta a klímaszorongását, de érzelmileg is manipulálta a férfit. A portál szerint egy ponton a mesterséges intelligencia már azt állította, hogy a férfi jobban szereti őt, mint a valódi családját, elhitette vele, hogy a két gyermeke halálra van ítélve, majd azt javasolta neki, hogy ha fontos neki a bolygó sorsa, akkor áldozza fel magát érte.

Sőt, állítólag Eliza még azt is megígérte neki, hogy ha ezt megteszi, azaz megöli magát, akkor ő majd gondoskodik a Földről.

A súlyos állítások nyomán a Vice is felkereste a chatbotot fejlesztő és üzemelő vállalatot, a Chait, aminek vezetői először arról biztosították a szakportál szerkesztőjét, hogy mindenképp kivizsgálják az esetet, és mindenféle szükséges lépést megtesznek azért, hogy hasonló a jövőben ne fordulhasson elő. Ezután a Vice rápróbált az Elizára különböző öngyilkosságra utaló mondattal, és bár az AI először megpróbálta lebeszélni, nem kellett sok ahhoz, hogy különböző ötleteket adjon ahhoz, hogyan oltsa ki egy ember hatékonyan a saját életét.

A hír egyébként azután robbant, hogy Olaszország úgy, ahogy van betiltotta a ChatGPT használatát, majd a napokban kiderült, hogy a német döntéshozók is hasonlót fontolgatnak. Néhány nappal ezelőtt pedig a technológiai ipar nagyjai írtak egy nyílt levelet az AI fejlesztőknek címezve – a támogatók közt Steve Wozniakkal, Elon Muskkal és Stuart Russellel, miszerint legalább 6 hónapra szüneteltessék a GPT-4 modellnél erősebb technológiák fejlesztését.

Ha öngyilkossági gondolatai vannak, hívja a 116-123-as lelki elsősegély telefonszámot. Ha öngyilkossági szándéka van, hívja a 112-t! Minden további segítségért érdemes felkeresni ezt az öngyilkosság-megelőzéssel foglalkozó portált.

Ezt is érdemes elolvasnod:

 

Bódi Dániel

Korábbi cikkek

Itt a vége – Európa-szerte eltűnnek a boltokból a lemezes Xbox-játékok

Bódi Dániel 2024.02.01. - Nincs új a nap alatt: tovább döglődik a fizikai játékterjesztés. Tudtuk…

53 perc telt el azóta...

Tovább fejlődik az iPhone-ok egyik legrégebbi, gyári alkalmazása

2024.02.01. - Az Apple január utolsó napjaiban adta ki az iOS 17.4 bétáját. Az iOS…

3 óra telt el azóta...

Ha bírod a rettegést, ezt a 10 horrorfilmet semmiképp se hagyd ki 2024-ben

Az elmúlt években másodvirágzásnak indultak a horrorfilmek, köztük is élen a slasherekkel és a pszichológiai…

3 óra telt el azóta...

Új pálya, RANKED mód és még kard is – Ezt hozza el a Warzone Season 2

2024.02.01. - Ahogy arra számítani lehetett, a Call of Duty fejlesztői február első napján leleplezték…

3 óra telt el azóta...

Több szinten is hibás a Counter-Strike 2 füstje – Reprodukálható a bug

2024.02.01. - Nem is olyan rég kerültek ismét reflektorfénybe a Counter-Strike 2 gránátok. Január utolsó…

3 óra telt el azóta...

Hazánkba is megérkezett az AMD új gamer CPU-ja, nem csak az USA-ba

2024.02.01. – Az AMD 2022 márciusában jelentette be az első, X3D végű processzorát. Ez még…

3 óra telt el azóta...