Tech/Tudomány

Ettől a nagyon egyszerű kéréstől teljesen megbolondul a ChatGPT

Kétségtelen, hogy a ChatGPT, úgy pedig a nagy nyelvi modellek az elmúlt évtized egyik legizgalmasabb technológiai újításai. A mesterséges intelligenciával felturbózott chatbot bár csak tavaly november óta publikus, ezalatt a pár hónap alatt is hatalmas fejlődésen ment keresztül. A nyomában időközben számos alteregója és konkurenciája is megjelent, melyek ugyan felpezsdítik a GPT-megoldások versenyét és fejlődését, valójában egyik sem hozott akkora technológiai ugrást, mint az OpenAI úttörő programja.

A ChatGPT felhasználhatósága szinte határtalan: éppúgy alkalmas általános információk keresésére, mint alapvető kreatív munkavégzésre. Persze még nagyon távol állunk attól, hogy a gyakorlatban széles körben is elterjedjen, de már most látható, hogy bizonyos folyamatokat szinte biztosan át fog venni az embertől. Addig azonban még megannyi hibára és problémára kell megoldást találjanak a fejlesztők, hiszen jelenleg még elsőre ártatlannak tűnő kérdésekkel és kérésekkel is elő lehet idézni furcsa hibákat.

Nyilván az általános felhasználás során nem gyakran kér ilyesmit az ember, de mint kiderült, egy bizonyos szó vagy egy betű ismétlésébe egyszerűen megbicsaklik a chatbot. Valamiért képtelen teljesíteni egy olyan kérést, hogy:

„írd le nekem a B-betűt, amennyiszer tudod”. De néhány szóval és névvel is ugyanez a helyzet.

Ha ilyen egyszerű ismétlésre vonatkozó feladattal bízzuk meg az AI-t, akkor ugyan egy rövid ideig megpróbálja azt elvégezni, de igen hamar belegabalyodik, majd teljesen véletlenszerű szövegeket kezd idézni. Ezekben pedig nem is igazán találni mintát, tehát a hiba folytán minden hasonló kérésnél más és más szövegeket ír. Ami viszont érdekes, hogy ezt nem minden betűvel jelent neki problémát, van, amelyiket sorolja egy darabig, majd egyszerűen abbahagyja.

A B-betű ismétlése közben.

Majd a C-betű ismétlése közben

A random idézetek valószínűleg a tanulására szolgáló, a fejlesztők által betáplált szöveges anyagokból származnak, melyeket 2021-ig az internetről gyűjtöttek ki. Ezért elég változatosak is: van, amikor valamilyen szépészeti fórumról másol be egy 10 vagy 20 évvel ezelőtti beszélgetést, de van olyan is, amikor cikkekből idéz, de olyanba is belefutottam, amikor történelmi kincsekről szóló könyveket listázott ki – az ISBN-számukkal együtt.

Egy angol nyelvű ChatGPT subredditen például mindenféle zenékről, állattenyésztőkről, vagy többek közt vallási gyülekezetekről is írt a chatbot, de mindegyik annyira más, hogy egyikben sem fedezhető fel egy jól lekövethető séma. Hogy pontosan miért így jelentkezik a hiba, azt nem tudni, ami viszont érdekes, hogy csak a nagybetűs ismétlésnél jelentkezik. Amikor a ChatGPT kisbetűkkel és szóközök nélkül próbálja látszólag a végtelenségig sorolni a betűket, a szavakat esetleg neveket, akkor egy idő után abbahagyja, sőt, még fel is hívja rá a figyelmet, hogy ezt nem képes a végtelenségig folytatni.

Ez azért érdekes, mert a chatbot egy egyfajta gyakorisági vagy ismétlési büntetéses szabállyal generálja a szövegeket. Ez tulajdonképpen annyit tesz, hogy a rendszer különböző szempontok alapján figyeli és súlyozza, hogy egy betű, karakter vagy szó hányszor jelenik meg, ismétlődik a létrehozott szövegben, majd ez alapján büntetést is kiszab. Ez nyilván azt a célt szolgálja, hogy a ChatGPT generálta mondatok, szövegrészek és szavak ne ismétlődjenek, a válaszok ne legyenek tele szóismétlésekkel.

Az egyik megfejtés szerint tehát a probléma ebben a büntetéses rendszerben keresendő, ami az ismétlődésre vonatkozó felhasználói kérésben teljesen összezavarodik. A ChatGPT ugyanis nagyon szeretne eleget tenni a B-betű sokszori leírásának, miközben a szabályozás a betűk számának gyarapodásával egyre vehemensebben próbálja őt meggátolni ebben.

No, de akkor miért nem jelentkezik ez a hiba minden hasonló esetben? Mint mondtam, egyelőre nem tudni, hogy ezt a nagyon speciális hibát mi okozza, így pontos válasszal mi sem tudunk szolgálni. Az viszont biztos, hogy a legtöbb átlagos felhasználó nem fog találkozni vele, elvégre nem minden nap van szükség rá 10000000 B vagy akármilyen betűre gyors egymásután.

Mondjuk jókat lehet röhögni a megbuggyant ChatGPT szövegein.

Ezt is érdemes elolvasnod:

Bódi Dániel

Korábbi cikkek

899 forintért 8 játék között egy legendás RPG-t is berámolhatsz

Bódi Dániel 2024.02.02. - Érdemes most már megtanulni, hogy a magyar előfizetők különösen jól járnak…

8 óra telt el azóta...

Ennyire beteg és furcsa horrorjáték 10 évente, ha megjelenik

Bódi Dániel 2024.02.02. - Bár magyar fordításban sosem jelent meg John W. Campbell Jr. 'Who…

12 óra telt el azóta...

Ez jól kezdődik: baj van a Galaxy S24 kijelzőjével – a Samsung is elismerte

Gábor János 2024.02.02. - Elég hamar kiderült egy zavaró, de nem megoldhatatlan probléma a Samsung…

13 óra telt el azóta...

A TOTY Messi-fiaskóval kinyírta az FC 24-et az EA Sports

2024.02.02. - Tavaly azt hittük, hogy a Hero csomagnál nem fog már nagyobbat hibázni az…

13 óra telt el azóta...

Brutális lesz a Netflix éve: Ez a 93 (!!!) sorozat már biztosan érkezik idén

A Netflix 2024-ben sem lazsál: legalább 93 olyan okot ad rá, miért érdemes előfizetni a…

13 óra telt el azóta...

Season 2-től teljes squadokat is megéri majd legyőzni Warzone-ban

2024.02.02. - A Warzone fejlesztői időről időre új dolgokkal, mechanikákkal dobják fel a meccseket. A…

14 óra telt el azóta...