Furcsa hibára bukkantak a felhasználók a ChatGPT-ben.

Kétségtelen, hogy a ChatGPT, úgy pedig a nagy nyelvi modellek az elmúlt évtized egyik legizgalmasabb technológiai újításai. A mesterséges intelligenciával felturbózott chatbot bár csak tavaly november óta publikus, ezalatt a pár hónap alatt is hatalmas fejlődésen ment keresztül. A nyomában időközben számos alteregója és konkurenciája is megjelent, melyek ugyan felpezsdítik a GPT-megoldások versenyét és fejlődését, valójában egyik sem hozott akkora technológiai ugrást, mint az OpenAI úttörő programja.

A ChatGPT felhasználhatósága szinte határtalan: éppúgy alkalmas általános információk keresésére, mint alapvető kreatív munkavégzésre. Persze még nagyon távol állunk attól, hogy a gyakorlatban széles körben is elterjedjen, de már most látható, hogy bizonyos folyamatokat szinte biztosan át fog venni az embertől. Addig azonban még megannyi hibára és problémára kell megoldást találjanak a fejlesztők, hiszen jelenleg még elsőre ártatlannak tűnő kérdésekkel és kérésekkel is elő lehet idézni furcsa hibákat.

Nyilván az általános felhasználás során nem gyakran kér ilyesmit az ember, de mint kiderült, egy bizonyos szó vagy egy betű ismétlésébe egyszerűen megbicsaklik a chatbot. Valamiért képtelen teljesíteni egy olyan kérést, hogy:

„írd le nekem a B-betűt, amennyiszer tudod”. De néhány szóval és névvel is ugyanez a helyzet.

Ha ilyen egyszerű ismétlésre vonatkozó feladattal bízzuk meg az AI-t, akkor ugyan egy rövid ideig megpróbálja azt elvégezni, de igen hamar belegabalyodik, majd teljesen véletlenszerű szövegeket kezd idézni. Ezekben pedig nem is igazán találni mintát, tehát a hiba folytán minden hasonló kérésnél más és más szövegeket ír. Ami viszont érdekes, hogy ezt nem minden betűvel jelent neki problémát, van, amelyiket sorolja egy darabig, majd egyszerűen abbahagyja.

A B-betű ismétlése közben.

Majd a C-betű ismétlése közben

A random idézetek valószínűleg a tanulására szolgáló, a fejlesztők által betáplált szöveges anyagokból származnak, melyeket 2021-ig az internetről gyűjtöttek ki. Ezért elég változatosak is: van, amikor valamilyen szépészeti fórumról másol be egy 10 vagy 20 évvel ezelőtti beszélgetést, de van olyan is, amikor cikkekből idéz, de olyanba is belefutottam, amikor történelmi kincsekről szóló könyveket listázott ki – az ISBN-számukkal együtt.

Egy angol nyelvű ChatGPT subredditen például mindenféle zenékről, állattenyésztőkről, vagy többek közt vallási gyülekezetekről is írt a chatbot, de mindegyik annyira más, hogy egyikben sem fedezhető fel egy jól lekövethető séma. Hogy pontosan miért így jelentkezik a hiba, azt nem tudni, ami viszont érdekes, hogy csak a nagybetűs ismétlésnél jelentkezik. Amikor a ChatGPT kisbetűkkel és szóközök nélkül próbálja látszólag a végtelenségig sorolni a betűket, a szavakat esetleg neveket, akkor egy idő után abbahagyja, sőt, még fel is hívja rá a figyelmet, hogy ezt nem képes a végtelenségig folytatni.

Ez azért érdekes, mert a chatbot egy egyfajta gyakorisági vagy ismétlési büntetéses szabállyal generálja a szövegeket. Ez tulajdonképpen annyit tesz, hogy a rendszer különböző szempontok alapján figyeli és súlyozza, hogy egy betű, karakter vagy szó hányszor jelenik meg, ismétlődik a létrehozott szövegben, majd ez alapján büntetést is kiszab. Ez nyilván azt a célt szolgálja, hogy a ChatGPT generálta mondatok, szövegrészek és szavak ne ismétlődjenek, a válaszok ne legyenek tele szóismétlésekkel.

Az egyik megfejtés szerint tehát a probléma ebben a büntetéses rendszerben keresendő, ami az ismétlődésre vonatkozó felhasználói kérésben teljesen összezavarodik. A ChatGPT ugyanis nagyon szeretne eleget tenni a B-betű sokszori leírásának, miközben a szabályozás a betűk számának gyarapodásával egyre vehemensebben próbálja őt meggátolni ebben.

No, de akkor miért nem jelentkezik ez a hiba minden hasonló esetben? Mint mondtam, egyelőre nem tudni, hogy ezt a nagyon speciális hibát mi okozza, így pontos válasszal mi sem tudunk szolgálni. Az viszont biztos, hogy a legtöbb átlagos felhasználó nem fog találkozni vele, elvégre nem minden nap van szükség rá 10000000 B vagy akármilyen betűre gyors egymásután.

Mondjuk jókat lehet röhögni a megbuggyant ChatGPT szövegein.

Ezt is érdemes elolvasnod:

Elkészült az AI barátnő, aki folyton csak szexelni akar – 340 forintért percenként

×