A Google és FACEIT közös fejlesztése, a Minerva nevű program, már hónapok óta szűri a Counter Strike: Global Offensive játékosait. Fő célja a toxikus játékosok kiszórása, azonban a visszajelzések alapján program sokszor túl szigorú ítéletet hozott. Jelenleg 90 000 figyelmeztetésnél és 20 000 bannál tart.
Egy mesterséges intelligenciának egy beszélgetés sokszor tűnhet sértőnek, mert nem érti a kontextust és pár barát közötti egymásra lövöldözés teljesen jó poén, így nem kell érte bant osztani. Ezt egy ember megérteti, de egy program nem. Vagyis eddig nem, mert az új Justice frissítéssel Minerva folyamatosan tanulni fog a hibáiból a játékosok segítségével.
A Justice kiegészítés a machine learningen alapul, azaz a program saját magát próbálja fejleszteni az újonnan szerzett információk alapján. Minerva kioszt egy bant, a játékosok azt felülvizsgálják és ha hibásnak találják Justice számba veszi azokat az attribútumokat, amik a téves döntéshez vezethettek és legközelebb próbál jobb döntést hozni. Ha elég eseten tud végigmenni a program, elméletileg képes lesz közel emberi döntést hozni.
Ti szerintetek jól működik majd a rendszer?
Bódi Dániel 2024.02.01. - Nincs új a nap alatt: tovább döglődik a fizikai játékterjesztés. Tudtuk…
2024.02.01. - Az Apple január utolsó napjaiban adta ki az iOS 17.4 bétáját. Az iOS…
Az elmúlt években másodvirágzásnak indultak a horrorfilmek, köztük is élen a slasherekkel és a pszichológiai…
2024.02.01. - Ahogy arra számítani lehetett, a Call of Duty fejlesztői február első napján leleplezték…
2024.02.01. - Nem is olyan rég kerültek ismét reflektorfénybe a Counter-Strike 2 gránátok. Január utolsó…
2024.02.01. – Az AMD 2022 márciusában jelentette be az első, X3D végű processzorát. Ez még…