Střílečky z pohledu první osoby jako Call of Duty jsou poněkud nechvalně proslulé toxicitou svých lobby a hlasových chatů. Průzkumy označují fanouškovskou základnu franšízy za nejnegativnější v herním průmyslu; spor mezi dvěma hráči jednou vedl k přivolání týmu speciálních sil. Activision se proti tomuto chování snaží bojovat už roky a část řešení může mít co do činění s umělou inteligencí.
Activision se spojil s Modulate, aby do svých her přinesl „moderování hlasového chatu ve hře“. Nový systém moderování využívající technologii umělé inteligence s názvem ToxMod bude pracovat na detekci chování, jako je diskriminace a obtěžování v reálném čase.
První beta testování ToxModu v Severní Americe začíná dnes. Je aktivní v Call of Duty: Modern Warfare II a Call of Duty: Warzone. „Úplné celosvětové vydání“ (nezahrnuje Asii, jak je uvedeno v tiskové zprávě) se uskuteční 10. listopadu s vydáním Call of Duty: Modern Warfare III, nového dílu franšízy v tomto roce.
Tisková zpráva Modulate nezachází do podrobností o tom, jak přesně ToxMod funguje. Na místo společnost poznamenává, že tento nástroj „moderuje hlasový chat, aby označil špatné chování, analyzuje nuance každé konverzace, aby identifikoval toxicitu, a umožňuje moderátorům rychle reagovat na každý incident poskytnutím relevantního a přesného kontextu.“ V nedávném rozhovoru generální ředitel společnosti uvedl, že cílem nástroje je jít nad rámec jednoduchého přepisu. Bere také v úvahu faktory, jako jsou emoce a hlasitost hráče, aby bylo možné rozlišit mezi zlomyslnými a vtipnými poznámkami.
Stojí za zmínku, že nástroj (alespoň prozatím) nebude na základě svých dat zasahovat proti hráčům, ale bude pouze odesílat zprávy moderátorům Activision. Lidské zapojení pravděpodobně zůstane důležitou ochranou, protože výzkum ukázal, že systémy rozpoznávání řeči mohou vykazovat zaujatost v tom, jak reagují na uživatele s různými rasovými identitami a přízvuky.
Přečtěte si také: