Roblox gebruikt al AI om voicechats te modereren, maar de uiteindelijke beslissing wordt nog steeds door mensen genomen

Iedereen die ooit competitieve online games heeft gespeeld, weet hoe giftig voicechat kan zijn in games. In tegenstelling tot tekstchat, waar het tijd kost om iets te schrijven, gebeurt voicechat onmiddellijk, waardoor het erg moeilijk te modereren is. Om dit probleem op te lossen implementeert Roblox actief kunstmatige intelligentie (AI), maar erkent dat menselijke controle nodig blijft om een veilige omgeving voor spelers te garanderen.
Dit is wat we weten
Tijdens Game Developers Conference (GDC ) 2025 spraken Kiran Bhat, Senior CTO bij Roblox, en Hannes Heikinheimo, Head of Voice Chat Security, over het jaar van het gebruik van AI voor moderatie. Bhat merkte op dat de grootste moeilijkheid niet alleen ligt in het detecteren van beledigende woorden, maar ook in het begrijpen van de toon, intensiteit en context die bepalen of uitspraken echt beledigend zijn.
Ondanks deze uitdagingen heeft kunstmatige intelligentie bewezen zeer effectief te zijn. Bhat legde uit dat 85% van het giftige gedrag neerkomt op slechts vier hoofdcategorieën en dat de meeste overtredingen geassocieerd worden met ongeveer 50 trefwoorden. Machine learning is uitstekend in staat om deze patronen te identificeren, waardoor het aantal klachten over misbruik in voice chat aanzienlijk wordt verminderd.
AI heeft echter zijn beperkingen. Heikinigheimo benadrukte dat algoritmen weliswaar stabiliteit en onpartijdigheid bieden, maar dat ze zeldzame of contextueel complexe gevallen niet altijd correct kunnen interpreteren, waarbij menselijk oordeel onmisbaar blijft.
Bron: Videogamer