La lutte contre les comportements abusifs, intrusifs et racistes dans les jeux en ligne est un gros problème depuis des années. Cependant, les succès notables contre les joueurs toxiques restent gérables, par exemple Blizzard a enregistré une tendance positive grâce à l’utilisation de l’IA dans Overwatch.
L’outil AI adopte une approche similaire ToxMod. Ce programme ne filtre pas les jurons des chats textuels, mais plutôt analyse le chat vocal dans les jeux en direct. Si un joueur enfreint les directives précédemment définies par les modérateurs, par exemple en utilisant des termes racistes, ToxMod devrait pouvoir sanctionner la section correspondante en direct.
L’IA ne doit pas seulement être capable de générer automatiquement des mots sanctionnables superposition avec un bip. Cela seul serait révolutionnaire, car les développeurs ont jusqu’à présent été largement impuissants ici. Avec l’IA, on pourrait mieux protéger les joueurs des comportements toxiques.
De plus, l’IA devrait également utiliser des longueurs d’onde pour reconnaître quelle intention est cachée derrière les tonalités parlées. Dites, si quelqu’un devient intrusif, agressif ou offensant sans utiliser de mots offensants, l’IA devrait le faire reconnaître par la hauteur de la voix pouvez.
Même (accidentellement) les joueurs trop bruyants devraient réguler à la baisse ToxMod ou Des hurlements aveugles complètement muets pouvez. De plus, à la demande des modérateurs, l’IA prononce automatiquement des pénalités ou avertit les joueurs des premières violations.
La façon dont cela fonctionne dans la pratique devra être démontrée dès que les jeux utilisent réellement la technologie en direct. Il existe ici un risque potentiel que l’IA censure à tort une communication inoffensive. Cependant, elle devrait passer Apprentissage automatique s’améliorer constamment.
Le réglage fin et l’automatisation devraient être entièrement entre les mains des modérateurs. Le logiciel peut faire quelque chose comme ça un peu plus indulgent dans les tireurs multijoueurs de sorte que le «trash talk» obligatoire avec des insultes en plaisantant puisse être poursuivi si vous le souhaitez.
UNE outil d’analyse de niveau supérieur
donne également aux modérateurs humains la possibilité de consulter les transcriptions de communications critiques, évaluées en fonction du degré de danger potentiel. Ici, les modérateurs ont d’autres options pour imposer des sanctions telles que des interdictions aux joueurs suspects.
La vidéo du développeur ToxMod Modulate explique en détail comment cela fonctionne:
Lien vers le contenu YouTube
Les inventeurs du logiciel se sont d’abord spécialisés dans les «skins vocaux» avant de développer le logiciel ToxMod. Le résultat est déjà étonnant ici:
Lien vers le contenu YouTube
La société Modulate est derrière ToxMod. Comme les collègues de PCGamesN l’ont découvert dans une interview, les fondateurs Mike Pappas et Carter Hoffman se sont rencontrés à la célèbre université technique américaine Massachusetts Institute of Technology (MIT).
L’outil AI est déjà disponible. Les développeurs intéressés par l’intégration de ToxMod dans leurs jeux peuvent contacter le site Web Plus d’informations et nous contacter par e-mail.