LIVE DU MOMENT

Intel présente Bleep, une IA qui censure la toxicité

Sommaire

Nous avons toutes et tous eus des parties de jeux en ligne bien salées. Quelqu'un qui traite un membre de votre famille, ou un autre qui vous menace directement. Intel est en plein développement d'un outil qui aiderait à ne plus avoir à entendre ce genre de choses. Son nom ? Bleep.

Créer un environnement plus sain

Intel a constaté de nombreux témoignages à travers le monde par rapport à la toxicité dans le gaming. Des gens qui arrêtent de jouer à un certain jeu, voire même ne plus du jouer du tout, à des jeux vidéo à cause d'un harcèlement verbal beaucoup trop présent. Selon l'ADL (Anti Defamation League), sur 1000 personnes, 22% des joueurs préfèrent quitter le jeu que d'avoir à supporter la communauté. Près de 90% des échanges écrits ou verbaux avec l'équipe ennemie sont toxiques.

La toxicité dans le gaming est un problème bien complexe, un problème qui, selon Roger Sandler Vice-Président chez Intel, doit être considéré par toute l'industrie. Intel est également conscient que Bleep ou même la technologie en général, ne sera pas LA solution. Mais cela pourra permettre d'atténuer un peu le problème pendant que d'autres solutions sont explorées.

Débarrassez-vous des commentaires toxiques en un Bleep

Il y a de cela 2 ans, ils ont présenté à la GDC (Game Developpers Conference) un concept avec les développeurs de Spirit AI. C'est en combinant la puissance de détection de toxicité de l'IA de Spirit AI ainsi que du matériel Intel IA Acceleration Speech, qu'ils ont démontrés qu'il était possible de détecter et de retirer les mots toxiques.

Aujourd'hui, cette collaboration nous amène à Bleep, une puissante Intelligence Artificielle qui va vous aidera dans vos parties. En effet, les paramètres sont nombreux mettant ainsi l'utilisateur en contrôle total de ce qu'il/elle peut entendre.

Intel Bleep

Dans les fameux paramètres, on retrouve la possibilité de détection de "Bleep" :

  • Les messages haineux envers la communauté LGBTQ+
  • Racisme et Xénophobie
  • Misogynie
  • Attaque sur l'apparence
  • Agression verbale

Ainsi que plusieurs autres paramètres qui ont pour but de mettre l'utilisateur/utilisatrice dans un environnement sain. Du moins, c'est ce que promet Intel.

Vous pouvez retrouver l'intégralité dans cette vidéo de présentation (en anglais) :

Idéalement, Intel souhaiterait sortir cet outil plus tard cette année. Êtes-vous intéressé par cet outil ? N'hésitez pas à nous en parler dans les commentaires.