Los creadores de contenido de videos tienen al bullying online como uno de los mayores problemas a los que tienen que hacer frente. De hecho, desde distintos ámbitos se viene pidiendo más medidas para limitar estas formas de acoso online.
Esta creación de Bleep, fue demostrada en una presentación que hizo la compañía durante su participación en la conferencia de desarrollo de videojuegos Game Developers Conference (GDC) el 18 de marzo. El proyecto fue llevado en conjunto con la compañía Sprit AI, especializada en Inteligencia Artificial.
La cualidad de esta herramienta es su capacidad de detectar lenguaje tóxico, y los combina con las capacidades de los procesadores para acelerar la detección de habla a través de la Inteligencia Artificial. Con su aplicación, se podrán detectar y disminuir en los chats de voz de los videojuegos las expresiones agresivas de los jugadores. El programa puede configurarse por medio de una serie de ajustes, en donde las personas pueden elegir los filtros y las categorías a detectar, como los comentarios contra otras personas por discapacidades o por su aspecto físico, el lenguaje violento contra otros jugadores, la discriminación a la comunidad LGTBQ+ o la misoginia.
Por otro lado, es importante destacar que no es Bleep la única compañía que se encuentra buscando soluciones para parar con el acoso online. Todas las redes sociales han ido incorporando distintas soluciones para evitarlo. Esto es posible mediante la aplicación de filtros o incluso con la inhabilitación de comentarios que puede efectuarse, por ejemplo, en Instagram.