La plataforma de contenido en 'streaming' dispone de algunas herramientas de moderación de contenido para facilitar interacciones más positivas entre usuarios. Es el caso de AutoMod, desarrollada para identificar de forma proactiva los mensajes de chat que puedan ser dañinos y limitar su visibilidad, que recientemente recibió una actualización para combatir mejor el acoso sexual.
En este sentido, Twitch continúa trabajando para mejorar la experiencia y frenar la publicación de comentarios perjudiciales hacia otros usuarios. Para ello, ha comenzado a probar una nueva función con la que les invitará a pensar sobre los comentarios dañinos antes de enviarlos.
Se trata de una función que, mediante tecnología de aprendizaje automático, interceptará los mensajes potencialmente ofensivos antes enviarlos a través del chat. De esta forma, mostrará un mensaje de advertencia en el que cuestionará a los usuarios si desean enviar realmente el mensaje, a pesar de que pueda contener expresiones o palabras consideradas irrespetuosas.
Según ha mostrado la plataforma en una publicación en X (antigua Twitter), la advertencia incluye el mensaje "¿Estás seguro de que quieres enviar esto?" y, tras ello, detalla que un ejemplo de mensaje dañino podría ser "Eres un idiota".
No obstante, si a pesar de recibir esta advertencia, el usuario considera que no se trata de un mensaje ofensivo, puede enviarlo de todas formas. En caso contrario, también tiene la oportunidad de volver a escribir el mensaje -esta vez de forma correcta- para enviarlo.
La compañía ha especificado que llevarán a cabo las pruebas de esta nueva función durante las próximas semanas, por lo que no estará disponible para todos los usuarios hasta que lo lance de forma global.