La red social probará enviar un mensaje cuando una respuesta contenga "lenguaje ofensivo o dañino", en un esfuerzo por mejorar los intercambios entre el público.
Twitter probará avisar a usuarios si sus respuestas son ofensivas
Cuando los usuarios presionen "enviar" su respuesta, se les avisará si las palabras en su tuit son similares a las de textos que han sido denunciados, y se les preguntará si quieren revisarlo o no.
Twitter lleva desde hace tiempo bajo presión para eliminar el contenido abusivo y de odio de su plataforma, que es fiscalizada por usuarios que advierten de tuits que rompen las normas y por medios tecnológicos.
"Estamos intentando alentar a la gente a repensar su comportamiento y su lenguaje antes de publicar, porque frecuentemente pasan por un momento crispado y podrían decir algo que lamentan", señaló la jefa global de política para confianza y seguridad de Twitter, Sunita Saligram, en una entrevista con Reuters.
La políticas de Twitter no permiten que los usuarios ataquen a individuos con temas racistas, sexistas o agraviantes, o con contenido degradante.
La compañía tomó medidas contra casi 396.000 cuentas bajo sus políticas de abusos y más de 584.000 cuentas bajo sus políticas de conducta de odio entre enero y junio del año pasado, según un reporte de transparencia.
Cuando se le preguntó si el experimento dará a los usuarios una forma de encontrar nuevas formas de hallar lagunas en las normas de Twitter sobre lenguaje ofensivo, Saligram dijo que está dirigida a la mayoría de quienes violan las normas y no lo hacen de forma reiterada.
Twitter dijo que el experimento, el primero de su tipo para la compañía, comenzará el martes y se prolongará al menos durante cinco semanas. Se realizará a nivel global, pero sólo para los mensajes en inglés.