23/02/2017 ciberacoso

Google lanzo una herramienta de inteligencia artificial para combatir a los “trolls”

El nuevo proyecto de inteligencia artificial de Google pretende ser una herramienta útil para luchar contra el "acoso online y la creciente toxicidad de las conversaciones en la red".

Google lanzó hoy "Perspective", una herramienta de inteligencia artificial pensada para medios de comunicación que, a partir de los comentarios de las notas, aprende a detectar de forma automática los mensajes que considere "irrespetuosos" y "tóxicos" -los que llevan a las personas a abandonar las conversaciones- con el fin de evitar el acoso online.

Se trata de una tecnología "que utiliza el aprendizaje automático ('machine learning') para identificar los comentarios tóxicos", como se conoce a aquellos "que lleven a alguien a abandonar una conversación", explicó Jared Cohen, titular de Jigsaw, la startup de Google a cargo de la iniciativa.



La herramienta, que aún está "en su primera etapa de desarrollo", era probada por Wikipedia y los diarios The New York Times, The Guardian y The Economist, pero desde hoy está disponible de forma gratuita para cualquier medio que la solicite, aunque por el momento solo funciona en inglés.

Su objetivo principal es limitar la incidencia de los llamados trolls en las conversaciones online, en particular en aquellas que se generan en los espacios para comentarios que usan los sitios de noticias, tal como como explicó Cohen.

"Imagina que intentas tener una conversación con tus amigos sobre las noticias que leíste esta mañana pero, cada vez que dices algo, alguien te grita en la cara o te dice un insulto o te acusa de algo que no hiciste. Probablemente abandonarías la conversación.

Desafortunadamente esto pasa con demasiada frecuencia en el mundo online, ya que la gente trata de discutir ideas en las páginas web de noticias que les gustan, pero en lugar de eso terminar bombardeándose con comentarios tóxico", señaló.

En un posteo en el blog corporativo de Google, el directivo citó un estudio publicado en noviembre pasado por el instituto Data&Society para poner la problemática en números: el 72% de los usuarios de Internet en Estados Unidos alguna vez fue testigo de acosos en la web; casi la mitad (140 millones de personas) los sufrió alguna vez de forma directa; un tercio de los usuarios se autocensura en redes sociales por miedo a represalias.

Sin embargo, este problema "no impacta solo a los lectores" ya que los medios "quieren que se genere una buena conversación y discusión alrededor del contenido publicado pero intentar acabar con los trolls o contenido abusivo les quita mucho dinero, tiempo y trabajo. Como resultado, deciden en ocasiones cerrar los comentarios por completo".

Ese es el camino que en Estados Unidos siguieron numerosas publicaciones y diarios online, como USA Today, Popular Science, Recode o la la radio pública nacional (NPR, por sus siglas en inglés), entre muchos otros.

La idea con este sistema de inteligencia artificial es que los sitios de noticias no deban llegar a ese extremo y puedan mantener las secciones de comentarios, con la ayuda de la tecnología.

Perspective funciona analizando los mensajes y evaluándolos en base "al parecido que tienen con los comentarios que las personas han indicado como 'tóxicos' o que, probablemente, pueden hacer que alguien abandone una conversación", detalló Cohen.

"Para aprender a detectar un lenguaje potencialmente tóxico, Perspective examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos", y cada vez que encuentra nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los usuarios, "mejora su capacidad para evaluar los futuros comentarios", agregó.

Con esta información, ofrece a medios y plataformas de Internet la información detallada en un marcador que va de 0 a 100 en su grado de toxicidad, aunque son los propios medios los que deciden cómo usar la información que reciben.

"Por ejemplo, pueden elegir marcar comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación", permitir que "la persona que está escribiendo vea la toxicidad potencial de sus comentarios justo cuando los está escribiendo" e incluso "permitir a los lectores clasificar los comentarios según su toxicidad".

Por el momento, el sistema funciona en inglés, "pero a lo largo de los dos próximos años lanzaremos nuevos modelos que van a funcionar en otros idiomas", adelantó Cohen, y anunció que incorporará también "modelos capaces de identificar comentarios etiquetados como ataques personales o que no se ocupan del asunto que se debate".