Google en contra de los trolls: lanzó una herramienta para combatirlos
Viernes 24 de
Febrero 2017
Google lanzó Perspective, una herramienta de inteligencia artificial pensada para medios de comunicación que, a partir de los comentarios de las notas, aprende a detectar de forma automática los mensajes que considere "irrespetuosos" y "tóxicos" -los que llevan a las personas a abandonar las conversaciones- con el fin de evitar el acoso online.
Se trata de una tecnología "que utiliza el machine learning para identificar los comentarios tóxicos", como se conoce a aquellos "que lleven a alguien a abandonar una conversación", explicó Jared Cohen, titular de Jigsaw, la startup de Google a cargo de la iniciativa.
La herramienta, que aún está "en su primera etapa de desarrollo", era probada por Wikipedia y los diarios The New York Times, The Guardian y The Economist, pero desde está disponible de forma gratuita para cualquier medio que la solicite, aunque por el momento solo funciona en inglés.
Su objetivo principal es limitar la incidencia de los llamados trolls en las conversaciones online, en particular en aquellas que se generan en los espacios para comentarios que usan los sitios de noticias, tal como como explicó Cohen.
"Imagina que intentas tener una conversación con tus amigos sobre las noticias que leíste esta mañana pero, cada vez que dices algo, alguien te grita en la cara o te dice un insulto o te acusa de algo que no hiciste. Probablemente abandonarías la conversación", explicó.
"Desafortunadamente esto pasa con demasiada frecuencia en el mundo online, ya que la gente trata de discutir ideas en las páginas web de noticias que les gustan, pero en lugar de eso terminar bombardeándose con comentarios tóxico", agregó.
En un posteo en el blog corporativo de Google, el directivo citó un estudio publicado en noviembre pasado por el instituto Data&Society para poner la problemática en números: el 72% de los usuarios de Internet en Estados Unidos alguna vez fue testigo de acosos en la web; casi la mitad (140 millones de personas) los sufrió alguna vez de forma directa; un tercio de los usuarios se autocensura en redes sociales por miedo a represalias.
Sin embargo, este problema "no impacta solo a los lectores" ya que los medios "quieren que se genere una buena conversación y discusión alrededor del contenido publicado pero intentar acabar con los trolls o contenido abusivo les quita mucho dinero, tiempo y trabajo. Como resultado, deciden en ocasiones cerrar los comentarios por completo".
Ese es el camino que en Estados Unidos siguieron numerosas publicaciones y diarios online, como USA Today, Popular Science, Recode o la la radio pública nacional (NPR), entre muchos otros.
La idea con este sistema de inteligencia artificial es que los sitios de noticias no deban llegar a ese extremo y puedan mantener las secciones de comentarios, con la ayuda de la tecnología.
Perspective funciona analizando los mensajes y evaluándolos en base "al parecido que tienen con los comentarios que las personas han indicado como 'tóxicos' o que, probablemente, pueden hacer que alguien abandone una conversación", detalló Cohen.
"Para aprender a detectar un lenguaje potencialmente tóxico, Perspective examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos", y cada vez que encuentra nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los usuarios, "mejora su capacidad para evaluar los futuros comentarios", agregó.
Con esta información, ofrece a medios y plataformas de Internet la información detallada en un marcador que va de 0 a 100 en su grado de toxicidad, aunque son los propios medios los que deciden cómo usar la información que reciben.
"Por ejemplo, pueden elegir marcar comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación", permitir que "la persona que está escribiendo vea la toxicidad potencial de sus comentarios justo cuando los está escribiendo" e incluso "permitir a los lectores clasificar los comentarios según su toxicidad".
Por el momento, el sistema funciona en inglés, "pero a lo largo de los dos próximos años lanzaremos nuevos modelos que van a funcionar en otros idiomas", adelantó Cohen, y anunció que incorporará también "modelos capaces de identificar comentarios etiquetados como ataques personales o que no se ocupan del asunto que se debate".
La herramienta, que aún está "en su primera etapa de desarrollo", era probada por Wikipedia y los diarios The New York Times, The Guardian y The Economist, pero desde está disponible de forma gratuita para cualquier medio que la solicite, aunque por el momento solo funciona en inglés.
Su objetivo principal es limitar la incidencia de los llamados trolls en las conversaciones online, en particular en aquellas que se generan en los espacios para comentarios que usan los sitios de noticias, tal como como explicó Cohen.
"Imagina que intentas tener una conversación con tus amigos sobre las noticias que leíste esta mañana pero, cada vez que dices algo, alguien te grita en la cara o te dice un insulto o te acusa de algo que no hiciste. Probablemente abandonarías la conversación", explicó.
"Desafortunadamente esto pasa con demasiada frecuencia en el mundo online, ya que la gente trata de discutir ideas en las páginas web de noticias que les gustan, pero en lugar de eso terminar bombardeándose con comentarios tóxico", agregó.
En un posteo en el blog corporativo de Google, el directivo citó un estudio publicado en noviembre pasado por el instituto Data&Society para poner la problemática en números: el 72% de los usuarios de Internet en Estados Unidos alguna vez fue testigo de acosos en la web; casi la mitad (140 millones de personas) los sufrió alguna vez de forma directa; un tercio de los usuarios se autocensura en redes sociales por miedo a represalias.
Sin embargo, este problema "no impacta solo a los lectores" ya que los medios "quieren que se genere una buena conversación y discusión alrededor del contenido publicado pero intentar acabar con los trolls o contenido abusivo les quita mucho dinero, tiempo y trabajo. Como resultado, deciden en ocasiones cerrar los comentarios por completo".
Ese es el camino que en Estados Unidos siguieron numerosas publicaciones y diarios online, como USA Today, Popular Science, Recode o la la radio pública nacional (NPR), entre muchos otros.
La idea con este sistema de inteligencia artificial es que los sitios de noticias no deban llegar a ese extremo y puedan mantener las secciones de comentarios, con la ayuda de la tecnología.
Perspective funciona analizando los mensajes y evaluándolos en base "al parecido que tienen con los comentarios que las personas han indicado como 'tóxicos' o que, probablemente, pueden hacer que alguien abandone una conversación", detalló Cohen.
"Para aprender a detectar un lenguaje potencialmente tóxico, Perspective examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos", y cada vez que encuentra nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los usuarios, "mejora su capacidad para evaluar los futuros comentarios", agregó.
Con esta información, ofrece a medios y plataformas de Internet la información detallada en un marcador que va de 0 a 100 en su grado de toxicidad, aunque son los propios medios los que deciden cómo usar la información que reciben.
"Por ejemplo, pueden elegir marcar comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación", permitir que "la persona que está escribiendo vea la toxicidad potencial de sus comentarios justo cuando los está escribiendo" e incluso "permitir a los lectores clasificar los comentarios según su toxicidad".
Por el momento, el sistema funciona en inglés, "pero a lo largo de los dos próximos años lanzaremos nuevos modelos que van a funcionar en otros idiomas", adelantó Cohen, y anunció que incorporará también "modelos capaces de identificar comentarios etiquetados como ataques personales o que no se ocupan del asunto que se debate".
Con información de
minutouno
Interna en el Ministerio de José Goity
El ministro estaría perdiendo apoyo de dirigentes con los que llegó a la cartera. Además, existiría un clima laboral atravesado por diferencias políticas que acentúan la grieta interna.
Justicia Terapéutica vs. Justicia Restaurativa
¿Podemos preguntarlos qué similitudes y diferencias encontramos en la justicia terapéutica y la restaurativa?
El Gobierno busca acelerar la reforma electoral y negocia cambios en las PASO
La Casa Rosada apunta a avanzar en estos cambios durante 2026, un año sin elecciones nacionales,

Suscribite!
Y recibí las noticias más importantes!
Y recibí las noticias más importantes!
Nota22.com
Conducen: Maxi Romero y Carlos Renna
LO MÁS VISTO
Interna en el Ministerio de José Goity
El ministro estaría perdiendo apoyo de dirigentes con los que llegó a la cartera. Además, existiría un clima laboral atravesado por diferencias políticas que acentúan la grieta interna.
¿Podemos preguntarlos qué similitudes y diferencias encontramos en la justicia terapéutica y la restaurativa?
"El 93% de las localidades tendrá elecciones cada 4 años (340 localidades) y el resto (25 localidades) renovarán los concejos por mitades cada 2 años", explicó el presidente provisional del senado Felipe Michlig.
Las intensas lluvias afectaron a toda la provincia pero el epicentro está en La Madrid, en donde el agua avanzó sobre todas las viviendas. Se hicieron dos brechas en la ruta nacional 157 para que drene el agua que desbordó del río Marapa.




