Google en contra de los trolls: lanzó una herramienta para combatirlos
Viernes 24 de
Febrero 2017
Google lanzó Perspective, una herramienta de inteligencia artificial pensada para medios de comunicación que, a partir de los comentarios de las notas, aprende a detectar de forma automática los mensajes que considere "irrespetuosos" y "tóxicos" -los que llevan a las personas a abandonar las conversaciones- con el fin de evitar el acoso online.
Se trata de una tecnología "que utiliza el machine learning para identificar los comentarios tóxicos", como se conoce a aquellos "que lleven a alguien a abandonar una conversación", explicó Jared Cohen, titular de Jigsaw, la startup de Google a cargo de la iniciativa.
La herramienta, que aún está "en su primera etapa de desarrollo", era probada por Wikipedia y los diarios The New York Times, The Guardian y The Economist, pero desde está disponible de forma gratuita para cualquier medio que la solicite, aunque por el momento solo funciona en inglés.
Su objetivo principal es limitar la incidencia de los llamados trolls en las conversaciones online, en particular en aquellas que se generan en los espacios para comentarios que usan los sitios de noticias, tal como como explicó Cohen.
"Imagina que intentas tener una conversación con tus amigos sobre las noticias que leíste esta mañana pero, cada vez que dices algo, alguien te grita en la cara o te dice un insulto o te acusa de algo que no hiciste. Probablemente abandonarías la conversación", explicó.
"Desafortunadamente esto pasa con demasiada frecuencia en el mundo online, ya que la gente trata de discutir ideas en las páginas web de noticias que les gustan, pero en lugar de eso terminar bombardeándose con comentarios tóxico", agregó.
En un posteo en el blog corporativo de Google, el directivo citó un estudio publicado en noviembre pasado por el instituto Data&Society para poner la problemática en números: el 72% de los usuarios de Internet en Estados Unidos alguna vez fue testigo de acosos en la web; casi la mitad (140 millones de personas) los sufrió alguna vez de forma directa; un tercio de los usuarios se autocensura en redes sociales por miedo a represalias.
Sin embargo, este problema "no impacta solo a los lectores" ya que los medios "quieren que se genere una buena conversación y discusión alrededor del contenido publicado pero intentar acabar con los trolls o contenido abusivo les quita mucho dinero, tiempo y trabajo. Como resultado, deciden en ocasiones cerrar los comentarios por completo".
Ese es el camino que en Estados Unidos siguieron numerosas publicaciones y diarios online, como USA Today, Popular Science, Recode o la la radio pública nacional (NPR), entre muchos otros.
La idea con este sistema de inteligencia artificial es que los sitios de noticias no deban llegar a ese extremo y puedan mantener las secciones de comentarios, con la ayuda de la tecnología.
Perspective funciona analizando los mensajes y evaluándolos en base "al parecido que tienen con los comentarios que las personas han indicado como 'tóxicos' o que, probablemente, pueden hacer que alguien abandone una conversación", detalló Cohen.
"Para aprender a detectar un lenguaje potencialmente tóxico, Perspective examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos", y cada vez que encuentra nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los usuarios, "mejora su capacidad para evaluar los futuros comentarios", agregó.
Con esta información, ofrece a medios y plataformas de Internet la información detallada en un marcador que va de 0 a 100 en su grado de toxicidad, aunque son los propios medios los que deciden cómo usar la información que reciben.
"Por ejemplo, pueden elegir marcar comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación", permitir que "la persona que está escribiendo vea la toxicidad potencial de sus comentarios justo cuando los está escribiendo" e incluso "permitir a los lectores clasificar los comentarios según su toxicidad".
Por el momento, el sistema funciona en inglés, "pero a lo largo de los dos próximos años lanzaremos nuevos modelos que van a funcionar en otros idiomas", adelantó Cohen, y anunció que incorporará también "modelos capaces de identificar comentarios etiquetados como ataques personales o que no se ocupan del asunto que se debate".
La herramienta, que aún está "en su primera etapa de desarrollo", era probada por Wikipedia y los diarios The New York Times, The Guardian y The Economist, pero desde está disponible de forma gratuita para cualquier medio que la solicite, aunque por el momento solo funciona en inglés.
Su objetivo principal es limitar la incidencia de los llamados trolls en las conversaciones online, en particular en aquellas que se generan en los espacios para comentarios que usan los sitios de noticias, tal como como explicó Cohen.
"Imagina que intentas tener una conversación con tus amigos sobre las noticias que leíste esta mañana pero, cada vez que dices algo, alguien te grita en la cara o te dice un insulto o te acusa de algo que no hiciste. Probablemente abandonarías la conversación", explicó.
"Desafortunadamente esto pasa con demasiada frecuencia en el mundo online, ya que la gente trata de discutir ideas en las páginas web de noticias que les gustan, pero en lugar de eso terminar bombardeándose con comentarios tóxico", agregó.
En un posteo en el blog corporativo de Google, el directivo citó un estudio publicado en noviembre pasado por el instituto Data&Society para poner la problemática en números: el 72% de los usuarios de Internet en Estados Unidos alguna vez fue testigo de acosos en la web; casi la mitad (140 millones de personas) los sufrió alguna vez de forma directa; un tercio de los usuarios se autocensura en redes sociales por miedo a represalias.
Sin embargo, este problema "no impacta solo a los lectores" ya que los medios "quieren que se genere una buena conversación y discusión alrededor del contenido publicado pero intentar acabar con los trolls o contenido abusivo les quita mucho dinero, tiempo y trabajo. Como resultado, deciden en ocasiones cerrar los comentarios por completo".
Ese es el camino que en Estados Unidos siguieron numerosas publicaciones y diarios online, como USA Today, Popular Science, Recode o la la radio pública nacional (NPR), entre muchos otros.
La idea con este sistema de inteligencia artificial es que los sitios de noticias no deban llegar a ese extremo y puedan mantener las secciones de comentarios, con la ayuda de la tecnología.
Perspective funciona analizando los mensajes y evaluándolos en base "al parecido que tienen con los comentarios que las personas han indicado como 'tóxicos' o que, probablemente, pueden hacer que alguien abandone una conversación", detalló Cohen.
"Para aprender a detectar un lenguaje potencialmente tóxico, Perspective examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos", y cada vez que encuentra nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los usuarios, "mejora su capacidad para evaluar los futuros comentarios", agregó.
Con esta información, ofrece a medios y plataformas de Internet la información detallada en un marcador que va de 0 a 100 en su grado de toxicidad, aunque son los propios medios los que deciden cómo usar la información que reciben.
"Por ejemplo, pueden elegir marcar comentarios para que sean revisados por sus propios moderadores y decidir si los incluyen en una conversación", permitir que "la persona que está escribiendo vea la toxicidad potencial de sus comentarios justo cuando los está escribiendo" e incluso "permitir a los lectores clasificar los comentarios según su toxicidad".
Por el momento, el sistema funciona en inglés, "pero a lo largo de los dos próximos años lanzaremos nuevos modelos que van a funcionar en otros idiomas", adelantó Cohen, y anunció que incorporará también "modelos capaces de identificar comentarios etiquetados como ataques personales o que no se ocupan del asunto que se debate".
Con información de
minutouno
"El único dato que nos va a dejar cómodos es que sea cero", dijo Milei sobre la inflación
El Presidente habló tras la difusión del IPC; insistió con que hubo un intento de "golpe de Estado" y apuntó contra la oposición y los medios
Milei y Kast buscan un acuerdo para exportar el gas de Vaca Muerta por el Pacífico e importar energía renovable para la minería
Los gobiernos de Argentina y Chile empezaron a trabajar en un tratado de integración energética. El gas de esa zona podría utilizar infraestructura chilena para salir a Asia. Y las mineras de litio y cobre en el norte, tener energía solar barata.
Recortan $63.000 millones en Salud: uno por uno, cuáles son los planes nacionales afectados y cómo impactará
El ajuste en el presupuesto abarca diferentes áreas, entre las que se encuentra la de medicamentos. Abarca diferentes enfermedades, como oncológicas, endémicas, zoonóticas y transmisibles por vectores. Desde el Ministerio aseguran que no habrá un perjuicio a los pacientes porque se optimizaron gastos.

Suscribite!
Y recibí las noticias más importantes!
Y recibí las noticias más importantes!
Nota22.com
Crecen las críticas a la gestión del Intendente de Santa Fe, Juan Pablo Poletti
LO MÁS VISTO
La Justicia falló en contra de Asoem
El Juzgado de 1ra. Instancia en lo Civil y Comercial de la Octava Nominación falló a favor de la Municipalidad de Sauce Viejo en medio del conflicto que mantiene con la Asociación de Obreros y Empleados Municipales.
¿Que es el Bullying?
Una investigación publicada en el British Medical Journal analizó 59 trabajos globales que indagaron sobre el tema. La conclusión derriba mitos que sostienen los grupos antivacunas al intentar vincularlas con determinados trastornos.
Lo hizo DC Consultores en su último estudio nacional. Es una firma que suele darle buenos números al Gobierno. Además, ranking de imágenes con 9 dirigentes y outsiders.




