La IA de F-Secure lee tuits malos para combatir el abuso y los trolls


Investigadores en F-Secure Centro de Excelencia de Inteligencia Artificial y el Instituto Forth-IS de la Universidad de Creta han desarrollado un método novedoso para clasificar los tweets que esperan que, en el futuro, ayuden a plataformas como Twitter a frenar el mal comportamiento y tratar de manera más efectiva el abuso, el acoso y otras formas de actividad maliciosa.

Trabajando bajo los auspicios del Proyecto Blackfin de F-Secure, el investigador Andy Patel y el estudiante de doctorado Alexandros Kornilakis realizaron experimentos sobre las respuestas al presidente estadounidense Donald Trump y otros políticos estadounidenses, incluido el campo de los candidatos demócratas que compiten para enfrentar a Trump en las elecciones de noviembre de 2020.

Patel dijo que la «lluvia torrencial» de contenido en las redes sociales dio cobertura a los malos actores para difundir información errónea, engaños, mentiras, estafas y noticias falsas, y la incapacidad de los sitios para detener este tipo de comportamiento estaba creando un mercado para me gusta, vistas, suscripciones, reseñas y cuentas falsas.

En su papel, Un nuevo método novedoso para agrupar tweets, Patel y Kornilakis establecieron un nuevo método de agrupamiento: el proceso de usar el aprendizaje automático para agrupar frases o pasajes en cubos según su tema.

Desarrollaron una metodología que involucraba el procesamiento de datos capturados, la conversión de tweets en vectores de oraciones, la combinación de dichos vectores en meta-incrustaciones, y luego la creación de gráficos de borde de nodo usando similitudes entre meta-incrustaciones calculadas, de las cuales los grupos se derivaron.

Patel y Kornilakis probaron su metodología en torno a múltiples eventos, incluida la Elección General del Reino Unido de 2019, que estableció un nuevo punto álgido para el comportamiento abusivo en línea. Sin embargo, la mayor parte de su investigación se centró en más de un millón de respuestas a los tweets enviados por Trump, los candidatos del Partido Demócrata y la congresista Alexandra Ocasio-Cortez.

Según Patel, las menciones en línea de tales políticos presentan una versión extrema de lo que el usuario promedio de Twitter puede tener que enfrentar. Inevitablemente, reciben una gran cantidad de compromiso y, por lo general, se torna extremadamente positivo o negativo.

Patel y Kornilakis clasificaron las menciones por identificadores como sujeto-verbo-objeto y sentimiento general y luego usaron su metodología para construir un puntaje de sentimiento promedio. En base a estos identificadores, las publicaciones se clasificaron como positivas, negativas o tóxicas.

En el caso de los demócratas, los tweets negativos más comunes incluían términos como «eres un idiota / imbécil / mentiroso / traidor», «nunca serás presidente» y «Trump ganará». Los temas más positivos incluyeron «te amamos», «tienes esto» y «tienes mi voto».

El poco imaginado Andy Yang recibió con mucho las respuestas más positivas, seguido de Bernie Sanders y Amy Klobuchar, mientras que Alexandra Ocasio-Cortez y Elizabeth Warren recibieron las publicaciones más tóxicas.

Sin embargo, en comparación con Trump, ninguno de los demócratas atrajo tanta toxicidad, con los temas más comunes que incluyen «eres un idiota / mentiroso / desgracia / criminal», «no eres nuestro presidente», «no tienes idea / tú no sé nada «,» deberías callarte «y» no puedes dejar de mentir «. Muchos también incluyeron referencias a Vladimir Putin. Las menciones positivas de Trump tendieron a incluir temas como «Dios te bendiga» y «te amamos».

Patel espera que la metodología pueda usarse para ayudar a reducir el mal uso de Twitter al llamar la atención sobre el contenido problemático antes de que genere tracción. Esto podría resultar particularmente útil para contrarrestar la información errónea que amenaza la vida, dijo.

«Por ejemplo, nuestra metodología identificó y agrupó automáticamente los tweets que empujaban el engaño de que los incendios forestales de Australia habían sido causados ​​por incendiarios ”, dijo Patel.

“Se necesita investigación adicional, pero con un poco más de desarrollo podría haber una gama de aplicaciones potenciales. Esta metodología podría usarse para el filtrado o la eliminación automatizados de spam, desinformación y otro contenido tóxico. Esto podría hacerse asignando puntajes de calidad a las cuentas en función de la frecuencia con la que publican contenido tóxico o acosan a los usuarios «.

Los investigadores han creado un sitio web para personas interesadas. para explorar los datosy el código del proyecto se puede encontrar en Github.

El Proyecto Blackfin se estableció en 2019 en la sede de F-Secure en Helsinki y se describe como un programa de investigación dedicado al desarrollo de IA descentralizada para la seguridad cibernética. Los investigadores del proyecto también esperan llevar la inteligencia artificial (IA) al siguiente nivel desafiando la idea errónea común de que las IA deben imitar la inteligencia humana.

Dejar respuesta

Please enter your comment!
Please enter your name here