Un equipo de investigadores de la Universitat Politècnica de València (UPV) ha desarrollado un sistema de inteligencia artificial que permite detectar desinformación y mensajes de odio tanto explícitos como implícitos en los medios sociales de comunicación.
En fase de prototipo, el sistema ha sido utilizado ya para localizar ataques en las redes a mujeres e inmigrantes, además de desinformación, aplicando para ello técnicas de deep learning.
Es el primer resultado de MISMIS-FAKEnHATE, un proyecto liderado por el centro Pattern Recognition and Human Language Technology (PRHLT-UPV), y financiado por el Ministerio de Ciencia, Innovación y Universidades. En él, participan también expertos de la Universidad Nacional de Educación a Distancia (UNED) y la Universitat de Barcelona (UB), y colabora, como entidad promotora observadora, la Policía Local de Valencia.
Tal y como explica Paolo Rosso, del PRHLT-UPV, hoy en día, en muchos casos, la ciudadanía acaba recibiendo en los medios sociales de comunicación sólo la información que concuerda con sus creencias y puntos de vista, con el consiguiente riesgo de aislamiento intelectual (burbuja de información).
"Un efecto perverso de situaciones así es que, cuando la información corrobora nuestras creencias, tendemos a compartirla sin comprobar su veracidad, lo que facilita la propagación de desinformación, las llamadas fake news", apunta Rosso.
Además, el relativo anonimato de los medios sociales favorece la propagación de lenguaje agresivo, de mensajes de odio, y exclusión, que fomentan la separación en comunidades cada vez más polarizadas en sus opiniones. "Se tiende a una escasa argumentación en los contenidos que a menudo se limitan a unos pocos insultos", añade Anastasia Giachanou, investigadora también del PRHLT-UPV.
Partiendo de este análisis, el primero de los prototipos desarrollado por la UPV, la UNED y la UB permite identificar desinformación a partir de un análisis automático tanto del lenguaje utilizado como de las emociones que subyacen a ese texto. Para ello, es capaz de discernir emociones básicas como el miedo, la ira o la sorpresa, entre otros. Por el momento, lo hace fundamentalmente en información escrita, si bien está empezando a trabajar también con imágenes.
En este sentido, Giachanou, que desarrolla su investigación en el PRHLT-UPV gracias a una beca de la Fundación Nacional para la Ciencia de Suiza (SNSF por sus siglas en inglés), indica que el objetivo es "identificar la desinformación desde una perspectiva multimodal, combinando la información textual con la visual a través de técnicas basadas en deep learning. Además, se llevará a cabo un análisis multilingüe cuando la información sea en lenguajes diferentes". El sistema, así mismo, ayudará también a perfilar si el autor de una noticia falsa es un bot o una persona.
Por otro lado, el nuevo prototipo detecta también lenguaje agresivo y mensajes de odio en los medios sociales de comunicación. Para monitorizarlos, el equipo de la UPV, la UNED y la UB propone un enfoque terminológico, extrayendo términos y patrones lingüísticos de odio a partir de conjuntos de datos analizados anteriormente, y la monitorización sistemática en caso de que estos sean empleados en nuevas conversaciones online.
Como próximo reto, los investigadores trabajan en la clasificación de patrones y rasgos de la personalidad que se esconden detrás de los haters (literalmente, 'odiadores', personas que difaman, desprecian o atacan, de manera continuada, a algo o a alguien) de las redes sociales.
Noticias destacadas