Un equip investigador de la Universitat Politècnica de València (UPV) ha desenvolupat un sistema d'intel·ligència artificial que permet detectar desinformació i missatges d'odi, tant explícits com implícits, en els mitjans socials de comunicació.
En fase de prototip, el sistema ha sigut utilitzat ja per a localitzar atacs en les xarxes a dones i immigrants, a més de desinformació, aplicant amb aquesta finalitat tècniques d'aprenentatge profund (deep learning).
És el primer resultat de MISMIS-FAKEnHATE, un projecte liderat pel centre Pattern Recognition and Human Language Technology (PRHLT-UPV), i finançat pel Ministeri de Ciència, Innovació i Universitats. En aquest, participa també personal expert de la Universitat Nacional d'Educació a Distància (UNED) i la Universitat de Barcelona (UB), i col·labora, com a entitat promotora observadora, la Policia Local de València.
Tal com explica Paolo Rosso, del PRHLT-UPV, avui dia, en molts casos, la ciutadania acaba rebent en els mitjans socials de comunicació només la informació que concorda amb les seues creences i punts de vista, amb el consegüent risc d'aïllament intel·lectual (bombolla d'informació).
"Un efecte pervers de situacions així és que, quan la informació corrobora les nostres creences, tendim a compartir-la sense comprovar-ne la veracitat, la qual cosa facilita la propagació de desinformació, les anomenades fake news", apunta Rosso.
A més, el relatiu anonimat dels mitjans socials afavoreix la propagació d'un llenguatge agressiu, de missatges d'odi i exclusió, que fomenten la separació en comunitats cada vegada més polaritzades en les seues opinions. "Es tendeix a una escassa argumentació en els continguts, que sovint es limiten a uns pocs insults", afig Anastasia Giachanou, investigadora també del PRHLT de la UPV.
Partint d'aquesta anàlisi, el primer dels prototips desenvolupat per la UPV, la UNED i la UB permet identificar la desinformació a partir d'una anàlisi automàtica, tant del llenguatge utilitzat com de les emocions que subjauen a aquest text. Amb aquesta finalitat, és capaç de destriar emocions bàsiques com la por, la ira o la sorpresa, entre altres. De moment, ho fa fonamentalment sobre informació escrita, si bé comença a treballar també amb imatges.
En aquest sentit, Giachanou -que desenvolupa la investigació en el PRHLT de la UPV gràcies a una beca de la Fundació Nacional per a la Ciència de Suïssa (SNSF n'és la sigla en anglès)- indica que l'objectiu és "identificar la desinformació des d'una perspectiva multimodal, combinant la informació textual amb la visual a través de tècniques basades en l'aprenentatge profund. A més, es durà a terme una anàlisi multilingüe quan la informació siga en llenguatges diferents". El sistema, així mateix, ajudarà també a perfilar si l'autoria d'una notícia falsa és un bot o una persona.
D'altra banda, el nou prototip detecta també un llenguatge agressiu i missatges d'odi en els mitjans socials de comunicació. Per a monitorar-los, l'equip de la UPV, la UNED i la UB proposa un enfocament terminològic, extraient termes i patrons lingüístics d'odi a partir de conjunts de dades analitzades anteriorment, i el monitoratge sistemàtic en cas que aquests siguen emprats en noves converses virtuals.
Com a pròxim repte, el grup investigador treballa en la classificació dels patrons i trets de la personalitat que s'amaguen darrere dels haters (literalment: odiadors/enemics/seguidors hostils, que són persones que difamen, menyspreen o ataquen, de manera continuada, alguna cosa o algú) de les xarxes socials.
Notícies destacades