La tesis sobre detección de usuarios maliciosos mediante inteligencia artificial del investigador Rubén Sánchez, en la revista IEEE Spectrum

La revista, editada por el Institute of Electrical and Electronics Engineers, ha entrevistado al profesor e investigador de Deusto acerca de su tesis doctoral sobre detección preventiva de comportamiento malicioso en redes sociales mediante machine learning.

Gráfico sobre temas tratados en la tesis doctoral

24 septiembre 2024

Campus Bilbao

La revista americana IEEE Spectrum, editada por el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE, por sus siglas en inglés), publicó el pasado miércoles día 18 de septiembre una entrevista a Rubén Sánchez Corcuera, profesor e investigador de la Facultad de Ingeniería de Deusto, con motivo de la publicación de un artículo derivado de su tésis doctoral “From Forensic to Preventive: Language Agnostic Approach to Preventive Detection of Malicious Users” en la base de datos IEEE Xplore. La tesis, dirigida por el investigador de Deusto Aitor Almeida y el profesor de la Queen Mary University of London Arkaitz Zubiaga, tuvo como objetivo desarrollar un algoritmo capaz de predecir comportamientos maliciosos en X (Twitter) y reducir el impacto de las campañas de odio y desinformación en la red social.

En la entrevista realizada para IEEE Spectrum, Rubén Sánchez Corcuera explica que desarrollaron su modelo de predicción basándose en un modelo existente conocido como JODIE (Jointly Optimizing Dynamics and Interactions for Embeddings), que predice interacciones futuras de usuarios en redes sociales. Los tres investigadores modificaron el modelo JODIE con nuevos algoritmos de machine learning para que fuera capaz de predecir si un usuario sería malicioso en un futuro.

Después, este modelo de predicción se probó en tres conjuntos de datos: 936 cuentas de X ligadas a la República Popular China, 1.666 cuentas asociadas al gobierno iraní y 1.152 cuentas dedicadas a la propaganda política respaldadas por el gobierno ruso. En el conjunto de datos iraní, por ejemplo, el estudio demostró que el nuevo modelo era capaz de predecir hasta el 75% de los usuarios que incurrirían en un comportamiento malicioso con solo analizar el 40% de los datos. Por tanto, se comprobó que mejoraba en un 40% los resultados de otro modelo similar de última generación. Este tipo de modelos para detectar el comportamiento malicioso pueden resultar especialmente útiles en las redes sociales que se basan en texto, como X, si bien las plataformas como TikTok, basadas en contenido multimedia, pueden requerir un enfoque distinto. 

Sánchez Corcuera concluye que, en última instancia, los modelos como el que ha desarrollado junto a sus compañeros pueden ayudar a prevenir la actividad maliciosa en redes sociales, reducir el impacto de las campañas de odio y proteger a los usuarios, contribuyendo de esta forma a su bienestar psicológico y a una experiencia más positiva en espacios online.

Entrevista. 

Estudio en IEEE Xplore.

Tesis doctoral.