Primero se observa el texto en sí, después cómo está escrito y, por último, de qué habla realmente
Investigadores de la Universidad Europea del Atlántico (UNEATLANTICO), la Dra. Mónica Gracia, directora internacional de Admisiones de la Fundación Universitaria Iberoamericana (FUNIBER), y el Dr. Eduardo Silva, director ejecutivo de la misma Fundación en la sede de Guatemala, realizan un estudio en conjunto con otros profesionales para mejorar la detección automática de noticias falsas mediante aprendizaje automático. Este trabajo demuestra la eficacia de un enfoque híbrido y multivista para analizar contenidos informativos en entornos digitales.
En los últimos años, la desinformación ha crecido con rapidez en las redes sociales y en los medios digitales. Los mensajes que mezclan verdades con falsedades influyen en las conversaciones públicas, erosionan la confianza y complican la toma de decisiones, especialmente en periodos electorales o crisis sanitarias como el COVID-19. Por ello, contar con herramientas automáticas que ayuden a identificar y frenar la difusión de contenidos engañosos se ha vuelto prioritario para el ámbito de la redacción, las plataformas digitales y las autoridades.
Hasta ahora, muchas soluciones se han basado en examinar solo el texto o en utilizar modelos muy complejos. Aunque han supuesto un avance, suelen tener dificultades para adaptarse a contextos nuevos, manejar textos polémicos o explicar por qué toman una decisión. También tienden a «aplanar» toda la información en un único bloque, perdiendo matices importantes del lenguaje y del tema tratado.
Propuesta del estudio
El estudio propone un enfoque distinto y fácil de entender: analizar cada noticia desde tres ángulos complementarios y combinar después esas «opiniones» de manera inteligente. Primero se observa el texto en sí (palabras y expresiones frecuentes), después cómo está escrito (comprensibilidad, tono emocional, uso de nombres propios y estructura gramatical) y, por último, de qué habla realmente (temas dominantes y significado general). Para cada mirada se entrena un modelo especializado; al final, un «árbitro» reúne las tres y decide con mayor acierto que cualquiera por separado.
Para ponerlo a prueba, el equipo trabajó con decenas de miles de artículos ya clasificados como reales o falsos y utilizó una evaluación rigurosa que repite el entrenamiento y la prueba en diez rondas distintas para evitar casualidades. Además, comprobó si el sistema se mantiene estable cuando los textos sufren pequeñas alteraciones (por ejemplo, borrar o cambiar el orden de algunas palabras) y si puede trasladar lo aprendido a un conjunto diferente, formado por frases políticas cortas.
Los resultados son especialmente sólidos. En el conjunto principal, el sistema acierta el 99,94 % de las veces y supera tanto a modelos que miran una sola perspectiva como a otros que mezclan todo en un único paso. También mejora a una referencia muy potente basada en redes neuronales profundas. Cuando se evalúa con el conjunto de frases cortas, mantiene un nivel muy alto de acierto (en torno al 97 %), lo que indica que generaliza bien incluso cuando cambia el tipo de texto. En las pruebas de resistencia, la precisión se mantiene por encima del 97 % aunque se borre, intercambie o repita una parte de las palabras, señal de que, si una de las miradas pierde información, las otras dos la compensan. Esta propuesta logra un equilibrio adecuado entre efectividad y coste computacional: mejora las métricas clave sin requerir infraestructuras pesadas, lo que facilita su adopción en entornos con recursos limitados.