Tenemos que reimaginar el concepto de desinformación y rápido
Pocos términos se utilizan tan mal en Europa y Estados Unidos como “desinformación”. Si bien todos parecen estar de acuerdo en que es peligroso, no todos están de acuerdo en su significado.
Durante mucho tiempo, la desinformación se ha presentado como un concepto relacionado con realidades objetivas más que con intereses e intenciones. Esta noción es peculiar, porque la desinformación está diseñada subjetivamente con el propósito de causar daño.
Pensemos en Tucker Carlson, la personalidad de la televisión estadounidense conocida por hacer afirmaciones falsas y a menudo dudosas. Su categorización precisa presenta un desafío: ¿caen bajo el paraguas de desinformación, propaganda o información errónea?
Surgen problemas similares cuando se trata de tecnología. Con el lanzamiento de software de inteligencia artificial como ChatGPT y Midjourney, la producción de contenido problemático se ha puesto a disposición de cualquier persona con acceso digital. Con el crecimiento exponencial del contenido malicioso en línea, cualquier verificación de hechos o análisis manual experto será demasiado lento para contrarrestarlo adecuadamente.
En última instancia, tendremos que depender de la propia IA y, como es un medio exclusivamente formalista, las palabras que utilicemos son cruciales.
Una segunda cuestión gira en torno a verificar si la información es falsa. El enfoque heredado implica actividades de verificación de hechos que van desde juicios de expertos hasta sofisticadas técnicas de inteligencia de código abierto (OSINT).
La verificación de hechos tiene sus raíces en un concepto cuestionable de lo que constituye un “hecho”. La filosofía de la ciencia ha luchado durante mucho tiempo con la naturaleza de los hechos, dándose cuenta de que no existen como entidades prefabricadas, sino que surgen como resultado de una investigación. Esto nos lleva a una posición inspirada en el filósofo Thomas Kuhn: diferentes esquemas conceptuales operan con diferentes conjuntos de hechos.
Recientemente, el periodista estadounidense Jacob Siegel calificó la desinformación de “engaño”, retratándola como una herramienta para la represión política y sugirió que recurrir a las viejas y liberales “artes humanas de la conversación, el desacuerdo y la ironía” sería suficiente para abordar el problema.
Un encuentro con la realidad de la esfera digital es suficiente para hacer irrelevante tal ingenuidad. Cuando el filósofo alemán Jürgen Habermas habla de ‘una nueva transformación estructural de la esfera pública’, relacionada con el avance de los nuevos medios, capta los cambios irreversibles que trajo la era de la información.
Como residente de Ucrania, que experimentó la vida durante la guerra desatada por Rusia, soy muy consciente de que no hay vuelta atrás a una época “previa a la desinformación”.
La agresión rusa estuvo acompañada de una contaminación sin precedentes del espacio informativo con contenidos maliciosos inventados. Esto me llevó a involucrarme en una iniciativa ucraniana que se centra en combatir la guerra de información maliciosa mediante el uso de IA. Basándome en esta experiencia, he llegado a las siguientes conclusiones. El concepto de desinformación refleja la cruda realidad que todos vemos: existe información diseñada para ser engañosa y dañina. Para navegar por este ámbito en la era de la IA, es necesario abordar problemas que van desde la cuestión aparentemente sencilla de definir la desinformación hasta la cuestión matizada de verificar los hechos. En última instancia, nos lleva al dilema más difícil: el de los intereses en conflicto.
El concepto de desinformación exige una reinvención incorporando este aspecto de valor que se pasa por alto. Lograr eso llevaría a políticos, activistas, periodistas y empresas de tecnología a lograr un gran avance.