Verificación de hechos: falsificaciones de IA en la guerra de Israel contra Hamás

¿Cómo funcionan las historias falsas creadas con inteligencia artificial (IA)? ¿Qué narrativas presentan? ¿Y qué tan peligrosos son?

Los verificadores de datos de JJCC responden a las preguntas más críticas sobre el papel de la IA en el conflicto entre Israel y Hamás en Gaza.

1) ¿Cómo funcionan las imágenes falsas generadas por IA?

La IA está en todas partes hoy en día, incluso en las guerras. Las aplicaciones de inteligencia artificial han mejorado mucho este año y casi cualquier persona ahora puede usar generadores de inteligencia artificial estándar para crear imágenes que parecen reales, al menos a primera vista.

Los usuarios deben “alimentar” herramientas como Midjourney o Dall-E con indicaciones, incluidas especificaciones e información, para hacer esto. Luego, las herramientas convierten las indicaciones escritas en imágenes.

Algunos crean ilustraciones más artísticas, mientras que otros crean imágenes fotorrealistas. El proceso de generación se basa en lo que se conoce como aprendizaje automático.

Por ejemplo, si se pide a los generadores que muestren a un hombre de 70 años montando en bicicleta, buscan en su base de datos para emparejar los términos con imágenes.

A partir de la información disponible, los generadores de IA crean la imagen del ciclista mayor. Gracias a cada vez más aportaciones y actualizaciones técnicas, las herramientas han mejorado enormemente y están en constante aprendizaje.

Todo esto se aplica a las imágenes relacionadas con el conflicto de Oriente Medio.

También en este caso se utilizan estas herramientas para crear escenas más o menos realistas que, según nuestras observaciones, a menudo pretenden capturar momentos emotivos para difundir determinadas narrativas. Pero hablaremos de eso más adelante.

En un conflicto donde “las emociones son muy, muy altas”, dice el experto en inteligencia artificial Hany Farid, la desinformación, incluida su difusión a través de imágenes de inteligencia artificial, funciona excepcionalmente bien.

Las fachadas endurecidas son el caldo de cultivo perfecto para crear y difundir contenidos falsos e intensificar las emociones, dice a JJCC Farid, profesor de ciencia forense digital en la Universidad de California en Berkeley.

2) ¿Cuántas imágenes de IA de la guerra entre Israel y Hamás están en circulación?

Las imágenes y vídeos creados con la ayuda de inteligencia artificial ya se han sumado a la desinformación relacionada con la guerra en Ucrania, y continúan haciéndolo.

Dado que las herramientas de inteligencia artificial se han desarrollado rápidamente desde la invasión rusa de Ucrania en 2022, muchos observadores esperaban que desempeñara un papel aún mayor en la guerra entre Israel y Hamas. Sin embargo, según los expertos, la gran avalancha de imágenes de IA no se ha materializado hasta el momento.

“En el conflicto entre Israel y Hamás y la desinformación relacionada, no estamos viendo un uso masivo de imágenes generadas por IA”, afirma Tomasso Canetta del Observatorio Europeo de Medios Digitales.

“Hay algunos ejemplos, pero no es mucho si lo comparamos con la cantidad de desinformación que en realidad son imágenes y vídeos antiguos que ahora se comparten de forma engañosa”, añade.

Sin embargo, esto no significa que la tecnología no sea un factor. Farid explica que no considera que el número de falsificaciones de IA sea un factor relevante.

“Puedes tener dos imágenes que se vuelven súper virales y cientos de millones de personas las ven. Puede tener un impacto enorme”, afirma.

“Así que no tiene por qué ser un juego de volumen, pero creo que el verdadero problema que estamos viendo es simplemente la contaminación del ecosistema de la información”.

3) ¿A qué narrativas sirven las falsificaciones de IA en la guerra entre Israel y Hamás?

Las imágenes de IA que circulan en las redes sociales suelen provocar emociones fuertes.

Canetta identifica dos categorías principales. Una se refiere a imágenes que se centran en el sufrimiento de la población civil y despiertan simpatía por las personas mostradas. El otro son las falsificaciones de IA que exageran el apoyo a Israel, Hamás o los palestinos y apelan a sentimientos patrióticos.

La primera categoría incluye, por ejemplo, la imagen de arriba de un padre con sus cinco hijos frente a un montón de escombros. Fue compartido muchas veces en X. (anteriormente Twitter) e Instagram y visto cientos de miles de veces en relación con el bombardeo israelí de la Franja de Gaza.

Mientras tanto, la imagen ha sido marcada con un aviso comunitario, al menos en X, de que es falsa. Puede reconocerse como tal por varios errores e inconsistencias típicos de las imágenes de IA.

El hombro derecho del hombre, por ejemplo, está desproporcionadamente alto. Las dos extremidades que emergen desde abajo también son extrañas, como si crecieran de su suéter.

También llama la atención cómo se fusionan las manos de los dos niños que han rodeado con sus brazos el cuello de su padre. Y hay demasiados o muy pocos dedos de manos y pies en varias de las manos y pies de la imagen.

Anomalías similares también se pueden ver en lo siguiente Falsa IA que se volvió viral en Xque supuestamente muestra a una familia palestina comiendo junta entre los escombros, evocando simpatía por los civiles palestinos.

La siguiente imagen, que muestra a soldados ondeando banderas israelíes mientras caminan por un asentamiento lleno de casas bombardeadas, entra en la segunda categoría, que está diseñada para despertar sentimientos de patriotismo.

Las cuentas que comparten la imagen. en Instagram y X parecen ser principalmente proisraelíes y acogen con agrado los eventos descritos. JJCC también encontró la imagen como imagen de un artículo en un periódico online búlgaro.que no lo reconoció ni lo etiquetó como generado por IA.

Lo que parece falso aquí es la forma en que ondean las banderas israelíes. La calle del centro también parece demasiado limpia, mientras que los escombros parecen muy uniformes. Los edificios destruidos también parecen gemelos, colocados a intervalos bastante regulares.

En definitiva, la impresión visual es demasiado “limpia” para parecer realista. Este tipo de perfección, que hace que las imágenes parezcan pintadas, también es típica de la IA.

4) ¿De dónde proceden esas imágenes de IA?

Las cuentas privadas en las redes sociales distribuyen la mayoría de las imágenes creadas con la ayuda de inteligencia artificial. Los publican perfiles tanto auténticos como obviamente falsos.

Sin embargo, las imágenes generadas por IA también se pueden utilizar en productos periodísticos. En muchas empresas de medios se está debatiendo actualmente si esto puede ser útil o sensato y en qué casos.

La empresa de software Adobe causó revuelo cuando añadió imágenes generadas por IA a su gama de fotografías de archivo a finales de 2022.. Estos están etiquetados en consecuencia en la base de datos.

Adobe ahora también ofrece a la venta imágenes con IA de la guerra de Oriente Medio — por ejemplo, explosiones, personas que protestan o nubes de humo detrás de la mezquita de Al-Aqsa.

Los críticos encuentran esto muy cuestionable, y algunos sitios y medios en línea han seguido usando las imágenes sin etiquetarlas como generadas por IA. La imagen de arriba, por ejemplo, aparece en el sitio “Newsbreak” sin ninguna indicación de que haya sido generado por computadora. JJCC lo descubrió mediante una búsqueda inversa de imágenes.

Incluso el Servicio de Investigación del Parlamento Europeo, el servicio científico del Parlamento Europeo, ilustró un texto en línea sobre el conflicto de Oriente Medio. con una de las falsificaciones de la base de datos de Adobe – nuevamente sin etiquetarla como una imagen generada por IA.

Canetta, del Observatorio Europeo de Medios Digitales, hace un llamamiento a los periodistas y profesionales de los medios de comunicación para que tengan mucho cuidado al utilizar imágenes de IA y desaconseja su uso, especialmente cuando se trata de acontecimientos reales como la guerra en Gaza.

La situación es diferente cuando el objetivo es ilustrar temas abstractos como las tecnologías del futuro.

5) ¿Cuánto daño causan las imágenes de IA?

Saber que circula contenido de IA hace que los usuarios se sientan inseguros acerca de todo lo que encuentran en línea.

Farid, investigador de la Universidad de California en Berkeley, explica: “Si entramos en este mundo donde es posible manipular imágenes, audio y vídeo, todo queda en duda. Así que vemos cosas reales que se consideran falsas”.

Eso es precisamente lo que ocurrió en el siguiente caso: una imagen que supuestamente muestra el cadáver carbonizado de un bebé israelí fue compartida en X por el Primer Ministro de Israel, Benjamín Netanyahu, y el comentarista conservador estadounidense Ben Shapiro, entre otros.

El controvertido influencer antiisraelí Jackson Hinkle afirmó entonces que la imagen había sido creada mediante inteligencia artificial.

Como supuesta prueba, Hinkle adjuntó una captura de pantalla del detector de IA “AI o no” a su publicación, que clasificó la imagen como generada por IA.

El reclamo de Hinkle sobre X fue visto más de 20 millones de veces y generó acaloradas discusiones en la plataforma.

Al final, muchos afirmaron que la imagen era, con toda probabilidad, genuina y que, por tanto, Hinkle estaba equivocado. Farid también dijo a JJCC que no encontró ninguna discrepancia en la imagen que indicara una IA falsa.

¿Cómo puede ser eso?, te preguntarás. Los detectores de IA, que pueden utilizarse para comprobar si una imagen o un texto posiblemente haya sido generado por IA, siguen siendo muy propensos a errores. Dependiendo de la imagen revisada, aciertan o no y, a menudo, solo toman decisiones según probabilidades probables, no con un 100% de certeza.

Por lo tanto, son más adecuados como herramienta adicional para comprobar falsificaciones de IA, pero definitivamente no como única herramienta.

El equipo de verificación de datos de JJCC tampoco pudo detectar signos claros de manipulación por parte de la IA en la imagen, que probablemente muestra el cadáver de un bebé.

Curiosamente, “IA o no” no clasificó la imagen como generada por IA cuando la probamos nosotros mismos y señaló que la calidad de la imagen era mala.

Otro detector de IA (moderación de Hive) también concluyó que la imagen era genuina.