Al principio, casi parecía una pelea entre dos hombres. Por un lado, Thierry Breton, comisario de la UE a cargo del mercado interior y autoproclamado “enforcer digital”. Del otro lado, Elon Musk, propietario de la plataforma de redes sociales X y autoproclamado “absolutista” de la libertad de expresión. El escenario y la manzana de la discordia: X, la plataforma de redes sociales antes conocida como Twitter.
Tras los ataques perpetrados contra Israel por el grupo terrorista islamista Hamás, Breton escribió una carta a Musk. En la carta del martes, también publicada en X, Breton hablaba de indicios de que la plataforma estaba siendo “utilizada para difundir contenidos ilegales y desinformación en la UE”.
Dirigiéndose a Elon Musk, se refirió a “contenidos potencialmente ilegales que circulan en su servicio a pesar de las alertas de las autoridades pertinentes”, así como a “información manifiestamente falsa o engañosa”. Musk respondió en X, pidiéndole a Breton que enumerara las supuestas violaciones para que el público las viera. “Ustedes son muy conscientes de los informes de sus usuarios (y de las autoridades) sobre contenidos falsos y glorificación de la violencia”, respondió Breton de la UE.
El papel de las redes sociales en los conflictos internacionales
A pesar de los aspectos positivos, Alessandro Accorsi, analista de International Crisis Group, un grupo de expertos de Bruselas especializado en cómo se utilizan las plataformas de redes sociales en los conflictos, ve dos problemas principales.
Piensa que cuando las redes sociales están inundadas de desinformación, a la gente le resulta difícil establecer cuál es realmente la situación sobre el terreno. El otro problema, añadió Accorsi, es que puede conducir a la polarización del discurso.
Accorsi ha estado observando la situación de las redes sociales con respecto a Israel. “Hemos visto mucha desinformación destinada a polarizar los tonos, conseguir apoyo de un lado o del otro e incitar al discurso de odio y a la violencia”, afirma a JJCC.
Por ejemplo, un vídeo de 2020 de la guerra civil siria fue reutilizado para que pareciera un ataque con cohetes de Hamás contra Israel, y vídeos de paracaidistas en El Cairo de principios de este año se presentaron como militantes de Hamás deslizándose hacia Israel, con vistas sobre X por un total de más de un millón.
En otros ejemplos de desinformación sobre X, las celebraciones de fuegos artificiales en Argelia se presentaron como ataques israelíes contra Hamás y se suponía que imágenes de videojuegos de Arma 3 mostraban otro ataque de Hamás. El domingo, el propio Musk recomendó cuentas a sus 150 millones de seguidores que son conocidos circuladores de información errónea antes de eliminar la publicación.
Normas sobre redes sociales según la legislación de la UE
En su carta a X, el comisario de la UE se refirió a dicho material. Breton menciona “imágenes antiguas reutilizadas de conflictos armados no relacionados o imágenes militares que en realidad se originaron en videojuegos”. El motivo de la intervención de Breton es la llamada Ley de Servicios Digitales de la Unión Europea. Desde agosto, las grandes empresas tecnológicas se han visto obligadas a eliminar contenidos ilegales una vez que les han llamado la atención. La legislación también quiere garantizar que los gigantes tecnológicos moderen el contenido y prevengan, por ejemplo, el discurso de odio en sus plataformas.
Acción de X tras los ataques de Hamás a Israel
El jueves, Linda Yaccarino, directora ejecutiva de X, dijo que la compañía ha actuado eliminando o etiquetando “decenas de miles de contenidos” y eliminado “cientos de cuentas afiliadas a Hamás” desde que comenzó el ataque terrorista contra Israel el sábado 7 de octubre. En su carta de respuesta, dice que durante la crisis actual, X estaba “evaluando y abordando de manera proporcional y efectiva el contenido falso y manipulado identificado”.
Además, la carta afirma que X se toma “muy en serio” los informes sobre contenido potencialmente ilegal y alienta a la Comisión de la UE a proporcionar más detalles para una investigación.
A Accorsi no le convencen las respuestas de Yaccarino, que van más allá de las concisas respuestas de Musk a Breton, pero son muy ligeras en detalles. Dice que repiten en gran medida los objetivos políticos declarados por X sin proporcionar sustancia sobre cómo pretende alcanzarlos.
El analista señala que X no revela el nivel de recursos dedicados a la tarea de eliminar contenidos falsos de su plataforma, señalando que moderar contenidos requiere una gran cantidad de personal.
Yaccarino ofreció algunos detalles sobre su función “Notas de la comunidad”, diseñada para brindar claridad y contexto sobre publicaciones engañosas o falsas, incluidos anuncios pagados. “En los primeros cuatro días, las notas relacionadas se han visto decenas de millones de veces”, escribió, añadiendo que se habían añadido más de 700 notas únicas relacionadas con el conflicto a las publicaciones en X.
Pero esto queda eclipsado por la cantidad de visitas que han recibido las publicaciones engañosas.
Desde que Musk compró Twitter y le cambió el nombre, la plataforma ha sido criticada por no prevenir eficazmente la desinformación y por reducir drásticamente la moderación de contenidos. La plataforma también se retiró de un pacto voluntario para luchar contra la desinformación en mayo de este año.
¿Quién más recibió la carta de la Comisión de la UE?
La UE envió cartas similares a Meta y TikTok durante los últimos días. En su carta a Meta, la empresa matriz de Facebook e Instagram, Breton pide a la plataforma que esté “muy atenta” a la hora de respetar las normas de la UE. Además, Breton advirtió que la empresa necesitaba evitar los deepfakes a la luz de las próximas elecciones en Europa. En la carta del jueves a TikTok, el comisionado destacó la obligación de TikTok de proteger a los niños y adolescentes del contenido violento tras los ataques terroristas en Israel.
Al igual que X, ambos proveedores de plataformas tuvieron 24 horas para responder.
Con respecto a X, la Comisión de la UE anunció el jueves por la noche que tras examinar las respuestas de la empresa, había decidido iniciar una investigación formal. Esto podría resultar en multas de hasta el 6% de la facturación global de la empresa. Como último recurso, la UE también podría pedir a un tribunal que suspenda temporalmente el servicio de la plataforma en la UE.
En un comunicado de prensa, la Comisión de la UE dijo que X debe proporcionar la información solicitada antes del 18 de octubre de 2023 para las preguntas relacionadas con la activación y el funcionamiento del protocolo de respuesta a crisis de X y antes del 31 de octubre de 2023 para el resto. Luego, la comisión evaluará las respuestas y decidirá sus próximos pasos.
Accorsi había dicho anteriormente a JJCC que esperaba que la Comisión Europea iniciara una investigación sobre X. Esto implicaría entrevistar a los empleados y comprobar los datos sobre si X realmente está tomando medidas para combatir el problema de la difusión de información errónea.