Lo que hay que saber sobre la batalla CSAM de la UE
Durante años, Bruselas ha estado dividida sobre hasta dónde debería llegar la Unión Europea para combatir la difusión de material de abuso sexual infantil, o CSAM.
Los defensores de la privacidad argumentan que escanear mensajes privados equivaldría a una vigilancia masiva, socavando los derechos digitales. Los grupos de seguridad infantil y muchas empresas de tecnología dicen que sin esas herramientas, el contenido ilícito se difundirá desenfrenadamente.
Esa tensión llegó a un punto crítico en el finales de marzocuando el Parlamento Europeo votó en contra de extender una exención temporal que había permitido a las plataformas escanear comunicaciones.
Desde que expiró la exención el 3 de abril, las empresas de tecnología han quedado en un limbo legal: están obligadas a eliminar contenido ilegal, pero los métodos de escaneo en los que confían ahora pueden violar las normas de privacidad de la UE. Varios empresas han dicho que continuarán escaneando de todos modos, incluso sin una situación legal clara.
Ahora, esas empresas están instando a la UE a avanzar rápidamente hacia una ley permanente de seguridad infantil, una que introduciría informes centralizados y obligaciones más claras, y finalmente resolvería años de incertidumbre legal.
¿Qué se considera CSAM y cómo lo eliminan las empresas?
El material de abuso sexual infantil es cualquier contenido que muestre a un niño siendo Abusado o explotado sexualmente según Rainn, un grupo de defensa del abuso sexual con sede en Washington DC CSAM es ampliamente prevalentecon más de 20,4 millones de casos reportados en 2024 al Centro Nacional para Niños Desaparecidos y Explotados de EE. UU., un centro de intercambio de información internacional para detectar material CSAM. En 2024, 70% de todos los smucho contenido a nivel mundial se originó en Europa, según la Internet Watch Foundation.
Las empresas suelen escanear sus plataformas mediante un proceso llamado PhotoDNA, una forma de coincidencia de hash que señala CSAM conocido mediante la comparación de huellas digitales, sin necesidad de que un humano vea la imagen.
¿Cómo ha intentado la UE regular el escaneo de CSAM?
En 2020, la Comisión introdujo una medida temporal que permitía a las empresas escanear en busca de CSAM sin infringir las normas de privacidad de datos, pero los esfuerzos por ampliarla fracasaron en el Parlamento en marzo de este año, y los legisladores rechazaron una medida temporal. exención más larga y más amplia respaldado por la Comisión y el Consejo.
En 2022, el ejecutivo de la UE propuso un marco permanente para aclarar qué escaneos están permitidos y establecer un centro dedicado a combatir el abuso sexual infantil. Pero el plan se ha estancado, ya que las instituciones de la UE siguen divididas sobre hasta dónde deberían extenderse esos poderes de escaneo.
¿Cómo ganó impulso la oposición al “control del chat”?
En 2020, grupos de privacidad digital como Detener control de chat y Lucha contra el control del chat comenzó a hacer campaña contra el escaneo, argumentando que las exenciones a las reglas de privacidad equivalían a vigilancia masiva. Grupos de la sociedad civil organizaron a los ciudadanos para enviar miles de correos electrónicos a los legisladores europeos.
“Permitimos a los proveedores comprobar todas las comunicaciones personales de todos los usuarios en cualquier momento”, dijo la eurodiputada Birgit Sippel (S&D, Alemania), ponente de la exención temporal. “En general, eso está afectando profundamente los derechos de todos los usuarios, y la mayoría de ellos no son delincuentes, claramente”.
La privacidad básica del usuario es incompatible con mandatos amplios de escaneo, según Patrick Grady, gerente de políticas de la UE en la Cámara del Progreso. Dijo que la exención temporal original, que tenía mandatos más limitados, era el enfoque correcto.
¿Dónde se encuentra ahora el debate sobre CSAM?
Cuando expiró la exención, las empresas de tecnología acusaron al Parlamento de no proteger a los niños. Sin embargo, empresas como Snapchat, Meta, Google y Microsoft han seguido escaneando a pesar de todo, según una carta conjunta.
Los legisladores dicen que eso es ilegal. “Me siento frustrado por las empresas que dicen que nosotros decidimos qué leyes respetamos y qué leyes queremos ignorar”, dijo Sippel.
Esas mismas empresas ahora están abogando por que las instituciones de la UE aceleren la regulación permanente en lugar de reactivar la extensión rechazada, según Chloe Setter, jefa de política de seguridad infantil de Google en Europa. Según la oficina de prensa del Parlamento, se esperan conversaciones finales a tres bandas a finales de junio.