Op-Ed: Abandonar la Directiva de responsabilidad de AI trae riesgos inaceptables

Op-Ed: Abandonar la Directiva de responsabilidad de AI trae riesgos inaceptables

El movimiento de la Comisión Europea hacia la llamada simplificación dañará tanto la competitividad como la seguridad del consumidor en la UE.
Los eurodiputados discuten la Directiva de responsabilidad de IA en una audiencia en el Comité Juri. (Unión Europea 2025 – Fuente: Parlamento Europeo)

La necesidad de Europa de cortar la burocracia no es ningún secreto. Aparece en todos mis compromisos frecuentes con negocios, ya sean nuevas empresas, escamas o empresas establecidas. La Comisión Europea se ha comprometido a entregar. Comparto completamente el objetivo, pero dudo cada vez más los medios.

La Directiva de Responsabilidad de AI (AILD), que la Comisión Europea ha decidido abandonar, es un buen ejemplo. Los proponentes de este paso, incluida Henna Virkkunen, el Comisionado responsable de la soberanía tecnológica, la seguridad y la democracia, han argumentado que las reglas de responsabilidad adicionales podrían sofocar la innovación y la inversión en Europa. Pero al eliminar la directiva, la Comisión logrará lo que quiere evitar: dejar a las empresas sin pautas legales claras reducirá sus incentivos para invertir.

Incertidumbre legal: una barrera para la innovación de IA en la UE

Los inversores en Europa ya son conocidos por su aversión al riesgo. Con las tecnologías de IA cada vez más interactuando con los mundos reales y virtuales, los riesgos se están multiplicando, y la decisión de la Comisión agrega opacidad legal y fragmentación a la mezcla.

Las cadenas de responsabilidad siguen sin estar claras. ¿Quién es responsable cuando los riesgos se materializan inevitablemente: aquellos que desarrollan, se despliegan, venden o diseñan? ¿Y qué pasa si comparten responsabilidades entre sí? No necesita ver a Netflix para saber que el espejo en el que estamos buscando respuestas no solo es negro, sino que se divide en 27 piezas.

Actualmente, las empresas que se ocupan de las tecnologías impulsadas por la IA tienen poca idea de cuán innovador podría ser el juez que enfrenta ellas, ni cuál de los 27 marcos legales los enfrentará.

El papel de Aild en el libro de reglas digital de Europa

Algunos opositores de la Directiva dicen que no hay necesidad de una mayor regulación ya que la Ley de IA y la Directiva de Responsabilidad del Nuevo Producto (PLD) cubren el mismo terreno. Esto es incorrecto, mal informado o manipulador, dependiendo de cuánto beneficio de la duda que queremos otorgar a los críticos.

Ni la Ley AI ni el PLD revisado son sustitutos de la AILD. La diferencia es muy clara: la Ley de IA se ocupa de la gestión preventiva de riesgos, diciéndole a los jugadores de IA lo que deben hacer para evitar daños. No aborda quién es responsable después de que se haya producido daño.

Mientras tanto, la Directiva de responsabilidad del producto cubre los daños después de un incidente, pero esos son daños diferentes que los abordados por el AILD. Las diferencias entre la responsabilidad del producto (PLD) y la responsabilidad del productor (AILD) son ampliamente conocidas por cualquier estudiante de derecho, y deberían ser conocidos por la Comisión.

Sin AILD, la IA corre el riesgo de socavar la confianza y la seguridad

Los daños de IA a menudo van más allá de los defectos del producto. ¿Qué pasa si AI causa daños en un contexto profesional en herramientas profesionales? ¿Qué pasa si el daño no se deriva de un defecto de fabricación, sino de una falla para instruir adecuadamente a los usuarios? ¿Qué pasa si la lesión surge de un comportamiento de IA “pícaro” no arraigado en la falla técnica sino en la mala gestión del despliegue?

También hay una clase creciente de casos de uso en los que los programadores usan AI generativos de cualquier defecto aparente para codificar aplicaciones que incluyen algunos elementos de IA. ¿Qué pasa si tales aplicaciones usadas en privado y fabricadas en privado crean daños a terceros? Ignorar estos escenarios no es solo un punto ciego legal, es una responsabilidad política. ¿Tenemos una “Directiva de responsabilidad política” y cubriría omisiones equivocadas de los planes de trabajo de la Comisión? La respuesta es no.

La comisión debe saber mejor. Al negarse a adoptar reglas de responsabilidad armonizada de IA, deja a las empresas expuestas a un mosaico de estándares nacionales e interpretaciones conflictivas, precisamente cuando estamos tratando de acelerar la absorción de IA en todo el continente.

En lugar de claridad, obtenemos una ruleta legal. En este caso, la armonización no significa una sobre regulación; Significa reglas inteligentes, específicas y basadas en hechos que brindan a los innovadores y a los consumidores certeza legal.

La opacidad, la aparente autonomía y la imprevisibilidad para los usuarios hacen que la responsabilidad sea difícil de identificar. El AILD tenía como objetivo cerrar estas brechas a través de herramientas razonables y modernas como las tareas de divulgación y las presunciones de fallas refutables, medidas diseñadas para los riesgos únicos de la IA.

Los vagos sugerencias de la comisión sobre los “enfoques legales futuros” ofrecen poco comodidad. Las empresas necesitan certeza legal ahora, no promesas abiertas para el futuro.

En el corazón del debate hay una pregunta más importante: ¿realmente queremos un mercado único digital en Europa que vaya más allá de la charla inactiva? Si la respuesta es sí, la armonización es esencial y debe estar enraizada de hecho. Sin ella, obtenemos más fragmentación, no previsibilidad; Más confusión, no claridad. Con su último retiro, la comisión no está simplificando: se está rendiendo.

Registrarse en El parlamento boletín semanal

Todos los viernes, nuestro equipo editorial va detrás de los titulares para ofrecer información y análisis sobre las historias clave que impulsan la agenda de la UE. Suscríbete gratis aquí.