Cómo planea la UE regular la inteligencia artificial

El impacto que tendrá el uso de la inteligencia artificial en casi todos los ámbitos de la vida es enorme. Si bien existen enormes oportunidades para las empresas comerciales, también existen riesgos para los usuarios. Incluso Sam Altman, el desarrollador del modelo de lenguaje ChatGPT, ha hecho tales advertencias. Algunos científicos incluso sostienen que podría haber una amenaza para los humanos si la inteligencia artificial desarrolla aplicaciones agresivas fuera de nuestro control.

Es por eso que la UE se propuso ser la primera región económica importante del mundo en desarrollar regulaciones integrales para la IA. El objetivo es lograr una IA comprensible, transparente, justa, segura y respetuosa con el medio ambiente, según el proyecto de ley de la Comisión Europea. Pero esto no tiene por qué obstaculizar las oportunidades de desarrollo para las nuevas empresas de IA, dijo el Comisario de Industria de la UE, Thierry Breton, después de que la Comisión, los representantes del Parlamento Europeo y el Consejo de los Estados miembros acordaron la propuesta en lo que se conoce como una reunión de “diálogo tripartito” entre las tres entidades, que debe ahora será aprobado mediante votación en comisión y confirmado por el pleno.

Entonces, ¿qué se regulará?

La UE formuló una definición neutral de inteligencia artificial, independientemente de la tecnología utilizada. Con ello se pretende permitir que la ley se aplique a desarrollos futuros y a las próximas generaciones de IA. Las normas para productos específicos de IA se pueden emitir en forma de simples ordenanzas.

Los productos de IA se dividen en cuatro clases de riesgo: riesgo inaceptable, riesgo alto, IA generativa y riesgo limitado.

Prohibido

Los sistemas que obligan a las personas a cambiar su comportamiento, por ejemplo los juguetes que alientan a los niños a realizar acciones peligrosas, entran en la categoría de inaceptables. Lo mismo ocurre con los sistemas de reconocimiento biométrico controlados remotamente que reconocen rostros en tiempo real. Se prohibirán las aplicaciones de inteligencia artificial que dividan a las personas en clases en función de determinadas características como el género, el color de la piel, el comportamiento social o el origen.

Se harán excepciones para el ejército, los servicios de inteligencia y las autoridades de investigación.

Sólo con aprobación

Los programas de IA que supongan un alto riesgo estarán sujetos a una revisión antes de su aprobación para el mercado para evitar cualquier impacto en los derechos fundamentales. Estas aplicaciones riesgosas incluyen vehículos autónomos, tecnología médica, suministro de energía, aviación y juguetes.

Pero también incluyen la vigilancia de fronteras, el control migratorio, la labor policial, la gestión del personal de las empresas y el registro de datos biométricos en los documentos de identidad.

Los programas destinados a ayudar con la interpretación y aplicación de la ley europea de IA también están clasificados como de alto riesgo y sujetos a regulación.

Transparencia para la IA generativa

Según los legisladores de la UE, los sistemas que generan contenido nuevo y analizan grandes cantidades de datos, como los productos de inteligencia artificial generativa como ChatGPT de OpenAI, filial de Microsoft, representan un riesgo medio.

Las empresas están obligadas a ser transparentes sobre cómo funciona su IA y cómo evita que se genere contenido ilegal. También deben revelar cómo se entrenó la IA y qué datos protegidos por derechos de autor se utilizaron. Todo el contenido generado con ChatGPT, por ejemplo, debe estar etiquetado.

Regulaciones limitadas

Según las nuevas normas de la UE, los programas que manipulan y recrean vídeos, audio o fotografías presentan un riesgo bajo. Esto también incluye los llamados “deep fakes”, que ya son habituales en muchas plataformas de redes sociales. Los programas de servicios que atienden a los clientes también pertenecen a esta clase de riesgo, y solo se deben aplicar reglas mínimas de transparencia.

Simplemente se debe informar a los usuarios que están interactuando con una aplicación de inteligencia artificial y no con humanos. Luego podrán decidir por sí mismos si continúan usando el programa de IA o no.

¿Cuándo entrará en vigor la nueva ley?

Después de tres largos días de negociaciones, las tres principales instituciones de la UE (la Comisión Europea, el Parlamento y el Consejo de Ministros) acordaron un anteproyecto de ley, que aún no contiene todas las disposiciones técnicamente necesarias. Ahora debe ser aprobado formalmente por el Parlamento Europeo y el Consejo, el órgano representativo de los 27 estados miembros, lo que tendrá lugar en abril de 2024, al final del período legislativo del parlamento. Los estados miembros tendrán entonces dos años para transponer la ley de IA a la legislación nacional.

Dados los rápidos avances en inteligencia artificial, existe el riesgo de que las normas de la UE ya estén obsoletas cuando entren en vigor, advirtió el eurodiputado demócrata cristiano alemán Axel Voss incluso antes de que comenzara todo el proceso.

ChatGPT ahora ofrece programas pagos que los usuarios pueden modificar según sus deseos y especificaciones. Según una investigación de la emisora ​​británica BBC, estos “kits de herramientas” pueden, por ejemplo, escribir correos electrónicos fraudulentos para piratas informáticos o personas con intenciones delictivas.

“Necesitamos asegurarnos de que todo lo acordado funcione en la práctica. Las ideas contenidas en la ley de IA sólo serán viables si tenemos seguridad jurídica, estándares armonizados, directrices claras y una aplicación clara”, dijo Voss el viernes en Bruselas. .

¿Cómo ha reaccionado el sector tecnológico?

La Asociación de la Industria de la Computación y las Comunicaciones en Europa (CCIA) advirtió el sábado que la propuesta de compromiso de la UE está “a medias” y podría regular excesivamente muchos aspectos de la IA. “La Ley de IA final carece de la visión y la ambición que las nuevas empresas y empresas tecnológicas europeas están mostrando en este momento. Incluso podría terminar ahuyentando a los campeones europeos que la UE tan desesperadamente quiere potenciar”, dijo a JJCC el director de políticas de la CCIA, Boniface de Champris.

Los defensores de los consumidores del grupo de presión de la Organización Europea de Consumidores (BEUC) también criticaron el proyecto de ley. Su evaluación inicial dijo que la ley es demasiado laxa porque da a las empresas demasiado espacio para la autorregulación sin proporcionar suficientes barreras de seguridad para asistentes virtuales, juguetes o IA generativa como ChatGPT.

¿Cómo se compara ahora la UE con otros países?

Estados Unidos, el Reino Unido y otros 20 países han emitido normas y recomendaciones de protección de datos para los desarrolladores de IA, pero ninguna de ellas es legalmente vinculante, y la expectativa es que las grandes empresas tecnológicas que trabajan en IA se autocontrolen voluntariamente. Un “Instituto de Seguridad” en EE.UU. está destinado a evaluar los riesgos de las aplicaciones de IA, mientras que el presidente Joe Biden ha dado instrucciones a los desarrolladores para que revelen sus pruebas si la seguridad nacional, la salud pública o la protección están en riesgo.

En China, el uso de la IA para clientes privados y empresas está severamente restringido porque el régimen comunista teme que ya no podrá censurar los sistemas de aprendizaje tan fácilmente como censuró Internet. ChatGPT, por ejemplo, no está disponible en China. Sin embargo, el reconocimiento facial ya se utiliza a gran escala por parte del Estado.