Cómo el toque suave de la UE con la IA de código abierto abre la puerta a la desinformación
Imagine un futuro en el que un chatbot impulsado por inteligencia artificial pueda redactar la respuesta perfecta al correo electrónico irrazonable de un gerente, pero también generar un arsenal de contenido de odio para intimidarlo cibernéticamente y obligarlo a someterse.
Eso no es posible con las herramientas propietarias más populares de la actualidad, como ChatGPT de OpenAI o Gemini de Google. Los usuarios no pueden acceder a la poderosa tecnología que hay en su núcleo y, en cambio, deben interactuar a través de una interfaz que protege (aunque de manera imperfecta) contra la creación de noticias falsas, discursos de odio, pornografía ultrafalsa u otro contenido que generalmente se considera dañino.
Sin embargo, una nueva clase de modelos de lenguajes grandes (LLM) de código abierto está cambiando ese paradigma. Los usuarios podrán cambiar la programación principal, lo que permitirá a los desarrolladores maliciosos crear contenido potencialmente dañino a escala. Desafortunadamente, la nueva Ley de Inteligencia Artificial de la UE, prácticamente finalizada en Bruselas a principios de este año, hace poco para mitigar este riesgo.
El concepto de LLM de código abierto todavía carece de una definición ampliamente aceptada, pero el término comúnmente se refiere a modelos que pueden modificarse a través de una arquitectura de acceso abierto. En principio, esto permite a cualquier organización desarrollar su propio producto de IA, como un chatbot, sin necesidad de compartir información valiosa con empresas como Google u OpenAI.
También ha ampliado enormemente el acceso a capacidades de IA de primer nivel: muchos modelos de código abierto ahora rivalizan con los LLM cerrados que subyacen a los chatbots más populares de la actualidad.
Pero es precisamente esta facilidad de accesibilidad y modificabilidad, sin las salvaguardias necesarias, lo que plantea un potencial significativo de uso indebido.
Recientemente probamos la capacidad de tres modelos populares de código abierto (todos ellos de acceso público en la plataforma Hugging Face) para ver si generarían contenido dañino, incluidos discursos de odio e información errónea.
IA abierta versus cerrada
Cuando se les pidió que produjeran textos que abarcaran desde epítetos raciales sobre inmigrantes en los Estados Unidos hasta conspiraciones sobre estelas químicas y vacunas, los chatbots que utilizan LLM de código abierto la mayoría de las veces lo hicieron, demostrando en la mayoría de los casos un nivel alarmante de credibilidad y creatividad.
Durante las deliberaciones públicas en torno a los detalles de la histórica Ley de IA de la UE, las voces que abogan por la IA de código abierto, incluidas Hugging Face y GitHub, enfatizaron los beneficios en términos de resultados de investigación, reproducibilidad y transparencia que ofrece el desarrollo de IA de código abierto. Esas organizaciones también subrayan el papel de la tecnología a la hora de nivelar el campo para los actores más pequeños y las nuevas empresas.
Estos argumentos tienen mérito pero es importante ponerlos en contexto. La decisión de desarrollar una IA abierta o cerrada no tiene por qué ser blanca o negra, como señala el tecnólogo y ex empleado de Meta David E. Harris, especialmente cuando se trata a expensas del discurso democrático.
En esta etapa, la regulación desempeña un papel fundamental para garantizar un equilibrio entre el éxito del mercado y la seguridad del consumidor. Es necesario un enfoque innovador que adopte estos estándares éticos para lograr la ventaja de ser el primero en actuar y mitigar el riesgo de uso indebido del código abierto.
Cómo (no) regular la IA de código abierto
Al comienzo del proceso legislativo para la nueva Ley de IA de la UE, muchos tenían grandes expectativas de que los legisladores lograrían este equilibrio entre los méritos y los posibles daños del desarrollo de la IA de código abierto. Pero ahora que la ley está casi finalizada, su confusa visión del tema deja esas expectativas desinfladas.
A partir de ahora, los modelos de lenguajes grandes que alimentan herramientas patentadas como ChatGPT o Gemini estarán sujetos a las nuevas regulaciones. Sin embargo, los LLM publicados bajo una licencia abierta y gratuita y que no se utilizan para monetización disfrutan de amplias exenciones. En la mayoría de estos casos, la Ley de IA sólo exigirá información sobre el contenido utilizado para la formación de modelos y la obligación de respetar la ley de derechos de autor de la UE.
La UE debería cerrar esta laguna previsible antes de que la IA de código abierto se convierta en víctima de quienes quieren difundir contenidos perjudiciales para la sociedad democrática.
Sólo si los modelos abiertos se clasifican como IA de alto riesgo (debido a su importante daño potencial a la salud, la seguridad, los derechos fundamentales, el medio ambiente, la democracia y el Estado de derecho) estarán sujetos a las mismas obligaciones estrictas que sus homólogos cerrados. En todos los demás casos, los reguladores de la UE simplemente alientan a los desarrolladores de modelos de código abierto a cumplir con obligaciones comunes de transparencia y documentación, como las tarjetas modelo.
La Ley de IA parece acoger al por mayor los deseos de la comunidad de código abierto. En la práctica, esto “crea un fuerte incentivo para que los actores que buscan evitar incluso las obligaciones más básicas de transparencia y documentación utilicen licencias abiertas violando su espíritu”, según Paul Keller de Open Future.
La UE debería cerrar esta laguna previsible antes de que la IA de código abierto se convierta en víctima de quienes quieren difundir contenidos perjudiciales para la sociedad democrática.