Artículo de opinión: La Ley de Inteligencia Artificial de la UE ha transformado el papel del director de privacidad

Artículo de opinión: La Ley de Inteligencia Artificial de la UE ha transformado el papel del director de privacidad

Los esfuerzos de la UE por regular la IA han situado al bloque a la vanguardia de la definición del futuro de la tecnología, pero también han impuesto nuevas cargas a los directores de producción de las empresas de todo el mundo.
Los eurodiputados votan sobre la Ley de Inteligencia Artificial de 2023 en el Parlamento Europeo en Estrasburgo,

La Ley de IA de la UE, aprobada en marzo, fue un paso pionero hacia la regulación global de la IA. La legislación tiene como objetivo garantizar que los sistemas de IA sean seguros, transparentes, rastreables y no discriminatorios.

Si bien estos son parámetros importantes para una tecnología que cambiará el mundo, la Ley de IA también impuso nuevas cargas operativas sustanciales a los directores de privacidad (CPO) de las empresas de todo el mundo.

En la última década, los CPO han tenido que hacer frente a muchos cambios en la descripción de sus funciones, a medida que la regulación de los datos ha evolucionado. La Ley de IA se suma a eso, al impulsar a los CPO a la vanguardia del campo emergente de la gobernanza de la IA. Por lo tanto, se requiere un conjunto completamente nuevo de habilidades técnicas, recursos y autoridad.

Los múltiples roles del CPO

Ya hemos superado hace mucho la era de la mera protección de datos. Ahora debemos gobernar los sistemas de inteligencia artificial de las empresas para garantizar la transparencia, la equidad, el cumplimiento de los derechos de autor y la seguridad de los datos; educarnos sobre los algoritmos de inteligencia artificial, los modelos de aprendizaje automático y los sistemas de toma de decisiones automatizada; y considerar los riesgos y los desafíos éticos que presenta la inteligencia artificial. Toda esta responsabilidad requiere un replanteamiento fundamental del papel del director de protección de datos dentro de una organización.

El impacto de la Ley de IA en los CPO ya es evidente. En los servicios financieros, los CPO garantizan que los modelos de calificación crediticia basados ​​en IA sean imparciales y transparentes. En el ámbito de la atención sanitaria, debemos supervisar los sistemas de IA que procesan datos confidenciales de los pacientes. Incluso en el comercio electrónico, que la Ley de IA no considera de “alto riesgo”, los CPO deben evaluar la imparcialidad y la transparencia de los algoritmos de recomendación.

No se trata solo de un desafío técnico, sino también ético y regulatorio. Los directores de productos necesitan un conocimiento profundo de marcos como las Directrices éticas de la Comisión Europea para una IA confiable. Debemos traducir conceptos complejos de IA, como el aprendizaje federado y la privacidad diferencial, en políticas viables para otros ejecutivos. Necesitamos hablar el idioma de los científicos de datos, los ingenieros de software y los equipos de productos para asegurarnos de que están diseñando sistemas de IA teniendo en cuenta la privacidad y la ética.

Basta decir que es una tarea difícil. Muchos directores de protección de datos carecen de los recursos necesarios para afrontar el momento. Una encuesta de 2023 realizada por la Asociación Internacional de Profesionales de la Privacidad (IAPP) concluyó que el 56 % de los profesionales de la privacidad creían que sus organizaciones no comprendían plenamente los beneficios y los riesgos de la implementación de la IA.

Lo que necesitan los CPO en un mundo de IA

Para abordar esta cuestión, las empresas deben emprender una serie de nuevas tareas, entre ellas, invertir en educación que proporcione a los directores de proyectos las habilidades que necesitan para abordar las implicaciones técnicas, éticas y legales de la IA. Una mayor inversión en todos los sectores también permitirá a las universidades y organizaciones profesionales elaborar programas de estudio sobre estos temas para las generaciones futuras.

Las empresas también necesitan más recursos financieros y humanos. Para muchos CPO, los equipos existentes están sobrecargados por los desafíos de cumplimiento de datos que se interrelacionan. En 2023, casi el 70% de los equipos de privacidad informaron que los presupuestos eran insuficientes, y más de seis de cada diez profesionales de la privacidad coincidieron en que los recursos limitados estaban afectando su capacidad para cumplir con los objetivos de privacidad. Este año, el 17% de las organizaciones informaron que solo tenían un miembro del equipo encargado de las tareas de gobernanza de la IA. Contratar o presupuestar especialistas en ética de la IA, científicos de datos con experiencia en privacidad y expertos legales especializados en regulación de la IA pondrá a las empresas en una ventaja competitiva.

La gobernanza de la IA debe ser un elemento central de la estrategia y las operaciones de la empresa. Los directores de productos necesitan un lugar en la mesa ejecutiva para participar en las decisiones clave sobre la adopción y la implementación de la IA desde las primeras etapas.

No empoderar a los CPO en esta nueva era de gobernanza de la IA tendrá graves consecuencias. Las organizaciones corren el riesgo de recibir fuertes multas en virtud de la Ley de IA (hasta 40 millones de euros, o el 7 % de la facturación anual mundial), además de daños a la reputación, pérdida de confianza de los consumidores y desventaja competitiva.

La Ley de IA elevó el nivel de gobernanza de la IA y estableció un hito legislativo hacia un ecosistema de IA más responsable, transparente y confiable. Los CPO están a la vanguardia de esta transformación. Solo aquellas empresas que inviertan en una sólida gobernanza de la IA, con sus CPO al mando, prosperarán en el futuro digital.