La cumbre de IA en el Reino Unido busca un consenso global sobre la mitigación del riesgo

El miércoles comenzó en el Reino Unido una cumbre sobre inteligencia artificial de dos días de duración, cuando más de 50 países firmaron un acuerdo para trabajar juntos en las amenazas potenciales que plantea la tecnología en rápida evolución.

El acuerdo se centró en identificar los riesgos de preocupación compartida que plantea la IA, desarrollar una comprensión científica de los riesgos y desarrollar políticas transnacionales de mitigación de riesgos.

La cumbre pidió un “nuevo esfuerzo global conjunto para garantizar que la IA se desarrolle y despliegue de manera segura y responsable en beneficio de la comunidad global”.

Se lleva a cabo en Bletchley Park, donde los principales descifradores de códigos británicos descifraron el código “Enigma” de la Alemania nazi durante la Segunda Guerra Mundial. El acuerdo conjunto se denomina “Declaración Bletchley”.

El primer ministro británico, Rishi Sunak, inauguró la cumbre. Está previsto que el próximo año se celebren cumbres de seguimiento sobre IA en Corea del Sur y Francia.

Wu Zhaohui, viceministro de ciencia y tecnología de China, dijo en la sesión inaugural que Beijing estaba dispuesto a aumentar la colaboración en materia de seguridad de la IA para ayudar a construir un “marco de gobernanza” internacional.

Líderes tecnológicos elogian la cumbre de IA

Si bien el potencial de la IA genera muchas esperanzas, particularmente para la medicina, su desarrollo se considera en gran medida descontrolado.

Algunos expertos en tecnología y líderes políticos han advertido que el desarrollo acelerado de la IA representa una amenaza existencial para el mundo si no se regula.

Entre los asistentes tecnológicos se encontraban Sam Altman, director ejecutivo de OpenAI, la empresa detrás de ChatGPT, y Elon Musk, director ejecutivo de Tesla y propietario de la empresa de redes sociales X, anteriormente Twitter, quien describió el evento como “oportuno”.

“Lo que realmente buscamos aquí es establecer un marco de conocimiento para que haya al menos un árbitro externo, un árbitro independiente, que pueda observar lo que están haciendo las principales empresas de IA y al menos hacer sonar la alarma si tienen dudas. “, dijo Musk a los periodistas.

“Es uno de los riesgos existenciales que enfrentamos y es potencialmente el más apremiante si nos fijamos en el calendario y el ritmo de avance: la cumbre es oportuna y aplaudo al primer ministro por celebrarla”, dijo.

Estados Unidos busca liderazgo político

La secretaria de Comercio de Estados Unidos, Gina Raimondo, anunció el miércoles que Estados Unidos pondrá en marcha un instituto de seguridad de IA para evaluar los riesgos conocidos y emergentes de los llamados modelos de IA “de frontera”.

“Es casi seguro que invitaré a muchos de ustedes en la audiencia que están en la academia y la industria a ser parte de este consorcio”, dijo en un discurso en la Cumbre de Seguridad de la IA en Gran Bretaña. “No podemos hacerlo solos, el sector privado debe dar un paso al frente”.

Raimondo añadió que también se comprometería con el instituto estadounidense a establecer una asociación formal con el Instituto de Seguridad del Reino Unido.

Está previsto que la vicepresidenta de Estados Unidos, Kamala Harris, asista al segundo día del evento, pero causó cierta sorpresa entre los funcionarios del Reino Unido al pronunciar un discurso sobre IA en la embajada de Estados Unidos en Londres el miércoles y mantener algunas reuniones con los asistentes a la cumbre, lo que provocó que se marcharan. temprano. Su discurso sólo hizo una referencia pasajera al evento de Bletchley Park.

“No es necesariamente algo malo que Estados Unidos haya anunciado un bombardeo político para coincidir con la cumbre”, dijo una fuente del departamento de tecnología de Gran Bretaña a la agencia de noticias Reuters. “Por supuesto, preferiríamos que los invitados no se fueran temprano”.

El lunes, el presidente de Estados Unidos, Joe Biden, firmó una orden ejecutiva sobre inteligencia artificial que exige a los desarrolladores de sistemas de inteligencia artificial que representen riesgos para la seguridad nacional, la economía, la salud pública o la seguridad de Estados Unidos, que compartan los resultados de las pruebas de seguridad con el gobierno de Estados Unidos, en línea con el Departamento de Defensa. Ley de Producción.

El Reino Unido aprovechó el evento para anunciar su plan para invertir 300 millones de libras (364 millones de dólares) en supercomputación de IA, aumentando la financiación de los 100 millones de libras previamente anunciados.

mds/wmr (Reuters, AFP, AP)