Un urgente llamado a regular la inteligencia artificial a nivel mundial
Más de 200 líderes mundiales, científicos y expertos en IA han unido fuerzas para exigir un acuerdo internacional que defina límites claros o «líneas rojas» que la inteligencia artificial (IA) nunca debe cruzar, como prohibir la capacidad de autogeneración o suplantación de identidad humana por parte de sistemas de IA.
Este colectivo, respaldado por más de 70 organizaciones dedicadas a la seguridad en IA, lanzó la iniciativa Global Call for AI Red Lines, que busca un compromiso político global para lograr estas regulaciones antes de finales de 2026.
Principales firmantes y objetivos
Entre los firmantes destacan personalidades como Geoffrey Hinton, premio Nobel y pionero en IA; Wojciech Zaremba, cofundador de OpenAI; Jason Clinton, CISO de Anthropic; e Ian Goodfellow de Google DeepMind. La meta es no esperar a un incidente catastrófico para actuar, sino prevenir riesgos irreversibles desde ahora.
Charbel-Raphaël Segerie, director ejecutivo del Centro Francés para la Seguridad en IA (CeSIA), enfatiza que, aunque aún no existe consenso global sobre el futuro de la IA, debería haber acuerdo unánime sobre las acciones que la IA nunca debe realizar.
Contexto y desafíos actuales
Si bien existen regulaciones regionales, como la Ley de IA de la Unión Europea que prohibe ciertos usos descritos como «inaceptables», o acuerdos bilaterales entre EE.UU. y China para mantener el control humano sobre armas nucleares, no hay un marco legal global integral.
Niki Iliadis, directora de gobernanza global en AI de The Future Society, señala que las políticas internas de empresas de IA se quedan cortas y que es imprescindible crear una entidad independiente con autoridad para definir, supervisar y hacer cumplir estas líneas rojas.
La seguridad y la innovación pueden coexistir
El reconocido investigador Stuart Russell, de la Universidad de California en Berkeley, argumenta que la regulación no obstaculiza el desarrollo económico ni la innovación. Señala que la industria de IA debe asegurarse de construir sistemas seguros desde su origen, similar a cómo la energía nuclear fue desarrollada con estrictos controles de seguridad para evitar accidentes.
Russell enfatiza que se puede promover la IA para beneficio económico sin comprometer la seguridad ni aceptar riesgos de IA general o superinteligente incontrolable, desmintiendo la falsa dicotomía entre progreso y peligro.
Perspectivas internacionales y próximos pasos
Este llamado global llega justo antes de la asamblea general número 80 de las Naciones Unidas, donde se espera que la iniciativa, impulsada por CeSIA, The Future Society y el Centro para IA Compatible con Humanos de UC Berkeley, adquiera mayor visibilidad y apoyo político.
Además, figuras como Maria Ressa, Nobel de la Paz, han destacado la iniciativa en foros internacionales, exhortando a poner fin a la impunidad de las grandes tecnológicas mediante mecanismos globales de rendición de cuentas.
Para conocer más sobre regulaciones en IA y avances en inteligencia artificial, consulte noticias especializadas y artículos científicos que profundizan en la materia.
Deja una respuesta