Premios Nobel y científicos exigen institución global para regular la IA

Personalidades buscan establecer límites claros a la inteligencia artificial antes de las reuniones de la ONU en Nueva York

La inteligencia artificial está detrás del 14,2% de casos de acoso digital escolar

Las universidades andaluzas apuestan por la IA
Las universidades andaluzas apuestan por la IA
M. H.

22 de septiembre 2025 - 20:45

Más de 200 personalidades y 70 organizaciones, entre Premios Nobel, científicos y expertos en inteligencia artificial (IA), solicitaron este lunes la creación urgente de una institución internacional que establezca límites claros a los riesgos derivados de esta tecnología. Esta petición se produce justo antes del inicio de las reuniones de alto nivel de la Asamblea General de Naciones Unidas que tendrá lugar en Nueva York esta semana.

La iniciativa, presentada hoy, insta a los gobiernos de todo el mundo a establecer un acuerdo internacional vinculante sobre las "líneas rojas" que la inteligencia artificial nunca debería traspasar. El objetivo es prevenir riesgos potencialmente irreversibles antes de que ocurran, no simplemente castigar infracciones después de incidentes graves.

"El llamamiento global para establecer límites en la IA acaba de ser anunciado por Maria Ressa, premio Nobel de la Paz, en la reunión de alto nivel de la ONU que conmemora el 80º aniversario de la organización. Instamos a los gobiernos de todo el mundo a alcanzar un acuerdo internacional crucial sobre los límites que la IA nunca debe cruzar", explicó Charbel Segerie, director ejecutivo del Centro Francés para la Seguridad de la IA, durante una rueda de prensa virtual.

Los requisitos

La coalición propone que se exija a las empresas desarrolladoras demostrar la seguridad de sus sistemas de IA como requisito previo para acceder al mercado, siguiendo un modelo similar al utilizado en la industria farmacéutica o nuclear. Esta medida resulta especialmente relevante en un momento en que gigantes tecnológicos como Meta, Google u OpenAI invierten cantidades astronómicas para desarrollar la denominada "superinteligencia" o inteligencia artificial general (IAG).

Stuart Russell, profesor de la Universidad de Berkeley y director del Centro para la IA Compatible con los Humanos, advirtió sobre los peligros inherentes: "El comportamiento humano está diseñado para alcanzar objetivos: persuadir, impresionar, sobrevivir, seducir, vender, etc. Inevitablemente, los sistemas de IA adquieren y persiguen estos objetivos por cuenta propia. Esta es una consecuencia inevitable de su desarrollo. Son intrínsecamente inseguros".

Lo más preocupante, según Russell, es que los desarrolladores reconocen no tener planes para controlar adecuadamente estos sistemas, mientras que los gobiernos tampoco están implementando medidas para obligarles a hacerlo. Aunque el experto evitó ser alarmista, señaló que existe una probabilidad "significativa" de que se produzca una catástrofe comparable al accidente nuclear de Chernóbil.

Escenarios futuros

Russell reveló conversaciones preocupantes con personas de la industria: "Un director ejecutivo me dijo recientemente que un evento de la escala de Chernóbil es el mejor escenario posible, y un investigador sénior de OpenAI me comentó que cree que la probabilidad de extinción (humana debido a las IA) es ahora del 60%". El experto describió tres posibles escenarios: desde un sabotaje coordinado de sistemas críticos, pasando por una pérdida irreversible del control humano, hasta la improbable opción de que no ocurra ningún problema grave.

Hacia una regulación global efectiva

Niki Iliadis, directora de Gobernanza Global de IA en The Future Society, destacó que aunque ya se han dado "primeros pasos importantes", como el código de prácticas de la Unión Europea, ahora es fundamental hacer estas regulaciones "globales y aplicables" mediante la creación de una institución internacional específica. Esta entidad tendría la responsabilidad de definir límites globales para la IA, supervisar su cumplimiento e intervenir cuando dichos límites sean traspasados.

stats