*

Más de 1,500 expertos, incluidos Geoffrey Hinton y Yoshua Bengio, advierten sobre los riesgos de la inteligencia artificial superinteligente; sin regulaciones, la IA podría acabar con derechos, libertades e incluso la supervivencia humana

Un grupo de más de 1,500 científicos, líderes tecnológicos, académicos y figuras públicas lanzó un llamado claro: detener el desarrollo de la inteligencia artificial superinteligente —también conocida como IA general— hasta que existan pruebas sólidas de que sus beneficios superan sus riesgos.

La carta está encabezada por Geoffrey Hinton, Premio Nobel de Física 2024 y considerado “el padrino de la IA moderna”, y Yoshua Bengio, científico más citado del mundo y profesor en la Universidad de Montreal. Ambos son referentes en el campo de la inteligencia artificial. A ellos se suman Steve Wozniak, cofundador de Apple, Richard Branson, fundador de Virgin Group, y figuras políticas y militares de alto rango, como Susan Rice y Mike Mullen, además de comunicadores y personalidades públicas como Yuval Noah Harari, Will.i.am y los duques de Sussex, Harry y Meghan Markle.

El documento reconoce que la IA tiene un potencial enorme para generar avances en ciencia, medicina y tecnología, pero advierte que su desarrollo sin salvaguardas adecuadas podría convertirse en un riesgo sin precedentes, incluso para la supervivencia humana. “Muchas empresas líderes en IA buscan crear superinteligencia en la próxima década, capaz de superar a los humanos en prácticamente todas las tareas cognitivas. Esto plantea riesgos desde la pérdida de derechos y libertades hasta amenazas directas a la seguridad global”, señala la carta.

“Cuando los investigadores advierten sobre la extinción y los líderes tecnológicos construyen búnkeres catastróficos, la prudencia exige que escuchemos”, señala Mark Beall, exdirector de Estrategia y Política de IA del Departamento de Defensa de Estados Unidos y firmante del comunicado.

El llamado llega en un momento de acelerado desarrollo de la IA. Según expertos de la industria, la superinteligencia podría superar al intelecto humano en pocos años: Elon Musk prevé avances entre finales de 2025 y principios de 2026, Demis Hassabis de DeepMind habla de 2030, y Jensen Huang de Nvidia estima grandes saltos en cinco años.

La carta también refleja la preocupación de la ciudadanía. Una encuesta reciente en Estados Unidos mostró que solo el 5% aprueba el desarrollo rápido y sin regulación de la IA, mientras que el 64% cree que la IA sobrehumana no debería desarrollarse hasta garantizar su seguridad, y el 73% respalda regulaciones estrictas para estos sistemas avanzados.

Bengio subraya que “para avanzar con seguridad hacia la superinteligencia, debemos diseñar sistemas de IA que sean incapaces de dañar a las personas, ya sea por errores o uso malicioso. Además, la ciudadanía debe tener una participación real en las decisiones que definirán nuestro futuro colectivo”.

Stuart Russell, profesor en Berkeley y firmante, concluye: “No pedimos una prohibición permanente, sino medidas de seguridad reales para una tecnología que, según sus propios creadores, podría amenazar la supervivencia humana. ¿Es demasiado pedir?”.

La iniciativa fue promovida por el Future of Life Institute, una organización sin fines de lucro que analiza desde hace más de una década los riesgos de la IA y busca orientar su desarrollo para beneficio de la humanidad.


También en Pijama Surf: Protección de datos personales NO importa en México: investigación revela vulnerablidad satelital


Imagen de portada: Zábala Innovation