Más de 700 científicos, líderes políticos y figuras del espectáculo firman un llamado mundial para detener el desarrollo de una “superinteligencia artificial”, bajo el argumento de que podría representar enormes riesgos para la humanidad
También participaron figuras del sector tecnológico, como Richard Branson (Virgin) y Steve Wozniak (cofundador de Apple).
PARÍS.— Más de 700 científicos, personalidades políticas y figuras del espectáculo firmaron un llamamiento internacional para que se detenga el desarrollo de una inteligencia artificial (IA) que pueda superar las capacidades humanas, advirtiendo sobre los riesgos que representa para la humanidad.
El pronunciamiento, difundido a través de la página del Future of Life Institute, una organización sin ánimo de lucro con sede en Estados Unidos, insta a frenar la creación de una “superinteligencia” hasta que exista consenso científico sobre cómo desarrollarla de manera controlada y segura, y siempre con el apoyo de la población.
“Hacemos un llamamiento para que se detenga el desarrollo de una superinteligencia, hasta que exista consenso científico para construirla de forma controlada y segura, y mientras no exista el apoyo de la población”, señala el texto de la iniciativa.
Entre los firmantes destacan algunos de los creadores de la inteligencia artificial moderna, como Geoffrey Hinton, Premio Nobel de Física 2024; Stuart Russell, profesor de informática en la Universidad de California en Berkeley, y Yoshua Bengio, profesor de la Universidad de Montreal.
La lista también incluye líderes tecnológicos como Richard Branson, fundador del grupo Virgin, y Steve Wozniak, cofundador de Apple; figuras políticas como Steve Bannon, exasesor de Donald Trump, y Susan Rice, exconsejera de Seguridad Nacional bajo el mandato de Barack Obama. Asimismo, firmaron referentes religiosos como Paolo Benanti, asesor del Papa y principal experto del Vaticano en IA, y personalidades del entretenimiento como el cantante will.i.am.
Riesgos y falta de regulación
El Future of Life Institute advierte que las principales empresas tecnológicas están compitiendo para alcanzar la inteligencia artificial general (IAG) —una etapa en la que la IA igualaría las capacidades intelectuales humanas—, y posteriormente una superinteligencia que superaría a la mente humana.
De acuerdo con Sam Altman, director general de OpenAI (creadora de ChatGPT), el umbral de la superinteligencia podría alcanzarse en un plazo de cinco años, según declaraciones ofrecidas en septiembre pasado.
Sin embargo, Max Tegmark, presidente del Future of Life Institute, considera que este objetivo es “inaceptable” en las condiciones actuales.
“Da igual que sea dentro de dos o 15 años, construir algo así es inaceptable. Las empresas no deberían trabajar en este tipo de proyectos sin ningún marco regulatorio”, declaró a la agencia AFP.
Tegmark subrayó que es posible estar a favor del desarrollo de herramientas de IA más potentes para fines médicos o científicos, “por ejemplo, para curar el cáncer”, y al mismo tiempo rechazar la creación de una superinteligencia.
También te puede interesar: A partir del 2026, General Motors (GM) anuncia autos con Inteligencia Artificial y para 2028 contarán con conducción totalmente autónoma
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí