“No quiero estar en el Titanic de la IA”: Investigador de OpenAI renunció a la compañía por esta inquietante razón
¿Está OpenAI sacrificando la seguridad por la innovación? Un exinvestigador comparte su inquietante visión y compara la situación con el Titanic
William Saunders, un exinvestigador de OpenAI, ha decidido abandonar la compañía tras descubrir lo que él considera una preocupante verdad sobre el rumbo de la empresa. En una entrevista recopilada por Futurism, Saunders comparó la situación en OpenAI con el trágico hundimiento del Titanic, lo que ha avivado el debate sobre la seguridad en el desarrollo de inteligencia artificial (IA).
Razón de la renuncia
Saunders, quien fue miembro del equipo de Superalignment de OpenAI, explicó su decisión de renunciar diciendo: “No quería terminar trabajando para el Titanic de la IA, y por eso renuncié”.
En el podcast del YouTuber Alex Kantrowitz, Saunders afirmó que durante su tiempo en OpenAI, se preguntaba constantemente si el camino que seguía la empresa era más parecido al programa Apolo de la NASA o al Titanic. “El Titanic puede haber sido llamado ‘insumergible’, pero al mismo tiempo no había suficientes botes salvavidas para todos, y cuando ocurrió el desastre, mucha gente murió”, agregó Saunders.
Críticas a la gestión de seguridad
Saunders criticó la gestión de seguridad en OpenAI, acusando a la empresa de priorizar la innovación de productos sobre la seguridad. Según él, OpenAI estaba enfocada en sacar nuevos productos llamativos sin considerar adecuadamente los riesgos. Esta crítica se alinea con las preocupaciones de otros exempleados que han señalado que la dirección de OpenAI ha minimizado la supervisión y ha desestimado los riesgos asociados con el desarrollo de inteligencia artificial avanzada.
Cambios en la estructura de OpenAI
En un movimiento significativo, el CEO de OpenAI, Sam Altman, disolvió el equipo de Superalignment, al que pertenecía Saunders, y asumió el control directo de la seguridad de la empresa. OpenAI anunció la creación de un nuevo “comité de seguridad y protección” en sustitución del equipo disuelto. Esta decisión ha generado dudas sobre el compromiso continuo de la empresa con la seguridad en la inteligencia artificial.
Ilya Sutskever, excientífico jefe de OpenAI y líder del equipo disuelto, ha lanzado una nueva empresa llamada Safe Superintelligence Inc. Sutskever ha prometido que esta nueva compañía se centrará en un único objetivo: desarrollar inteligencia artificial segura.
Saunders expresó su deseo de que OpenAI operara con el mismo enfoque de seguridad y redundancia que el programa Apolo de la NASA. “Incluso cuando ocurrieron grandes problemas, como en el Apolo 13, tenían suficiente redundancia y pudieron adaptarse para traer a todos de vuelta con seguridad”, comentó. Aunque reconoció que desarrollar inteligencia artificial general (AGI) implica riesgos inevitables, Saunders abogó por que la empresa tomara todas las medidas razonables para mitigar estos riesgos.
Aunque el desarrollo de la AGI sigue siendo una idea teórica y distante, las preocupaciones de Saunders resaltan la importancia de abordar la seguridad en la investigación tecnológica avanzada. La inquietud de Saunders refleja un debate más amplio sobre el equilibrio entre innovación y precaución en la tecnología de IA.
La situación en OpenAI y los cambios en su estructura de seguridad continúan siendo temas de debate, y la preocupación por los riesgos asociados con la IA sigue siendo relevante mientras la tecnología avanza.
Te puede interesar: ¿Qué tanto afecta al planeta la inteligencia artificial? El precio que hará que te preguntes si vale la pena usarla
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos
5 maneras en las que el mundo se transformó al viajar tras los ataques del 11-S a las Torres Gemelas
¿Qué dice el círculo azul de WhatsApp (IA) al invocar a Beetlejuice?
Científicos descubren la verdadera causa de la “Señal WOW!”, atribuida a extraterrestres
Científicos logran fabricar ladrillos con arena de Marte y Luna