Artista dice los peligros de Sora, la nueva IA que convierte texto a video
Sora se suma al éxito de ChatGPT, el chatbot lanzado a finales de 2022, consolidando la posición de OpenAI en la inteligencia artificial generativa.
CALIFORNIA.-La empresa líder en tecnología, OpenAI, respaldada por Microsoft, ha revelado su último software llamado Sora, diseñado para convertir texto en videos de un minuto de duración. Actualmente disponible para equipos de prueba, Sora tiene aplicaciones tanto en la identificación de fallas en sistemas de inteligencia artificial como en el ámbito creativo.
Según la declaración oficial de OpenAI, Sora destaca por su capacidad para generar escenas complejas con múltiples personajes, movimientos específicos y detalles precisos del sujeto y el fondo. Además de la generación de videos, el software puede animar imágenes estáticas, ampliando su versatilidad.
Sora se suma al éxito de ChatGPT, el chatbot lanzado a finales de 2022, consolidando la posición de OpenAI en la inteligencia artificial generativa. Aunque la compañía reconoce que Sora está en desarrollo y puede tener dificultades con detalles espaciales y trayectorias de cámara específicas, se compromete a mejorar con herramientas adicionales para verificar la autenticidad de los videos generados.
Te puede interesar: Los mejores videos creados por Sora, la IA que convierte texto a video
El software plantea preguntas sobre posibles peligros para el mundo, según el artista Jonas Jödicke, quien destaca riesgos como la difusión de noticias falsas, interferencia en elecciones, manipulación de pruebas judiciales, estafas y reemplazo de empleos artísticos. Sin embargo, OpenAI señala que trabaja activamente en mejorar y abordar estos desafíos, destacando su compromiso con la evolución continua en la vanguardia de la inteligencia artificial.
Negative use cases:
— Jonas Jödicke (@JoJoesArt) February 16, 2024
- spreading fake news
- meddling in elections
- non-consensual corn
- faking evidence for court cases
- scamming gullible people
- creating low effort, soulless „content“ for social media
- replacing jobs of artists
Positive use cases:
- umm… none? https://t.co/YIM9BFkcYW
¿Qué peligros tiene Sora?
- Difusión de noticias falsas: Sora podría ser utilizado para generar videos que difundan información falsa, contribuyendo así a la propagación de desinformación y confusión en la sociedad.
- Intervención en elecciones: La capacidad de crear videos realistas podría ser explotada para influir en el proceso político mediante la creación de contenido engañoso destinado a manipular la opinión pública.
- Manipulación de pruebas para casos judiciales: Sora podría utilizarse para fabricar evidencia falsa en casos legales, lo que podría socavar la integridad del sistema judicial.
- Estafas: La capacidad de generar videos convincentes podría ser empleada para engañar a personas crédulas, llevando a cabo estafas y fraudes.
- Creación de contenido sin esfuerzo y sin alma para redes sociales: Sora podría ser empleado para generar grandes cantidades de contenido de baja calidad, lo que podría saturar las redes sociales con material insustancial y carente de autenticidad.
- Reemplazo de empleos artísticos: La capacidad de Sora para animar imágenes estáticas y generar videos creativos podría amenazar los empleos en el campo artístico, sustituyendo a artistas y diseñadores humanos.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos
¿China causará terremoto mundial? Baidu lanzará su modelo de IA Ernie como código abierto, desafiando a OpenAI y DeepSeek
¡Espeluznante! Experto en IA brasilero hace dos programas de TV con público y presentadores mexicanos falsos, superando la realidad
Grok escribió instrucciones detalladas para irrumpir en casa de un usuario y violarlo, después de actualización para ser “menos políticamente correcto”; amenazan con demandar a X, red social de Elon Musk
CEO de X renuncia tras comentarios antisemitas y elogios de Grok, su chatbot, a Hitler