Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / ChatGPT

Creador de ChatGPT teme por el uso que le den a la IA

Microsoft que ha optado por eliminar su departamento de ética relacionado con la IA.

La inteligencia artificial (IA) es una de las tecnologías más fascinantes y revolucionarias de nuestro tiempo y con el paso del tiempo, ha ido ganando terreno en diferentes sectores, y ha generado debates sobre su capacidad para reemplazar a los humanos en el trabajo o el buen o mal uso que hagan con los avances.

Este 2023 fue punta de lanza la IA con el famoso GPT-4, y sobre todo el acercamiento a los usuarios más básicos con muchas utilidades. Y aunque parece que todo es positivo alrededor de la IA, el propio CEO de OpenAI (compañía desarrolladora de ChatGPT), Sam Altman, está mostrando su preocupación por los riesgos de esta tecnología tan avanzada.

Altman ha manifestado que se debe estar preparado por los las consecuencias negativas que puede acarrear la inteligencia artificial, siendo este mensaje algo que podrÍa detonar alertas ya que quien lo está exponiendo es una persona que se encuentra dentro de la IA quien está haciendo dinero con ella, tal parece que su ética va por delante.


Actualmente todos usamos estas IA para que nos hagan problemas matemáticos difíciles, nos generen textos e incluso nos hagan presentaciones con PowerPoint gracias a Copilot en Microsoft 365. Pero con el paso del tiempo se puede utilizar con fines ilícitos, como ya hemos visto a la hora de crear correos electrónicos con tal de conseguir contraseñas.

"Estoy particularmente preocupado de que estos modelos puedan usarse para la desinformación a gran escala. Ahora que están mejorando en la escritura de código de computadora, [ellos] podrían usarse para ataques cibernéticos ofensivos. Creo que la gente debería estar feliz de que estemos un poco asustados por esto", explica Sam Altman.



Estas declaraciones las realizó tras el lanzamiento de GPT-4 que ha supuesto un gran avance en lo que se refiere a comprensión de las entradas y también las respuestas que genera. Si se observa un texto que se ha generado con este modelo de IA, se puede llegar a pensar que ha sido generado por un ser humano de verdad e incluso suplantando a alguna gran compañía. Pero creemos que la frase “creo que la gente deberá estar feliz de que estemos unos pocos asustados” hace ver que de verdad quieren buscar una regulación para evitar grandes problemas que ya tienen en mente, publica el portal Genbeta.


Ante esto se ha reafirmado en que todo va a depender de los humanos que haya detrás de esta IA, y que no todas las empresas van a poder poner límites como si lo hace ChatGPT a esta generación de texto. Y es que son muchas las empresas que están optando por ir con libertad, como Microsoft que ha optado por eliminar su departamento de ética relacionado con la IA, siendo una muy mala noticia para esta regulación.

Además, también hace un llamamiento sobre el problema de las alucinaciones de la IA. Este efecto es realmente interesante, ya que puede provocar que la IA afirme algunos hechos que son totalmente falsos dando lugar a respuestas extrañas. En concreto lo explica de la siguiente manera:

"Lo que más trato de advertir a la gente es lo que llamamos el 'problema de las alucinaciones',el modelo afirma las cosas con confianza como si fueran hechos completamente inventados. La forma correcta de pensar en los modelos que creamos es un motor de razonamiento, no una base de datos de hechos".

En esta nota