Edición México
Suscríbete
Ed. México

El Imparcial / Mundo / ChatGPT

Reguladores actualizan normas antiguas para abordar IA generativas como ChatGPT

La Unión Europea está a la vanguardia de la redacción de nuevas normas sobre IA que podrían establecer la referencia mundial para abordar los problemas de privacidad y seguridad.

ESTADOS UNIDOS.- A medida que se acelera la carrera por desarrollar servicios de inteligencia artificial más potentes, como ChatGPT, algunos reguladores recurren a viejas leyes para controlar una tecnología que podría trastocar el funcionamiento de las empresas y de la sociedad.

La Unión Europea está a la vanguardia de la redacción de nuevas normas sobre IA que podrían establecer la referencia mundial para abordar los problemas de privacidad y seguridad que han surgido con los rápidos avances de la tecnología de IA generativa que hay detrás de ChatGPT de OpenAI.

Sin embargo, la legislación tardará varios años en entrar en vigor.

"A falta de normativa, lo único que pueden hacer los Estados es aplicar las normas existentes", afirma Massimiliano Cimnaghi, experto europeo en gobernanza de datos de la consultora BIP.

"Si se trata de proteger datos personales, aplican las leyes de protección de datos; si es una amenaza para la seguridad de las personas, hay normativas que no se han definido específicamente para la IA, pero siguen siendo aplicables", dijo.

CHATGPT EN EUROPA

En abril, los organismos nacionales de vigilancia de la privacidad de Europa crearon un grupo de trabajo para abordar los problemas con ChatGPT después de que el regulador italiano Garante hiciera que el servicio se desconectara, y acusara a OpenAI de violar el Reglamento General de Protección de Datos de la Unión Europea (GDPR, por sus siglas en inglés), un régimen de privacidad de amplio alcance promulgado en 2018.

ChatGPT fue restablecido después de que la compañía estadounidense aceptara instalar funciones de verificación de edad y permitir que los usuarios europeos bloquearan su información para que no se utilizara con el fin de entrenar el modelo de IA.

Las autoridades de protección de datos de Francia y España también iniciaron en abril investigaciones sobre el cumplimiento de las leyes de privacidad por parte de OpenAI.

CON AYUDA DE EXPERTOS

Los modelos generativos de IA se han hecho famosos por cometer errores o "alucinaciones", cuando arrojan información errónea con asombrosa determinación.

Estos errores pueden tener graves consecuencias. Si un banco o un departamento gubernamental utilizara la IA para acelerar la toma de decisiones, podrían rechazarse injustamente préstamos o prestaciones sociales. Las grandes empresas tecnológicas, como Google, de Alphabet, y Microsoft Corp, han dejado de utilizar productos de IA considerados éticamente delicados, como los productos financieros.

Según seis reguladores y expertos de Estados Unidos y Europa, los reguladores pretenden aplicar las normas existentes, que abarcan desde los derechos de autor y la privacidad de los datos hasta dos cuestiones clave: los datos que se introducen en los modelos y el contenido que producen.

En la UE, las propuestas para la Ley de Inteligencia Artificial del bloque obligarán a empresas como OpenAI a revelar cualquier material protegido por derechos de autor —como libros o fotografías— utilizado para entrenar sus modelos, lo que las dejará expuestas a demandas judiciales.

Según Serguéi Lagodinsky, uno de los políticos que han participado en la redacción de las propuestas de la UE, no será fácil demostrar que se han infringido los derechos de autor.

"Es como leer cientos de novelas antes de escribir la propia", afirma. "Si realmente copias algo y lo publicas, eso es una cosa. Pero si no plagias directamente el material de otro, da igual en qué te hayas basado", dijo.

"PENSAR DE FORMA CREATIVA"

Según Bertrand Pailhès, responsable de tecnología del organismo regulador de datos francés (CNIL), este ha empezado a "pensar de forma creativa" en cómo aplicar la legislación vigente a la IA.

Por ejemplo, en Francia las demandas por discriminación suelen ser tramitadas por el Defensor de los Derechos. Sin embargo, su falta de experiencia en el ámbito de la IA ha llevado a la CNIL a tomar la iniciativa en este asunto, dijo.

En el Reino Unido, la Autoridad de Conducta Financiera es uno de los varios reguladores estatales a los que se ha encargado la elaboración de nuevas directrices sobre IA. Está consultando con el Instituto Alan Turing de Londres, junto con otras instituciones jurídicas y académicas, para mejorar su comprensión de la tecnología, dijo un portavoz a Reuters.

Mientras los reguladores se adaptan al ritmo de los avances tecnológicos, algunas personas del sector han pedido un mayor compromiso con los directivos de las empresas.

Harry Borovick, consejero general de Luminance, una startup que utiliza IA para procesar documentos legales, dijo a Reuters que el diálogo entre los reguladores y las empresas había sido "limitado" hasta ahora.

En esta nota