Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / Inteligencia Artificial

Exjefe de seguridad de Google alerta de los peligros de la IA y la generación de noticias falsas

Exjefe de seguridad de Google alerta sobre los riesgos de la IA en la generación de noticias falsas, y destaca la importancia de garantizar estándares de calidad editorial para mantener la confianza de los lectores.

Exjefe de seguridad de Google alerta de los peligros de la IA y la generación de noticias falsas

MÉXICO.- Experto en seguridad informática de Google advierte sobre los peligros de las "fake news" generadas por la inteligencia artificial en medios de comunicación: "Es crucial que se indique claramente cuando el contenido ha sido generado por IA para preservar la confianza del consumidor".

Advierte exjefe de Google sobre los riesgos de las fake news por IAS:

El exjefe de departamento de seguridad de Google, Arjun Narayan, ha advertido sobre los riesgos asociados al “boom” de la inteligencia artificial (IA) en los medios de comunicación y la difusión de noticias falsas o “fake news”. En una entrevista con Gizmodo, Narayan explicó la complejidad del momento actual y cómo las organizaciones de noticias deben abordar el contenido de IA de manera que genere y nutra la confianza de los lectores. ChatGPT y Bard, dos chatbots que se han utilizado para generar noticias, han demostrado ser inexactas y poco precisas. Por ejemplo, Bard aún no sabe que Elon Musk ha comprado Twitter.

Señala que es peligroso por las fallas en probabilidades y que puede tener errores:

Narayan explicó que ChatGPT se basa en un modelo que responde según probabilidades, lo que significa que puede haber errores en las respuestas que da. Si esto se utiliza para escribir noticias, hay un gran problema. Es importante indicar, ya sea en una línea de autor o en una divulgación, que el contenido fue generado total o parcialmente por IA. Narayan dijo que no hay nada de malo en que la IA genere un artículo, siempre y cuando cumpla con su estándar de calidad o estándar editorial.

Destaca la importancia en inversión en seguridad y en mitigar riesgos:

En general, Narayan cree que la sociedad y el mundo libre están en riesgo si no se mitigan los peligros de la IA en los medios de comunicación y la difusión de noticias falsas. Él cree que se necesita más inversión en confianza y seguridad, así como más personas que estén pensando en cómo mitigar estos riesgos. La distinción entre historias escritas por humanos y aquellas generadas por IA está desvaneciéndose y es importante ser transparentes con el público sobre el origen del contenido de las noticias.

En resumen, Narayan ha señalado los peligros de la IA en los medios de comunicación y ha enfatizado la necesidad de transparencia y confianza para mantener la calidad de las noticias y la integridad de la sociedad.

“Personalmente, creo que no hay nada de malo en que la IA genere un artículo, pero es importante ser transparente para el usuario de que este contenido fue generado por IA. Es importante para nosotros indicar, ya sea en una línea de autor o en una divulgación, que el contenido fue generado total o parcialmente por IA. Siempre y cuando cumpla con su estándar de calidad o estándar editorial, ¿por qué no?”, añade.

Con información de “fayerwayer”.

Temas relacionados