Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / Ciudad de México

Antropic crea una IA ética y autónoma: Claude, la pionera en tomar decisiones sin interferencia humana

Antropic apuesta por una IA ética y autónoma para determinar lo mejor o peor, con mínima intervención humana y una “constitución” inspirada en Derechos Humanos y normativa ética de Apple.

CIUDAD DE MÉXICO.- Antropic, una empresa formada por antiguos investigadores de OpenAI, está abriendo un camino completamente diferente para la inteligencia artificial, enfocándose en el desarrollo de una IA capaz de determinar qué es mejor o peor mediante la mínima intervención humana. Según el informe de Decrypt, la IA llamada Claude ha sido diseñada con una "constitución" única, una serie de reglas inspiradas en la Declaración Universal de Derechos Humanos, con el objetivo de garantizar una conducta ética en conjunto con una mejor funcionalidad. Además, la IA también se guía por otras normas éticas parecidas a las reglas de Apple para desarrolladores de aplicaciones.

Una IA que aprende con o sin un instructor pero a pasos agigantados:

A pesar de que el término de “constitución” podría ser más metafórico que literal, Claude se guía por un conjunto diferente de consideraciones que alinean su comportamiento con su constitución, desalentando acciones inadecuadas. Jared Kaplan, uno de los fundadores de Anthropic, explicó en una entrevista con Wired que la constitución de Claude "podría interpretarse como un conjunto específico de parámetros de entrenamiento, que cualquier entrenador usa para modelar su IA".

El proceso de entrenamiento de la Anthropic, está descrito en un artículo de investigación llamado "IA constitucional: inofensividad de retroalimentación de IA", en el que se explica una manera de crear una IA útil que, una vez entrenada, puede mejorar por sí misma sin la retroalimentación humana, identificando comportamientos inadecuados y adaptando su propia conducta.

Superior a ChatGPT y Bard al poder tomar decisiones éticas:

Estos avances en inteligencia artificial, están muy por encima de las capacidades de ChatGPT y Bard. El objetivo de Anthropic es lograr que su IA sea lo suficientemente avanzada para tomar decisiones éticas, un punto crucial para el futuro desarrollo de la inteligencia artificial. Con el uso de este enfoque centrado en la ética, el equipo de Anthropic espera que su IA esté mejor preparada para tomar decisiones en un mundo complicado y cambiante, al menos si se considera que el mundo funciona bajo determinados códigos éticos y derechos humanos.

Una IA que puede almacenar más información que cualquiera:

En particular, Claude puede manejar más de 100 mil tokens de información, mucho más que ChatGPT, Bard o cualquier otro modelo de lenguaje grande competente o chatbot de IA actualmente disponible.

En el ámbito de la IA, un token generalmente se refiere a una porción de datos, como una palabra o un carácter, que el modelo procesa como una unidad discreta. La capacidad del token de Claude le permite administrar conversaciones extensas y tareas complejas, lo que lo convierte en una presencia formidable en el panorama de la IA. Para el contexto, podría proporcionar fácilmente un libro completo como mensaje, y sabría qué hacer.

Anthropic busca crear una IA que pueda discernir y tomar decisiones propias:

En conclusión, Anthropic, es una empresa que busca desarrollar una solución de IA completamente diferente, enfocada en la creación de una IA ética que actúe de forma adecuada y que pueda desarrollar un comportamiento ético. Una IA que pueda entender lo que es correcto y incorrecto y pueda tomar decisiones éticas con la mínima intervención humana posible. Su método de entrenamiento y su enfoque ético, son un paso adelante en el desarrollo de la inteligencia artificial.

En esta nota