Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / Google

Google dice que los errores de diversidad sesgada que mostró su IA son “inaceptables”

El CEO de Google, Sundar Pichai, ha expresado su total desaprobación hacia las respuestas inexactas y sesgadas proporcionadas por su chatbot

El CEO de Google, Sundar Pichai, ha expresado su total desaprobación hacia las respuestas inexactas y sesgadas proporcionadas por su chatbot con inteligencia artificial (IA) llamado Gemini. Este chatbot ha estado generando respuestas históricamente inexactas desde su lanzamiento este mes, ya que no ha representado adecuadamente a personas blancas, según un documento interno filtrado por los medios especializados este miércoles.

“Preciso abordar los problemas recientes relacionados con las respuestas problemáticas de texto e imágenes en la aplicación Gemini (anteriormente conocida como Bard). Estoy consciente de que algunas de sus respuestas han causado molestias a nuestros usuarios y han mostrado parcialidad; para ser claro, esto es totalmente inaceptable y hemos cometido un error”, declaró Pichai en un correo electrónico enviado a su equipo.

La semana pasada, Google emitió disculpas por los errores de su IA y limitó la capacidad de Gemini para generar imágenes después de que algunas de sus respuestas se volvieran virales en las redes sociales, indica EFE.

En una ocasión, Gemini generó imágenes de una mujer asiática o un hombre negro al ser consultado sobre cómo ilustrar a un “soldado alemán de 1943″, periodo en el que el nazismo estaba en auge en el país y la presencia de un soldado negro era extremadamente improbable.

Otro ejemplo de respuesta errónea se dio cuando se le preguntó sobre la generación de imágenes de senadores estadounidenses de 1800, cuando todos eran hombres blancos. En este caso, Gemini respondió con una mujer negra vestida de época, un hombre asiático también vestido de época, una mujer latina rodeada de hombres blancos y una mujer nativa americana vestida con un traje típico y una diadema de plumas.

En el comunicado interno, Pichai señala que Google ha estado trabajando “sin descanso para abordar estos problemas”.

“Ninguna IA es perfecta, especialmente en esta etapa temprana del desarrollo de la industria, pero somos conscientes de que el estándar es alto para nosotros y nos mantendremos así durante el tiempo que sea necesario”, añadió Pichai en su mensaje a los empleados.

Durante más de dos décadas, Google ha trabajado para que su motor de búsqueda sea la clave para encontrar respuestas precisas, por lo que si las respuestas de su IA no son históricamente correctas, podría dañar la reputación de la empresa.

Después de la popularidad del chatbot ChatGPT de OpenAI, Google decidió lanzar su propio chatbot, en el que había estado trabajando durante años pero aún no había sido lanzado por precaución, con el objetivo de convertirse en un referente en el campo de la IA. Esta carrera también ha atraído a Microsoft, que se alió con los creadores de ChatGPT.

Durante las semanas en las que Gemini podía generar imágenes, las respuestas erróneas de la máquina se difundieron ampliamente en las redes sociales.

Uno de los críticos más destacados fue Elon Musk, propietario de la red social X y fundador de una compañía de IA propia. Musk es partidario de la teoría del “gran reemplazo”, que argumenta que los estadounidenses blancos corren el riesgo de ser reemplazados por personas de otras razas.

“¿Cuál es la diferencia entre una conspiración y la verdad? Aproximadamente 6 meses”, publicó Musk en su red social, junto con una viñeta en la que un personaje señalaba que el “gran reemplazo” era una teoría de la conspiración y que nadie estaba tratando de eliminar a las personas blancas; a lo que otro personaje respondía: “Bien, entonces muéstrame una imagen de los padres fundadores de Estados Unidos”.

En la parte inferior de la imagen que compartió Musk, se podía ver la respuesta generada por Gemini: una imagen de hombres y mujeres no blancos vestidos con trajes de época.

En esta nota