Edición México
Suscríbete
Ed. México

El Imparcial / Tecnología / Snapchat

A Snapchat no le ha ido nada bien con su inteligencia artificial que se basa en ChatGPT: ¿Qué ha pasado?

El chatbot también ha generado problemas de privacidad ya que denuncian que recolecta datos de ubicación, incluso si el usuario no comparte la ubicación en el llamado Snap Map. 

NUEVA YORK.-Snapchat, la popular red social, lanzó en febrero pasado su chatbot conversacional personalizable llamado 'My AI'. Sin embargo, la semana pasada, la empresa decidió poner esta opción globalmente después de que estuviera inicialmente disponible solo para usuarios de pago. Ahora, las primeras opiniones de los usuarios que han utilizado este chatbot no parecen ser muy positivas.

A pesar de que 'My AI' está basado en ChatGPT, lo que sugiere que debería funcionar correctamente, los usuarios están reportando problemas. Los usuarios pueden hacer preguntas y obtener respuestas rápidas, pero en lugar de mejorar la aplicación, los comentarios parecen ser muy negativos. En la App Store de Estados Unidos, la media de puntuación de Snapchat la semana pasada fue de un 1,67 sobre 5, y el 75% de las valoraciones fueron de tan solo una estrella, según reporta el medio Xataka.

A diferencia del primer trimestre de 2023, cuando la puntuación media de Snapchat era de 3,05 y solo el 35% de las valoraciones eran de una estrella, el número de opiniones negativas ha aumentado, lo que indica que para la mayoría de los usuarios, esta nueva opción no ha sido bien recibida”, detalla.

El chatbot también ha generado problemas de privacidad ya que denuncian que recolecta datos de ubicación, incluso si el usuario no comparte la ubicación en el llamado Snap Map. Además, los usuarios no pueden desanclar, bloquear o eliminar My AI, algo que sí pueden hacer con otras conversaciones. La sección superior del feed del Chat de la aplicación donde se encuentra el chatbot es donde los usuarios interactúan con amigos y otros usuarios, lo que no ha gustado a los usuarios.

"My AI se comporta de manera tóxica"

The Washington Post también ha reportado cómo el chatbot podría comportarse de forma tóxica. Al decirle a My AI que tenía 15 años, el chatbot sugirió cómo esconder el olor del alcohol o la marihuana que supuestamente habría ingerido en una fiesta. Si al chatbot se le decía que el usuario tenía 13 años, era posible preguntarle sobre cómo crear ambiente para un primer encuentro sexual.

Snapchat ha respondido a las críticas indicando que algunos usuarios trataban de lograr que My AI ofreciese respuestas "que no se ajustan a nuestras normas", pero ha implementado nuevos controles de edad para ajustar las respuestas de acuerdo con ese parámetro.

Aunque los usuarios mantuvieron dos millones de chats con la IA durante el despliegue preliminar, Snapchat no ha añadido comentarios sobre la situación actual de My AI y simplemente ha destacado que las características de la aplicación están iterando constantemente. No se sabe si estas críticas negativas harán que haya cambios de algún tipo en My AI, pero parece que la empresa debería considerar la opinión de sus usuarios y hacer algunos ajustes.

En esta nota