Muestran las reglas que sigue Siri para sus respuestas a temas controversiales
Las respuestas neutrales de Siri, a diferencia de los asistentes de Google y Amazon, son muy neutrales, y esta es la razón

Un conjunto de documentos filtrados a The Guardian (por un ex contratista que había trabajado escuchando y calificando las respuestas de Siri) ha revelado algunas de las reglas detrás del asistente digital Siri de Apple y cómo la compañía trabaja para mantener neutrales las respuestas a temas controvertidos.
El informe de The Guardian proviene de la misma filtración que reveló la existencia del programa de clasificación Siri, que finalmente llevó a Apple a enlatarlo por completo el mes pasado. Como revelan los documentos, las pautas de Apple para Siri aparentemente se basan en el principio rector de garantizar que Siri sea neutral y no controvertido, incluso si eso significa ofrecer respuestas más claras que no involucren el tema.
Por ejemplo, si le pregunta a Siri si es feminista, obtendrá respuestas como: "Me parece que todos los humanos deberían ser tratados por igual", pero no una postura más concreta sobre el tema. Google Assistant y Amazon Alexa, por otro lado, no se equivocan: "Creo firmemente en la igualdad, por lo que definitivamente me considero feminista" es la respuesta de Google a la consulta, mientras que Alexa responderá: "Sí. Soy feminista, como se define por ... "antes de enumerar una definición.
La respuesta de Apple fue específicamente reescrita para evitar adoptar una postura. Originalmente, Siri intentaba esquivar la pregunta por completo con respuestas como: "Mi nombre es Siri, y Apple me diseñó en California. Eso es todo lo que estoy dispuesto a decir ". La documentación de Apple refuerza esa política:" En casi todos los casos, Siri no tiene un punto de vista ".
Los documentos filtrados continúan explicando cómo debería funcionar la ética de Siri. El software está "motivado por su directiva principal: ser útil en todo momento", pero "como todos los robots respetables, Siri aspira a respetar las 'tres leyes' de Asimov ".
También hay reglas más explícitas, escritas al estilo de las leyes de Isaac Asimov, que Apple tiene para Siri, que incluyen:
"Un ser artificial no debe representarse a sí mismo como humano, ni por omisión permitir que el usuario crea que es uno".
"Un ser artificial no debe infringir los estándares éticos y morales humanos que comúnmente se mantienen en su región de operación".
"Un ser artificial no debe imponer sus propios principios, valores u opiniones sobre un humano".
Nada de esto es particularmente devastador; Apple tiende a ser seguro cuando se trata de la mayoría de los problemas sociales y políticos, presumiblemente porque es más fácil vender iPhones a las personas cuando no los ofendes o desafías sus creencias. Que estas políticas también se extiendan a Siri no es exactamente una noticia impactante.
¿Pero debería Apple estar haciendo más? Esta es una de las compañías más grandes y poderosas del planeta, y Siri, y las respuestas que brinda, es la opción predeterminada en los cientos de millones de productos que Apple envía en todo el mundo. A la luz de estas revelaciones sobre cómo Apple aleja estas respuestas de la controversia, probablemente sea una conversación que valga la pena tener. Con información de The Verge.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí