Científicos resaltan los efectos catastróficos que puede generar la IA
Científicos de varios centros de investigación y universidades de varios países alertaron sobre los elevados riesgos de la Inteligencia Artificial (IA).
Científicos de varios centros de investigación y universidades de varios países alertaron, en un artículo que hoy publica la revista Science, de los elevados riesgos de la Inteligencia Artificial (IA) y de las consecuencias catastróficas que los fallos que esta tecnología puede generar.
Los investigadores dijeron que los sistemas de Inteligencia Artificial ya se han puesto a prueba en una gran gama de aplicaciones, desde el diagnóstico médico hasta la navegación de vehículos autónomos, pero han advertido de que éstos son escenarios "de alto riesgo" en los que los márgenes de error son pocos y las consecuencias de un fallo pueden ser fatales.
La entrada en Science llega apenas quince días después de que 5.500 expertos a nivel mundial publicaran una carta abierta en la que abogaban por pausar durante un tiempo los experimentos con la IA más potente y avanzada -la llamada "generativa" y que es capaz de crear textos o imágenes a partir de datos ya existentes- ante los peligros que puede tener para la sociedad.
Hoy firmaron en Science investigadores de varias instituciones académicas y científicas, entre las que están las universidades de Cambridge, Harvard, Stanford, Shandong (China), la Politécnica de Valencia, el Imperial College London, el Instituto Tecnológico de Massachusetts (MIT), y varias empresas, entre ellas Google o la británica DeepMind, una de las mayores multinacionales del sector de la Inteligencia Artificial.
Los científicos que hoy suscribieron en la revista incidieron en la necesidad de que todas las publicaciones sobre esta materia incluyan de forma pormenorizada toda la información que es vital para comprender y abordar los errores intermedios que pueden terminar en los posibles fallos, y que todos esos datos estén a disposición de la comunidad científica que evitar que pasen los mismos errores.
Describieron por ejemplo un escenario hipotético en el que un algoritmo de reconocimiento facial alcanza la "impresionante" tasa de precisión del 90% al distinguir rostros masculinos de femeninos; sin embargo, un examen detallado podría revelar que clasifica erróneamente los rostros de mujeres de piel oscura en el 35% de los casos; y que ese porcentaje de error sólo se produce en el 0,8 por ciento de los hombres de piel clara.
Reclamaron por lo tanto informes más precisos y una mayor disponibilidad de todos los datos que se han usado para los análisis, y consideraron que de esa manera la investigación sobre IA se acercaría a los protocolos que ya se registran en otras disciplinas, como la medicina o la física.
Entre los firmantes del artículo está el español Fernando Martínez-Plumed, científico y profesor en el Instituto Valenciano de Investigación en Inteligencia Artificial (Universidad Politécnica de Valencia), quien aseguró que tratar de poner freno a la IA "es una tarea muy difícil, si no imposible", y observó que la investigación y el desarrollo implica a la industria, a la academia o a la sociedad y que cada una tiene sus intereses variados "y a veces contrarios".
Pero sí es importante, a su juicio, reducir y mitigar los riesgos y garantizar un uso responsable y seguro, y entre las diferentes tácticas que se deben seguir destacó la de que los investigadores y los desarrolladores trabajen en conjunto para crear tecnologías " más seguras, éticas, transparentes y justas" y que las empresas y los gobiernos establezcan regulaciones y estándares.
En declaraciones a EFE, Martínez-Plumed comentó que unas tecnologías de IA pueden tener más peligros que otras, como las que involucran la toma de decisiones críticas o el acceso a información privada, los sistemas de vigilancia o los algoritmos de contratación; o los más modernos, que pueden generar de texto, imágenes, audios o videos.
"Son capaces de crear obras de arte y textos impresionantes, pero también presentan nuevos riesgos para la sociedad: la creación de contenidos falsos, engañosos o incluso peligrosos, como noticias falsas, contenidos ofensivos, discriminatorios e ilegales", comentó el investigador.
También reflexionó sobre los sistemas de IA que se entrenan y aprenden a partir de conjuntos de datos que reflejan, y amplifican, los mismos prejuicios y las desigualdades que hay en la sociedad (el machismo, el racismo, el clasismo u otros).
Y citó los ejemplos ya comparados de sistemas para la contratación de personal que se entrenan con datos históricos de contratación de empleados que muestran sesgos de género o raza, de métodos de detección de rostros que no reconocen a las mujeres negras, algoritmos de búsqueda con estereotipos negativos sobre las niñas negras; y hasta prejuicios lingüísticos al revelar preferencias por determinados acentos o dialectos.
"Los sesgos en los sistemas de IA no son intrínsecos a la tecnología, sino que reflejan los prejuicios en los datos y decisiones humanas utilizados para entrenar los modelos", dijo a EFE el investigador, e incidió en la importancia de identificarlos y tratarlos para avanzar hacia sistemas de IA "más equitativos y justos", guiados por valores éticos y sociales, y no sólo por consideraciones técnicas o económicas.
Fernando Martínez-Plumed finalizó que la Inteligencia Artificial puede ser una herramienta poderosa para abordar algunos de los problemas más urgentes de la sociedad, "pero sólo puede ser eficaz si se utiliza de manera responsable y reflexiva".