El Imparcial / México / Inteligencia artificial

Aunque México utiliza masivamente la Inteligencia Artificial, expertos alertan que aún no hay regulación sobre su uso, lo que implica riesgos en privacidad y manejo de datos personales en sistemas automatizados aplicados para empleos y créditos

Expertos advierten que México usa inteligencia artificial sin reglas comunes, cambios institucionales y avances tecnológicos elevan riesgos en privacidad, identidad y decisiones automatizadas, piden regulación y controles claros

MÉXICO — La protección de datos personales en México atraviesa un proceso de reacomodo institucional en un momento en que la inteligencia artificial se integra a actividades laborales y administrativas. Especialistas advierten que el uso creciente de sistemas automatizados ya impacta la privacidad, la seguridad, la identidad y la confianza en transacciones digitales, de acuerdo con El Economista.

Durante el I Foro Internacional de Protección de Datos Personales, organizado por la Academia Mexicana de Ciberseguridad y Derecho Digital (AMCID), expertos señalaron que el país enfrenta un vacío normativo en materia de inteligencia artificial y protección de datos.

En el tema de inteligencia artificial, pues no hay una regulación de ninguna manera”, afirmó Luis Gustavo Parra, comisionado del INFOEM, al describir la falta de reglas claras para tecnologías que ya intervienen en decisiones sobre crédito, contratación laboral y servicios. La información fue presentada durante el foro especializado y difundida por organizadores y participantes del encuentro.

Te puede interesar: Tras conocerse que en México 9 de cada 10 estudiantes utilizan IA, la SEP reconoce que las instituciones siguen sin normas ni rumbo claro para su uso

Cambios institucionales tras la desaparición del INAI

El escenario se da en paralelo a cambios en la gobernanza de datos personales en México. Parra explicó que en 2025 entró en vigor la extinción del INAI y sus funciones pasaron a la Secretaría Anticorrupción y Buen Gobierno mediante una unidad especializada en protección de datos del sector público federal.

El régimen para el sector privado se mantiene bajo las normas vigentes, pero especialistas consideran que el reacomodo institucional llega con tareas pendientes.

El comisionado señaló la necesidad de revisar el marco normativo completo y avanzar hacia estándares más consistentes. El flujo de datos, dijo, atraviesa múltiples sectores y cadenas de valor, lo que exige reglas claras y coordinación entre instituciones.

México usa inteligencia artificial sin una regla común

Parra comparó el caso mexicano con modelos regulatorios de otros países. Mencionó a Estados Unidos, donde existen reglas sectoriales; a China, con un esquema que combina control e innovación; y a Brasil, que cuenta con una ley de protección de datos que obliga a revisiones humanas en decisiones automatizadas y establece responsabilidades civiles en sistemas de alto riesgo.

Estamos ante una carrera hacia la desregulación para ganar la competencia técnica o hacia una mayor protección de libertades y derechos”, señaló.

En ese contexto, México aparece con iniciativas dispersas y sin un marco específico para la inteligencia artificial. El comisionado advirtió que pueden surgir riesgos similares a los de otros países, como sistemas que discriminan por género o zona geográfica en evaluaciones crediticias o procesos de contratación.

En México podemos correr riesgos similares en sistemas de evaluación crediticia o de selección de personal”, dijo. También subrayó la falta de transparencia para auditar algoritmos y datos.

Propuestas para regular la IA y proteger datos

Entre las propuestas planteadas se encuentra un modelo regulatorio basado en riesgos y obligaciones proporcionales. Para sistemas de alto riesgo, especialistas sugieren:

  • Evaluaciones de impacto en protección de datos
  • Auditorías algorítmicas obligatorias
  • Coordinación entre autoridades
  • Fortalecer el derecho a la explicación en decisiones automatizadas
  • Mecanismos para mitigar sesgos

También se mencionaron herramientas técnicas para reducir la exposición de datos, como privacidad por diseño, aprendizaje federado, privacidad diferencial y cifrado.

Cuando la información entra a chatbots y modelos de IA

El uso cotidiano de chatbots y modelos de lenguaje también genera riesgos. Juan Manuel Delva, investigador de la Universidad de Guadalajara, explicó que usuarios ya introducen en estas herramientas información real como reportes, correos, casos clínicos o listados de alumnos.

Lo que estamos tecleando puede ser un correo, puede ser un reporte, en muchas ocasiones casos clínicos”, advirtió.

Delva señaló que cerrar una pestaña no elimina necesariamente la información compartida. Algunas plataformas retienen registros por razones de seguridad o cumplimiento legal.“Los chats temporales, en la mayoría de los casos, duran 30 días”, explicó.

También alertó sobre riesgos como inyección de prompts, filtración de credenciales y exposición de datos en buscadores cuando se comparten conversaciones sin controles adecuados.

Riesgos de suplantación de identidad y deepfakes

Especialistas en derecho digital señalaron que la usurpación de identidad y los deepfakes se han convertido en amenazas crecientes. Cintia Solís, doctora en derecho y especialista en ciberseguridad, explicó que la tecnología generativa se usa para crear videos falsos que simulan promociones de inversión o beneficios.

La ciberseguridad no solamente protege datos, protege identidades y la confianza en la economía digital”, dijo.

Solís planteó la necesidad de armonizar el delito de suplantación de identidad a nivel federal y actualizar el marco legal para atender los datos biométricos sintéticos. También pidió fortalecer la cooperación internacional para investigar delitos digitales.

Necesitamos cooperación internacional efectiva”, afirmó.

Un reto que combina tecnología, regulación y seguridad

El debate sobre protección de datos, inteligencia artificial y seguridad digital se centra en un mismo problema: la falta de reglas claras frente a tecnologías que ya forman parte de la vida cotidiana.

Especialistas coinciden en que el vacío regulatorio dejó de ser un tema teórico. Ahora impacta la arquitectura institucional, las políticas internas de organizaciones y la capacidad de respuesta ante fraudes y suplantación.

La discusión continúa en el ámbito legislativo y académico. Mientras tanto, expertos recomiendan a empresas, instituciones y usuarios documentar el uso de herramientas de IA, revisar políticas internas y proteger la información personal.

El reto, señalan, será construir un marco que permita aprovechar la tecnología sin poner en riesgo la privacidad, la identidad y la confianza digital.

Te puede interesar: Olvídate de tu jefe humano: la nueva esclavitud es digital, tu patrón es una inteligencia artificial y México no está preparado

Temas relacionados