El mundo frena la ‘IA humana’: China e Indonesia imponen leyes para que los algoritmos dejen de simular emociones y bloqueen la adicción de los usuarios tras dos horas de uso
Las nuevas regulaciones asiáticas prohíben por primera vez las ‘trampas afectivas’ y obligan a los sistemas a detectar si una persona está desarrollando una dependencia psicológica peligrosa con su asistente virtual

¿Cómo planea China desmantelar la simulación de personalidad en la Inteligencia Artificial?
CHINA — La Administración del Ciberespacio de China (CAC) ha dado un paso radical al publicar el primer borrador que regula los servicios de “interacción antropomórfica”. El gobierno chino no busca prohibir la tecnología, sino erradicar su capacidad de generar dependencia emocional. A partir de ahora, cualquier IA capaz de simular rasgos de personalidad o mantener una interacción emocional mediante audio o vídeo deberá incorporar un sistema de monitoreo que evalúe, en tiempo real, el nivel de adicción del usuario. Si la interacción supera las dos horas continuas o se detectan indicios de “control psicológico”, la IA tiene la obligación legal de intervenir y recordar dinámicamente su naturaleza no humana.
¿Por qué Indonesia se ha unido a esta cruzada contra el reemplazo total del ser humano?
Indonesia ha ratificado este giro regulatorio a través de su nueva Estrategia Nacional de IA, que prioriza la “humanidad” sobre la eficiencia algorítmica. El gobierno indonesio ha establecido líneas rojas claras: la IA debe ser una herramienta para la salud, la educación y la resiliencia alimentaria, pero nunca un reemplazo de la interacción social biológica. Al igual que China, Indonesia exige transparencia total y gestión de riesgos para evitar que los operadores de sistemas electrónicos utilicen “trampas emocionales” que nublen el juicio de los ciudadanos o inciten a comportamientos de aislamiento.

¿Qué hay detrás de este rechazo global a la IA como ‘compañía emocional’?
Más allá de la salud mental, existe una crisis de recursos materiales que está obligando a los gobiernos a priorizar el uso de la IA. La expansión de estos sistemas “antropomórficos” consume una cantidad insostenible de energía y agua. Según la Agencia Internacional de la Energía (AIE), el consumo de los centros de datos podría rondar los 945 TWh para 2030, impulsado principalmente por el procesamiento de emociones y lenguaje natural complejo. Además, la cadena de suministro global enfrenta una escasez de componentes que está elevando los precios de la electrónica básica, lo que ha llevado a los reguladores a enviar un mensaje contundente: la IA debe ser útil, no “encantadora”.
- Consumo de Agua: El enfriamiento de servidores para IA está afectando recursos hídricos locales en zonas de estrés climático.
- Seguridad Psicológica: Se prohíben expresamente las técnicas de diseño que busquen el “apego” del usuario para fines comerciales.
- Aviso de IA Obligatorio: Todo sistema que intente parecer una persona deberá mostrar advertencias visibles y constantes de su origen digital.
En este 2026, la regulación internacional está pasando del “qué puede hacer la IA” al “cómo nos hace sentir”, marcando el fin de la era de los algoritmos diseñados para enamorar o consolar humanos.
Sigue nuestro canal de WhatsApp
Recibe las noticias más importantes del día. Da click aquí
Te recomendamos

Dos inteligencias artificiales detectaron que hablaban entre sí durante un experimento y abandonaron el lenguaje humano para comunicarse mediante señales de sonido codificadas con la tecnología ggwave, un sistema más rápido y eficiente diseñado para el intercambio directo de datos entre máquinas

Indonesia condiciona su permanencia en la Junta de Paz impulsada por Donald Trump a que beneficie a Palestina y advierte que se retirará si no se alinean con sus intereses nacionales en medio de la guerra con Irán

Mientras EE.UU. y China dominan la inteligencia artificial global, América Latina lanza Latam-GPT, el primer modelo regional impulsado por 15 países con una apuesta por soberanía tecnológica y gobernanza propia

El uso de la IA en operaciones militares escala: Claude, de Anthropic, habría sido utilizado en la captura de Nicolás Maduro y desata tensiones con el Pentágono
Grupo Healy © Copyright Impresora y Editorial S.A. de C.V. Todos los derechos reservados