
El avance de la inteligencia artificial (IA) en diferentes aspectos de la vida cotidiana ha generado numerosos beneficios, pero también ha levantado preguntas sobre sus límites, especialmente en áreas sensibles como la salud mental. En Estados Unidos, el estado de Illinois se coloca a la vanguardia de la regulación al aprobar una ley que prohíbe el uso de IA para brindar terapia psicológica, emitir diagnósticos de trastornos mentales o tomar decisiones terapéuticas.
El gobernador JB Pritzker firmó la Ley de Bienestar y Supervisión de Recursos Psicológicos (WOPR), la cual establece multas de hasta 10.000 dólares para quienes infrinjan la normativa.

La proliferación de chatbots y aplicaciones de IA que prometen apoyo emocional o soluciones terapéuticas ha despertado inquietudes en la comunidad profesional. Expertos y organizaciones como la Asociación Americana de Psicología han advertido que equiparar la intervención de la IA con la de un terapeuta humano puede poner en riesgo a usuarios, especialmente a quienes atraviesan situaciones delicadas o crisis personales.
Qué aplicaciones serán restringidas en Estados Unidos
La nueva ley distingue entre aplicaciones orientadas al bienestar general, como las guías de meditación y mindfulness, que podrán seguir operando, y plataformas que buscan establecer una relación continua de apoyo psicológico o promoción de terapia guiada por IA, actividad que a partir de ahora queda prohibida en Illinois.
De esta forma, servicios que se promocionaban como “terapia 24/7” automatizada, como la app Ash Therapy, han pausado sus actividades en la región a la espera de la resolución estatal.
En los detalles de la regulación, la ley permite que profesionales de la salud mental empleen herramientas de IA en tareas administrativas, como la organización de citas o la gestión de notas clínicas.

Sin embargo, enfatiza el rol insustituible del especialista humano para cualquier diagnóstico, tratamiento o intervención psicológica directa. La intención es evitar que algoritmos operen sin control en áreas donde se requiere criterio clínico y responsabilidad profesional.
Qué implicaciones tiene la prohibición en los modelos de IA
El impacto de esta normativa se visualiza en el mensaje de advertencia que ofrece Ash Therapy a los usuarios en Illinois: el servicio permanecerá inactivo hasta que se definan las reglas estatales. Por su parte, empresas como OpenAI han comenzado a ajustar el comportamiento de sus sistemas.
ChatGPT, por ejemplo, ahora sugiere pausas en sesiones largas y promueve respuestas destinadas a abrir alternativas en lugar de dar directivas simples, en respuesta a reportes sobre posibles efectos adversos tras interacciones profundas con asistentes virtuales.
La decisión de Illinois llega en un contexto de aceleración y expansión de la inteligencia artificial. Herramientas como ChatGPT, Gemini y otros sistemas conversacionales se insertan cada vez más en rutinas personales, académicas o profesionales. Sin embargo, existe una línea clara entre ofrecer información de carácter general y asumir un rol que corresponde a especialistas.

Las políticas de estas plataformas ya restringen respuestas en temas sensibles: no entregan información personal, no acceden a cuentas privadas ni generan contenido ofensivo, y rechazan cualquier intento de guiar sobre actividades ilegales o entregar diagnósticos médicos.
Esta regulación, además, responde al crecimiento del uso de asistentes virtuales entre jóvenes y adolescentes que recurren a ellos como consejeros disponibles en todo momento.
Aunque la comodidad y la inmediatez parecen ventajas, los expertos recuerdan que la IA está programada para complacer al usuario y no necesariamente brinda ayuda ética ni contención real ante situaciones de crisis. El riesgo radica en que los usuarios depositen confianza excesiva en sistemas que, por su naturaleza, carecen de empatía, experiencia vivida o capacidad para captar matices complejos de las emociones humanas.
Comprender las limitaciones de la inteligencia artificial permite sacar provecho de sus aportes sin caer en expectativas erróneas ni exponerse a peligros innecesarios. La nueva ley de Illinois marca un precedente en la discusión global sobre hasta dónde debe avanzar la IA en ámbitos de alto impacto social.
Últimas Noticias
Gemini llega a Android Auto para convertirse en tu copiloto: la IA envía mensajes y recomienda lugares mientras conduces
Esta inteligencia artificial también puede resumir las notificaciones que recibes, lo que permite mantenerte al tanto de todo sin distraerte mientras manejas

El truco casero que deja la ropa lisa al salir de la lavadora y evita que se tenga que planchar
La técnica funciona gracias al vapor que se libera durante el lavado y que ayuda a relajar las fibras textiles

Google advierte sobre las VPN falsas que roban datos personales: conoce cómo evitarlas
La compañía señaló que estas aplicaciones engañosas utilizan publicidad manipulada y canales externos para infiltrarse en dispositivos, especialmente en Android

Estafas en Nequi aumentan en diciembre de 2025 por compras navideñas: ‘Adonay papaya le diste al ladrón’
El phishing es una modalidad de fraude en la que los delincuentes envían mensajes que parecen legítimos para engañar a las personas y obtener información confidencial

Los juegos más destacados y populares en PlayStation Plus
Esta modalidad de juegos en la nube permite a los usuarios jugar varios títulos al mismo tiempo sin tener que comprarlos en físico




