Fecha de publicación: 9 de Agosto de 2025 a las 13:47:00 hs
Medio: INFOBAE
Categoría: GENERAL
Descripción: Las nuevas normas en el estado de Illinois imponen advertencias, multas y ajustes operativos en aplicaciones que ofrecen algún tipo de servicio relacionado con el bienestar o la salud mental
Contenido: El avance de la inteligencia artificial (IA) en diferentes aspectos de la vida cotidiana ha generado numerosos beneficios, pero también ha levantado preguntas sobre sus límites, especialmente en áreas sensibles como la salud mental. En Estados Unidos, el estado de Illinois se coloca a la vanguardia de la regulación al aprobar una ley que prohíbe el uso de IA para brindar terapia psicológica, emitir diagnósticos de trastornos mentales o tomar decisiones terapéuticas.
El gobernador JB Pritzker firmó la Ley de Bienestar y Supervisión de Recursos Psicológicos (WOPR), la cual establece multas de hasta 10.000 dólares para quienes infrinjan la normativa.
La proliferación de chatbots y aplicaciones de IA que prometen apoyo emocional o soluciones terapéuticas ha despertado inquietudes en la comunidad profesional. Expertos y organizaciones como la Asociación Americana de Psicología han advertido que equiparar la intervención de la IA con la de un terapeuta humano puede poner en riesgo a usuarios, especialmente a quienes atraviesan situaciones delicadas o crisis personales.
La nueva ley distingue entre aplicaciones orientadas al bienestar general, como las guías de meditación y mindfulness, que podrán seguir operando, y plataformas que buscan establecer una relación continua de apoyo psicológico o promoción de terapia guiada por IA, actividad que a partir de ahora queda prohibida en Illinois.
De esta forma, servicios que se promocionaban como “terapia 24/7” automatizada, como la app Ash Therapy, han pausado sus actividades en la región a la espera de la resolución estatal.
En los detalles de la regulación, la ley permite que profesionales de la salud mental empleen herramientas de IA en tareas administrativas, como la organización de citas o la gestión de notas clínicas.
Sin embargo, enfatiza el rol insustituible del especialista humano para cualquier diagnóstico, tratamiento o intervención psicológica directa. La intención es evitar que algoritmos operen sin control en áreas donde se requiere criterio clínico y responsabilidad profesional.
El impacto de esta normativa se visualiza en el mensaje de advertencia que ofrece Ash Therapy a los usuarios en Illinois: el servicio permanecerá inactivo hasta que se definan las reglas estatales. Por su parte, empresas como OpenAI han comenzado a ajustar el comportamiento de sus sistemas.
ChatGPT, por ejemplo, ahora sugiere pausas en sesiones largas y promueve respuestas destinadas a abrir alternativas en lugar de dar directivas simples, en respuesta a reportes sobre posibles efectos adversos tras interacciones profundas con asistentes virtuales.
La decisión de Illinois llega en un contexto de aceleración y expansión de la inteligencia artificial. Herramientas como ChatGPT, Gemini y otros sistemas conversacionales se insertan cada vez más en rutinas personales, académicas o profesionales. Sin embargo, existe una línea clara entre ofrecer información de carácter general y asumir un rol que corresponde a especialistas.
Las políticas de estas plataformas ya restringen respuestas en temas sensibles: no entregan información personal, no acceden a cuentas privadas ni generan contenido ofensivo, y rechazan cualquier intento de guiar sobre actividades ilegales o entregar diagnósticos médicos.
Esta regulación, además, responde al crecimiento del uso de asistentes virtuales entre jóvenes y adolescentes que recurren a ellos como consejeros disponibles en todo momento.
Aunque la comodidad y la inmediatez parecen ventajas, los expertos recuerdan que la IA está programada para complacer al usuario y no necesariamente brinda ayuda ética ni contención real ante situaciones de crisis. El riesgo radica en que los usuarios depositen confianza excesiva en sistemas que, por su naturaleza, carecen de empatía, experiencia vivida o capacidad para captar matices complejos de las emociones humanas.
Comprender las limitaciones de la inteligencia artificial permite sacar provecho de sus aportes sin caer en expectativas erróneas ni exponerse a peligros innecesarios. La nueva ley de Illinois marca un precedente en la discusión global sobre hasta dónde debe avanzar la IA en ámbitos de alto impacto social.
Visitas: 0