Los chatbots de terapia con IA enfrentan prohibiciones estatales en EE. UU.

Los chatbots de terapia con IA son el objetivo de prohibiciones legislativas a nivel estatal que se aceleran, con Maine enviando un proyecto de ley de prohibición al gobernador el 10 de abril y Missouri avanzando una medida similar a través de un proyecto de ley de salud integral.

Resumen

  • La LD 2082 de Maine prohibiría el uso clínico de IA en terapia mental, permitiendo aplicaciones administrativas.
  • La HB 2372 de Missouri prohibiría la IA en terapia, psicoterapia y diagnóstico de salud mental, con una multa de 10,000 dólares por la primera infracción.
  • La legislación refleja un consenso creciente a nivel estatal de que la IA no debe reemplazar a terapeutas humanos con licencia en entornos clínicos.

Dos estados de EE. UU. se movieron esta semana para restringir o prohibir formalmente el uso clínico de IA en terapia de salud mental, reflejando un aumento en la actividad legislativa dirigida a los chatbots de terapia que ha acelerado significativamente en 2026. Las acciones en Maine y Missouri son los ejemplos más claros hasta ahora de cómo los estados avanzan más rápido que el gobierno federal en la regulación de la IA en salud mental.

Lo que están haciendo Maine y Missouri

La LD 2082 de Maine fue enviada al gobernador el 10 de abril. El proyecto de ley prohibiría el uso clínico de IA en terapia mental, permitiéndolo solo en roles administrativos. La HB 2372 de Missouri va más allá, cubriendo servicios de terapia, servicios de psicoterapia y diagnósticos de salud mental, con una multa de 10,000 dólares por las primeras violaciones, aplicadas por el Fiscal General del estado, según la Coalición de Transparencia.

La distinción que ambos proyectos de ley hacen, entre tratamiento clínico y soporte administrativo, refleja un enfoque legislativo que busca preservar los beneficios de eficiencia de la IA en la atención médica, mientras traza una línea firme contra la sustitución del juicio clínico licenciado por IA en entornos terapéuticos.

Por qué los estados actúan ahora

El aumento en la regulación de IA a nivel estatal se debe en parte a la rápida proliferación de productos comerciales de chatbots de terapia comercializados directamente a los consumidores, algunos de los cuales se han implementado en entornos clínicos o cercanos a lo clínico sin la misma supervisión que se aplica a los practicantes humanos. Los críticos dicen que estos productos han llegado a personas vulnerables mientras los marcos regulatorios permanecían en gran medida en silencio.

Como informó crypto.news, la IA ahora se está integrando en agencias gubernamentales en roles analíticos sensibles, creando presión en los responsables políticos en todos los niveles para definir dónde la IA puede y no puede sustituir el juicio humano. La prohibición de los chatbots de terapia es una respuesta legislativa directa a esa presión en un contexto de atención médica.

La tendencia más amplia en regulación de IA

Las prohibiciones de chatbots de terapia forman parte de una ola legislativa más amplia. Desde enero de 2026, se han presentado más de 10 proyectos de ley contra el mercado de predicciones en el Congreso, y las legislaturas estatales en todo el país han presentado docenas de medidas centradas en IA dirigidas a diferentes sectores.

Como señaló crypto.news, el gobierno federal está acelerando simultáneamente la adopción de IA y enfrentando batallas legales sobre dónde comienza y termina la autoridad de la IA. Los estados parecen estar llenando ese vacío, aprobando restricciones vinculantes en aplicaciones específicas de alto riesgo mientras Washington debate marcos regulatorios más amplios.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado