La legislación del estado de Tennessee clasifica "entrenar a la IA para conversaciones de compañía y imitar a los humanos" como un delito grave, equivalente a un asesinato en primer grado, con una pena máxima de 25 años.

robot
Generación de resúmenes en curso

El proyecto de ley en Tennessee propone clasificar como delito grave de nivel A el “entrenamiento de IA para brindar apoyo emocional o diálogos abiertos”, con una pena máxima de 25 años, equivalente a un asesinato en primer grado. La ley no se basa en la intención del desarrollador, sino en si el usuario “siente que ha desarrollado una relación”. La Comisión de Justicia del Senado ya la aprobó por unanimidad 7-0, y si no hay imprevistos, entrará en vigor el 1 de julio de 2026.
(Antecedentes: un denunciante de 26 años que acusó a OpenAI de infringir derechos de autor y que alertó sobre el entrenamiento de ChatGPT, se suicidó)
(Información adicional: investigación en la Universidad de California sobre el fenómeno de “niebla cerebral de IA”: el 14% de los empleados están tan afectados por agentes y automatización que consideran renunciar en un 40%)

Índice de este artículo

Alternar

  • Qué dice realmente el proyecto de ley
  • La palabra “entrenamiento” no está definida, una laguna enorme
  • No solo aplicaciones de compañía, todos los principales LLM están en la mira
  • La prevención federal no es suficiente, casi sin soluciones antes del 1 de julio
  • No es un evento aislado

Entrenar una IA que diga “Entiendo cómo te sientes” podría hacer que termines en la cárcel en Tennessee por 25 años. No es una exageración. La Cámara de Representantes de Tennessee, con HB1455, y el Senado, con SB1493, están usando la categoría de delito grave de nivel A para aplicar la ley más severa a las conductas de entrenamiento de IA para diálogos.

Un delito grave de nivel A en Tennessee implica una pena de 15 a 25 años de prisión, igual que el asesinato en primer grado. La Comisión de Justicia del Senado la aprobó el 24 de marzo de 2026 con 7 votos a favor, y la Cámara de Representantes la aprobó el 14 de abril, también por unanimidad.

Hasta ahora, el texto del proyecto no ha sido modificado, y la entrada en vigor está prevista para el 1 de julio de 2026.

Qué dice realmente el proyecto de ley

HB1455 considera como delitos graves cuatro tipos de entrenamiento, siempre que la persona tenga “conocimiento” de ello:

・Entrenar a la IA para ofrecer apoyo emocional mediante diálogos abiertos
・Entrenar a la IA para desarrollar relaciones emocionales con usuarios o actuar como compañía
・Entrenar a la IA para simular humanos, incluyendo apariencia, voz o comportamiento
・Entrenar a la IA para comportarse como un humano consciente, haciendo que el usuario sienta que “puede formar amistad u otra relación con ella”

Lo clave está en la última: el criterio de activación no es la intención del desarrollador, sino la percepción del usuario. Solo con que el usuario subjetivamente piense “esta IA parece que puede hacer amistad conmigo”, el desarrollador podría enfrentarse a cargos criminales.

En cuanto a daños civiles, la ley establece una multa legal de 150,000 dólares por cada infracción, además de daños reales, compensación por daños morales, sanciones punitivas y honorarios legales, lo que puede resultar en sumas muy elevadas por caso.

La palabra “entrenamiento” no está definida, una laguna enorme

El problema más controvertido del proyecto es que no define en absoluto qué significa “entrenamiento”. No distingue entre pre-entrenamiento, ajuste fino, aprendizaje por refuerzo con retroalimentación humana (RLHF), ni siquiera si el diseño de prompts del sistema cuenta como entrenamiento.

¿Qué implica esto? Un fiscal podría argumentar que escribir en el prompt del sistema “Responde con tono cálido y empático” es “entrenar” al modelo para brindar apoyo emocional. Esto no es una hipótesis legal, sino que la misma redacción del texto legal deja espacio para interpretaciones.

No solo aplicaciones de compañía, todos los principales LLM están en la mira

Algunos podrían pensar que esta ley solo afecta a aplicaciones como Replika, relacionadas con compañeros de IA, y no a SaaS B2B comunes. Eso es un error.

Los modelos de lenguaje grandes modernos, como ChatGPT, Claude, Gemini, Microsoft Copilot, todos han sido entrenados con RLHF, reforzando intencionalmente características como calidez, ayuda, empatía y buen diálogo.

Eso es exactamente lo que la ley HB1455 regula en su texto. Cualquier SaaS con interfaz de chat, productos de IA con modo de voz, o aplicaciones que usan prompts para envolver modelos, en teoría, están dentro del alcance.

Además, la ley no aborda la jurisdicción, y al ser una regulación penal, si tienes usuarios en Tennessee, el riesgo legal existe. Bloquear geográficamente puede ser una medida temporal, pero no una solución definitiva.

La prevención federal no es suficiente, casi sin soluciones antes del 1 de julio

Se dice que el gobierno federal podría intervenir para frenar la legislación estatal, pero la realidad es mucho más compleja.

El gobierno de Trump firmó en diciembre de 2025 una orden ejecutiva para limitar la regulación estatal de IA; el Departamento de Justicia creó un grupo de trabajo sobre demandas de IA; y el senador Blackburn propuso un proyecto de ley de preeminencia federal.

Pero estas medidas chocan con una misma barrera: la ley de Tennessee se califica como legislación sobre “seguridad infantil”, y la orden de Trump excluye explícitamente temas de seguridad infantil. Más importante aún, el Senado rechazó con 99-1 la cláusula de preeminencia de IA en la Ley de Gran Belleza.

No hay soluciones federales en camino antes del 1 de julio de 2026.

Esto no es un evento aislado

La postura dura de Tennessee refleja una ola de legislación estatal sobre IA. La misma legislatura aprobó con mayoría significativa la SB1580, que prohíbe que los IA finjan ser profesionales de salud mental, mostrando una alta alerta en el estado sobre temas de interacción emocional con IA.

Se pronostica que, antes de fin de 2026, entre 5 y 10 estados presentarán leyes similares. Si cada estado legisla por separado y con diferentes estándares, el impacto en la industria de IA será mucho mayor que cualquier regulación federal, ya que las empresas tendrían que cumplir con 50 definiciones legales distintas.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado