ChatGPT se ve involucrado en la planificación de un tiroteo, según una investigación en Florida, EE. UU. ¡El fiscal general: la IA no debe usarse para destruir a la humanidad!

Las autoridades judiciales de Florida abrieron una investigación contra OpenAI, al sospechar que ChatGPT ayudó a planificar un tiroteo en un campus escolar, y que también existen preocupaciones de seguridad nacional y de autolesiones en menores. OpenAI niega las acusaciones y subraya que más de 900 millones de personas usan su servicio con seguridad cada semana, además de que colaborará con la investigación para impedir los delitos con IA.

Investigación en Florida sobre OpenAI: sospechan que ChatGPT ayudó a planear un tiroteo

Según informa Axios, el fiscal general de Florida, James Uthmeier, anunció que la oficina del fiscal local ha abierto una investigación contra OpenAI. Los motivos de la investigación incluyen preocupaciones sobre seguridad nacional, y también, en el tiroteo ocurrido el año pasado en la Universidad Estatal de Florida, el papel presuntamente desempeñado por ChatGPT como herramienta que habría ayudado al agresor a planificar los hechos. El alcance de la investigación aún no está claro, pero la fiscalía enviará citaciones.

Uthmeier señaló en un video publicado en la plataforma social X que la IA debe impulsar el desarrollo humano y no usarse para destruirlo. Dijo además que el gobierno estatal exige que OpenAI rinda cuentas por el daño a los derechos de los niños y por actividades que ponen en riesgo la seguridad del público y que contribuyen a los tiroteos.

El tiroteo en la Universidad Estatal de Florida dejó dos muertos y cinco heridos

Uthmeier indicó que ChatGPT está relacionado con casos de autolesiones y suicidio de menores. Explicó que, en el tiroteo en la Universidad Estatal de Florida del 17 de abril de 2025, que dejó dos muertos y cinco heridos, el agresor Phoenix Ikner pudo haber usado esta herramienta para planificar la acción.

También le preocupa el riesgo de que los datos de OpenAI sean utilizados por el gobierno chino y afirmó que la salida de nuevas tecnologías por parte de las empresas tecnológicas no puede poner en peligro la seguridad de la población. Enfatizó que ninguna empresa tiene derecho a dañar a los niños, a fomentar el crimen o a amenazar la seguridad nacional; las empresas que incumplan se enfrentarán a acciones legales.

OpenAI recalca la seguridad del producto: la industria enfrenta un escrutinio estricto

Ante las acusaciones, OpenAI emitió una declaración para refutar que ChatGPT haya ayudado a planificar un tiroteo y destacó sus esfuerzos en materia de medidas de seguridad.

Un portavoz de OpenAI señaló que más de 900 millones de personas usan ChatGPT semanalmente para mejorar su vida, abarcando desde aprender nuevas habilidades hasta navegar sistemas de atención médica. El trabajo de seguridad continuo de OpenAI desempeña un papel clave para ofrecer beneficios al público y apoyar la investigación científica.

OpenAI se comprometió a colaborar con la investigación y remarcó que el propósito original de su desarrollo es comprender la intención de los usuarios y responder de manera segura.

La investigación de Florida sobre OpenAI refleja que la industria de la IA enfrenta un escrutinio estricto en este momento. Robots como Gemini de Google y Grok, desarrollado por xAI bajo el liderazgo de Musk (Elon Musk), han sido criticados recientemente por la forma en que manejan las advertencias sobre peligros.

En particular, tanto Grok como la plataforma X (antes Twitter) han generado controversia por lo que se considera que tolera la producción y la difusión de imágenes de explotación sexual de menores gracias a una función de edición de imágenes con un solo clic.

  • Reportes relacionados:****¡Grok genera más de 20.000 imágenes de explotación sexual de menores en 11 días! La UE inicia una investigación: posible multa de hasta el 6% de los ingresos anuales

OpenAI impulsa un marco de seguridad; Florida modifica la ley para bloquear brechas

El día anterior a que Florida anunciara el inicio de una investigación en Estados Unidos, OpenAI señaló que ya había colaborado con el grupo de trabajo de IA del National Center for Missing & Exploited Children y con una coalición de fiscales para elaborar un marco de prevención. Además, la legislatura de Florida ya había aprobado a comienzos de este año el proyecto de ley de la Cámara de Representantes número 245.

El proyecto de ley actualiza la legislación estatal y adopta de forma explícita el vocabulario sobre materiales de abuso sexual infantil, para hacer frente al contenido ilegal generado por IA y llenar vacíos. El gobernador de Florida, Ron DeSantis, firmó dicho proyecto de ley el 1 de abril.

Lectura relacionada:
¡El principal responsable en el mayor caso de explotación sexual en Corea del Sur recibe cadena perpetua! ¡261 víctimas, magnitud de un número de habitación N…! TG ayuda por primera vez a la policía surcoreana en la investigación

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Cofundador de Ethereum Lubin: la IA será un punto de inflexión crítico para las criptomonedas, pero el monopolio de los gigantes tecnológicos plantea un riesgo sistémico

El cofundador de Ethereum Joseph Lubin destacó el potencial transformador de la IA para el sector de las criptomonedas, al tiempo que advirtió sobre los riesgos de la centralización entre los gigantes tecnológicos. Él imagina transacciones autónomas impulsadas por IA en blockchain y resalta la convergencia de las finanzas tradicionales con DeFi.

GateNewshace1h

Elon Musk impulsa los cheques de «ingreso universal alto» como solución definitiva para el desempleo por IA

Elon Musk aboga por una Renta Universal Alta para combatir el desempleo provocado por la IA, imaginando un futuro con abundantes bienes y cero inflación. En contraste, expertos como Sam Altman plantean preocupaciones sobre la pérdida de empleo y proponen medidas de protección para los trabajadores.

Coinpediahace1h

Se informa que DeepSeek lanza su primera ronda de recaudación externa, apunta a una valoración de más de $10B y $300M+

DeepSeek, una startup de IA china, está negociando su primera ronda de financiación externa, con el objetivo de obtener al menos $300 millones con una valoración de $10 mil millones. A pesar de que anteriormente rechazó ofertas de inversión, según se informa, sus conversaciones de recaudación ahora están en marcha.

GateNewshace1h

ChatGPT la publicidad llega a Australia y Nueva Zelanda: Free y usuarios de Go primero, los planes de pago mantienen sin anuncios

OpenAI amplió el anuncio de ChatGPT el 17 de abril de 2023 a Australia, Nueva Zelanda y Canadá, para los usuarios de Free y Go; los usuarios de pago no tienen anuncios. Esta medida marca la segunda vía de comercialización de la IA y, al considerar los riesgos comerciales y regulatorios, la aparición de anuncios puede impulsar la conversión a pago.

ChainNewsAbmediahace4h

Hyundai Motor Group se reorganiza en torno a la IA y la robótica y apunta a 30,000 robots Atlas para 2030

Hyundai Motor Group se está reestructurando para centrarse en la IA y la robótica, reduciendo las operaciones tradicionales. Planea una inversión de $34.3 mil millones en robótica para 2030 y tiene como objetivo lanzar un modelo de robótica como servicio, colaborando con Google DeepMind y NVIDIA.

GateNewshace7h

NEA explora el uso de la inteligencia artificial en la regulación nuclear

El Grupo de Trabajo de la NEA sobre Nuevas Tecnologías convocó un taller los días 25 y 26 de marzo, centrado en cómo la inteligencia artificial puede aplicarse a la supervisión regulatoria y a las operaciones internas dentro de las autoridades nucleares. Resumen El taller de la NEA exploró aplicaciones reales de IA en la regulación nuclear, con

Cryptonewshace9h
Comentar
0/400
Sin comentarios