ChatGPT supuestamente ayudó a planificar un ataque con armas, investigado por Florida, Estados Unidos. El fiscal general: la IA no debería usarse para destruir a la humanidad.

Las autoridades fiscales de Florida abrieron una investigación contra OpenAI, al sospechar que ChatGPT ayudó a planificar un tiroteo en una escuela, y que también existe preocupación por la seguridad nacional y por posibles autolesiones de menores. OpenAI niega las acusaciones y subraya que más de 900 millones de personas usan su servicio de forma segura cada semana, además de que colaborará con la investigación para impedir delitos impulsados por IA.

Investigación en Florida a OpenAI: se sospecha que ChatGPT ayudó a planear un tiroteo

Según informó Axios, el fiscal general de Florida, James Uthmeier, anunció que la oficina de fiscales local ya abrió una investigación contra OpenAI. Los motivos para investigar a esta empresa incluyen inquietudes sobre seguridad nacional, y también que, en el tiroteo ocurrido el año pasado en la Universidad Estatal de Florida, ChatGPT supuestamente desempeñó un papel de apoyo en la planificación del delito por parte del agresor. El alcance de la investigación aún no está claro, pero la fiscalía emitirá citaciones.

Uthmeier señaló en un video publicado en la plataforma social X que la IA debe promover el desarrollo humano, en lugar de usarse para destruir a la humanidad. Destacó que el gobierno estatal exige a OpenAI rendir cuentas sobre los daños a los derechos de los niños y sobre las actividades que ponen en riesgo la seguridad del público y que propiciaron el tiroteo.

El tiroteo en la Universidad Estatal de Florida dejó dos muertos y cinco heridos

Uthmeier indicó que ChatGPT tiene relación con casos de autolesiones y suicidio de menores. Dijo que, en el tiroteo en la Universidad Estatal de Florida del 17 de abril de 2025, en el que hubo dos muertos y cinco heridos, el tirador Phoenix Ikner posiblemente usó esa herramienta para planear la acción.

También expresó su preocupación por el riesgo de que los datos de OpenAI sean utilizados por el gobierno de China y afirmó que cuando las empresas tecnológicas lanzan nuevas tecnologías, no pueden poner a la población en peligro; enfatizó que ninguna empresa tiene derecho a dañar a los niños, a fomentar delitos o a amenazar la seguridad nacional, y que las empresas que incumplan enfrentarán acciones legales.

OpenAI recalca la seguridad del producto; la industria enfrenta un escrutinio estricto

Ante las acusaciones, OpenAI emitió un comunicado para refutar que ChatGPT hubiera ayudado a planificar un tiroteo y recalcó sus esfuerzos en materia de medidas de seguridad.

El portavoz de OpenAI dijo que más de 900 millones de personas usan ChatGPT cada semana para mejorar su vida, incluyendo el aprendizaje de nuevas habilidades y la navegación por sistemas médicos; el trabajo continuo de seguridad de OpenAI desempeña un papel clave tanto en la provisión de beneficios para el público como en el apoyo a la investigación científica.

OpenAI se comprometió a colaborar con la investigación y subrayó que el objetivo original de su desarrollo es comprender la intención del usuario y responder de manera segura.

La investigación de Florida sobre OpenAI refleja que, en un momento en que la industria de la IA enfrenta un escrutinio estricto, también se está cuestionando su enfoque. Los robots como Gemini de Google y Grok desarrollado por xAI, propiedad de Musk (Elon Musk), han sido criticados recientemente por su manera de manejar las advertencias sobre peligros.

En particular, tanto Grok como la plataforma X (antes Twitter) han generado controversia porque su función para editar imágenes con un solo clic ha sido acusada de tolerar la creación y difusión de videos e imágenes de explotación sexual de menores.

  • Reportes relacionados:****¡Grok generó más de 20.000 imágenes de explotación sexual de menores en 11 días! La UE inicia una investigación; sanción máxima de 6% de los ingresos anuales

OpenAI impulsa un marco de seguridad; Florida modifica la ley para bloquear brechas

Un día antes de que Florida anunciara el inicio de la investigación en Estados Unidos, OpenAI afirmó que ya había colaborado con el grupo de trabajo de IA del Centro Nacional para Niños Desaparecidos y Víctimas de Abuso, así como con la alianza de fiscales generales, para elaborar un marco de prevención, y que la legislatura de Florida ya había aprobado, a comienzos de este año, el proyecto de ley de la Cámara número 245.

Este proyecto de ley actualiza la legislación estatal, adoptando de manera explícita el vocabulario sobre materiales de abuso sexual infantil, con el fin de hacer frente al contenido ilícito generado por IA y llenar vacíos; el gobernador de Florida, Ron DeSantis, firmó el proyecto el 1 de abril.

Lectura adicional:
¡El principal sospechoso del mayor caso de explotación sexual en Corea del Sur recibe cadena perpetua! ¡261 personas, a escala de N- número de cuartos de víctimas; el TG ayudó por primera vez a las autoridades coreanas en la investigación!

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Cofundador de Ethereum Lubin: la IA será un punto de inflexión crítico para las criptomonedas, pero el monopolio de los gigantes tecnológicos plantea un riesgo sistémico

El cofundador de Ethereum Joseph Lubin destacó el potencial transformador de la IA para el sector de las criptomonedas, al tiempo que advirtió sobre los riesgos de la centralización entre los gigantes tecnológicos. Él imagina transacciones autónomas impulsadas por IA en blockchain y resalta la convergencia de las finanzas tradicionales con DeFi.

GateNewsHace17m

Elon Musk impulsa los cheques de «ingreso universal alto» como solución definitiva para el desempleo por IA

Elon Musk aboga por una Renta Universal Alta para combatir el desempleo provocado por la IA, imaginando un futuro con abundantes bienes y cero inflación. En contraste, expertos como Sam Altman plantean preocupaciones sobre la pérdida de empleo y proponen medidas de protección para los trabajadores.

CoinpediaHace26m

Se informa que DeepSeek lanza su primera ronda de recaudación externa, apunta a una valoración de más de $10B y $300M+

DeepSeek, una startup de IA china, está negociando su primera ronda de financiación externa, con el objetivo de obtener al menos $300 millones con una valoración de $10 mil millones. A pesar de que anteriormente rechazó ofertas de inversión, según se informa, sus conversaciones de recaudación ahora están en marcha.

GateNewsHace47m

ChatGPT la publicidad llega a Australia y Nueva Zelanda: Free y usuarios de Go primero, los planes de pago mantienen sin anuncios

OpenAI amplió el anuncio de ChatGPT el 17 de abril de 2023 a Australia, Nueva Zelanda y Canadá, para los usuarios de Free y Go; los usuarios de pago no tienen anuncios. Esta medida marca la segunda vía de comercialización de la IA y, al considerar los riesgos comerciales y regulatorios, la aparición de anuncios puede impulsar la conversión a pago.

ChainNewsAbmediahace2h

Hyundai Motor Group se reorganiza en torno a la IA y la robótica y apunta a 30,000 robots Atlas para 2030

Hyundai Motor Group se está reestructurando para centrarse en la IA y la robótica, reduciendo las operaciones tradicionales. Planea una inversión de $34.3 mil millones en robótica para 2030 y tiene como objetivo lanzar un modelo de robótica como servicio, colaborando con Google DeepMind y NVIDIA.

GateNewshace5h

NEA explora el uso de la inteligencia artificial en la regulación nuclear

El Grupo de Trabajo de la NEA sobre Nuevas Tecnologías convocó un taller los días 25 y 26 de marzo, centrado en cómo la inteligencia artificial puede aplicarse a la supervisión regulatoria y a las operaciones internas dentro de las autoridades nucleares. Resumen El taller de la NEA exploró aplicaciones reales de IA en la regulación nuclear, con

Cryptonewshace8h
Comentar
0/400
Sin comentarios