Ciberseguridad con IA: Carrera entre OpenAI y Anthropic

La ciberseguridad en IA es ahora una frontera competitiva formal entre OpenAI y Anthropic, con OpenAI finalizando un producto avanzado de seguridad para su lanzamiento a socios limitados y Anthropic llevando a cabo un esfuerzo estrictamente controlado llamado Proyecto Glasswing, destinado a encontrar vulnerabilidades críticas en el software antes que los atacantes.

Resumen

  • OpenAI está finalizando un producto de ciberseguridad en IA para su lanzamiento primero a un grupo limitado de socios.
  • El Proyecto Glasswing de Anthropic es una iniciativa controlada centrada en cazar proactivamente vulnerabilidades críticas en el software.
  • Ambos esfuerzos plantean preguntas fundamentales sobre quién controla las herramientas de ofensiva y defensa en IA y quién es responsable cuando algo sale mal.

La inteligencia artificial ha pasado de ser una herramienta que ayuda a los defensores a entender amenazas a una que puede encontrar y explotar vulnerabilidades de forma independiente. OpenAI y Anthropic ahora están construyendo directamente en ese espacio, con implicaciones para gobiernos, empresas y los millones de sistemas de software que sustentan la infraestructura financiera global.

OpenAI Finaliza Producto de Seguridad mientras Anthropic Ejecuta Glasswing

OpenAI está finalizando un producto de ciberseguridad en IA con capacidades avanzadas y planea lanzarlo inicialmente a un grupo limitado de socios, según Tech Startups. Anthropic está llevando a cabo un esfuerzo paralelo internamente llamado Proyecto Glasswing, una iniciativa estrictamente controlada diseñada para cazar vulnerabilidades críticas en el software antes de que los actores maliciosos las encuentren primero.

Los anuncios duales marcan un cambio en cómo los dos principales laboratorios de IA se están posicionando. Ambos están pasando de IA de propósito general a productos específicos de seguridad con capacidades ofensivas y defensivas directas. La pregunta ya no es qué puede hacer la IA en ciberseguridad. Es quién la controla y quién es responsable cuando algo sale mal.

Lo que muestra el historial de Anthropic

Anthropic ya ha demostrado la escala de lo que las herramientas de seguridad en IA pueden lograr. Como informó crypto.news, la compañía limitó el acceso a su modelo Claude Mythos Preview después de que las pruebas iniciales descubrieran que podía detectar miles de vulnerabilidades críticas en entornos de software ampliamente utilizados, incluyendo un error de 27 años en OpenBSD y una falla de ejecución remota de 16 años en FreeBSD. Anthropic dijo: “Dado el ritmo del progreso en IA, no pasará mucho tiempo antes de que tales capacidades se generalicen, potencialmente más allá de los actores comprometidos con desplegarlas de manera segura.”

Datos de la industria citados por Anthropic muestran un aumento del 72% interanual en ciberataques impulsados por IA, con un 87% de organizaciones globales reportando exposición a incidentes habilitados por IA en 2025. El Proyecto Glasswing se posiciona como el esfuerzo controlado de Anthropic para mantenerse por delante de esa curva.

El riesgo de herramientas de seguridad en IA de doble uso

El problema más profundo para reguladores y la industria es que la misma herramienta de IA que encuentra una vulnerabilidad defensivamente puede encontrarla ofensivamente. Como señaló crypto.news, un estudio conjunto de Anthropic y MATS Fellows encontró que Claude Sonnet y GPT-5 podrían producir exploits simulados contra contratos inteligentes de Ethereum por valor de 4.6 millones de dólares en pruebas, y descubrieron dos vulnerabilidades zero-day novedosas en casi 3,000 contratos desplegados recientemente.

Esa realidad de doble uso hace que las estrategias de despliegue controlado que persiguen ambas empresas sean esenciales. Pero la pregunta de si el acceso limitado es suficiente para prevenir la proliferación es una que ninguna de las dos laboratorios ha respondido completamente.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado