Básico
Spot
Opera con criptomonedas libremente
Margen
Multiplica tus beneficios con el apalancamiento
Convertir e Inversión automática
0 Fees
Opera cualquier volumen sin tarifas ni deslizamiento
ETF
Obtén exposición a posiciones apalancadas de forma sencilla
Trading premercado
Opera nuevos tokens antes de su listado
Contrato
Accede a cientos de contratos perpetuos
TradFi
Oro
Plataforma global de activos tradicionales
Opciones
Hot
Opera con opciones estándar al estilo europeo
Cuenta unificada
Maximiza la eficacia de tu capital
Trading de prueba
Introducción al trading de futuros
Prepárate para operar con futuros
Eventos de futuros
Únete a eventos para ganar recompensas
Trading de prueba
Usa fondos virtuales para probar el trading sin asumir riesgos
Lanzamiento
CandyDrop
Acumula golosinas para ganar airdrops
Launchpool
Staking rápido, ¡gana nuevos tokens con potencial!
HODLer Airdrop
Holdea GT y consigue airdrops enormes gratis
Pre-IPOs
Accede al acceso completo a las OPV de acciones globales
Puntos Alpha
Opera activos on-chain y recibe airdrops
Puntos de futuros
Gana puntos de futuros y reclama recompensas de airdrop
Inversión
Simple Earn
Genera intereses con los tokens inactivos
Inversión automática
Invierte automáticamente de forma regular
Inversión dual
Aprovecha la volatilidad del mercado
Staking flexible
Gana recompensas con el staking flexible
Préstamo de criptomonedas
0 Fees
Usa tu cripto como garantía y pide otra en préstamo
Centro de préstamos
Centro de préstamos integral
Centro de patrimonio VIP
Planes de aumento patrimonial prémium
Gestión patrimonial privada
Asignación de activos prémium
Quant Fund
Estrategias cuantitativas de alto nivel
Staking
Haz staking de criptomonedas para ganar en productos PoS
Apalancamiento inteligente
Apalancamiento sin liquidación
Acuñación de GUSD
Acuña GUSD y gana rentabilidad de RWA
Ciberseguridad con IA: Carrera entre OpenAI y Anthropic
La ciberseguridad en IA es ahora una frontera competitiva formal entre OpenAI y Anthropic, con OpenAI finalizando un producto avanzado de seguridad para su lanzamiento a socios limitados y Anthropic llevando a cabo un esfuerzo estrictamente controlado llamado Proyecto Glasswing, destinado a encontrar vulnerabilidades críticas en el software antes que los atacantes.
Resumen
La inteligencia artificial ha pasado de ser una herramienta que ayuda a los defensores a entender amenazas a una que puede encontrar y explotar vulnerabilidades de forma independiente. OpenAI y Anthropic ahora están construyendo directamente en ese espacio, con implicaciones para gobiernos, empresas y los millones de sistemas de software que sustentan la infraestructura financiera global.
OpenAI Finaliza Producto de Seguridad mientras Anthropic Ejecuta Glasswing
OpenAI está finalizando un producto de ciberseguridad en IA con capacidades avanzadas y planea lanzarlo inicialmente a un grupo limitado de socios, según Tech Startups. Anthropic está llevando a cabo un esfuerzo paralelo internamente llamado Proyecto Glasswing, una iniciativa estrictamente controlada diseñada para cazar vulnerabilidades críticas en el software antes de que los actores maliciosos las encuentren primero.
Los anuncios duales marcan un cambio en cómo los dos principales laboratorios de IA se están posicionando. Ambos están pasando de IA de propósito general a productos específicos de seguridad con capacidades ofensivas y defensivas directas. La pregunta ya no es qué puede hacer la IA en ciberseguridad. Es quién la controla y quién es responsable cuando algo sale mal.
Lo que muestra el historial de Anthropic
Anthropic ya ha demostrado la escala de lo que las herramientas de seguridad en IA pueden lograr. Como informó crypto.news, la compañía limitó el acceso a su modelo Claude Mythos Preview después de que las pruebas iniciales descubrieran que podía detectar miles de vulnerabilidades críticas en entornos de software ampliamente utilizados, incluyendo un error de 27 años en OpenBSD y una falla de ejecución remota de 16 años en FreeBSD. Anthropic dijo: “Dado el ritmo del progreso en IA, no pasará mucho tiempo antes de que tales capacidades se generalicen, potencialmente más allá de los actores comprometidos con desplegarlas de manera segura.”
Datos de la industria citados por Anthropic muestran un aumento del 72% interanual en ciberataques impulsados por IA, con un 87% de organizaciones globales reportando exposición a incidentes habilitados por IA en 2025. El Proyecto Glasswing se posiciona como el esfuerzo controlado de Anthropic para mantenerse por delante de esa curva.
El riesgo de herramientas de seguridad en IA de doble uso
El problema más profundo para reguladores y la industria es que la misma herramienta de IA que encuentra una vulnerabilidad defensivamente puede encontrarla ofensivamente. Como señaló crypto.news, un estudio conjunto de Anthropic y MATS Fellows encontró que Claude Sonnet y GPT-5 podrían producir exploits simulados contra contratos inteligentes de Ethereum por valor de 4.6 millones de dólares en pruebas, y descubrieron dos vulnerabilidades zero-day novedosas en casi 3,000 contratos desplegados recientemente.
Esa realidad de doble uso hace que las estrategias de despliegue controlado que persiguen ambas empresas sean esenciales. Pero la pregunta de si el acceso limitado es suficiente para prevenir la proliferación es una que ninguna de las dos laboratorios ha respondido completamente.