¡La IA está transformando la guerra moderna! La velocidad de toma de decisiones se comprime de días a segundos, pero ¿cómo se resuelven las controversias éticas?

El ejército de EE. UU. implementa sistemas de IA para comprimir la cadena de letalidad a segundos, aumentando la eficiencia de los ataques de precisión; sin embargo, debido a un juicio erróneo, se produjeron víctimas civiles y surgió un debate sobre la asignación de responsabilidades.

La IA acorta la «cadena de letalidad»; las decisiones en el campo de batalla se comprimen de días a segundos

La inteligencia artificial está reconfigurando rápidamente la forma de hacer la guerra moderna. Según múltiples informes, el ejército de EE. UU. ha introducido recientemente sistemas de IA en operaciones militares para el reconocimiento de objetivos y la toma de decisiones de ataque, comprimiendo los procesos tradicionales de recopilación y análisis de inteligencia que solían requerir varios días a minutos e incluso segundos.

El sistema central incluye la plataforma inteligente Maven, desarrollada por Palantir, que combina datos procedentes de satélites, drones y antecedentes de inteligencia, y realiza la integración y el análisis mediante grandes modelos de lenguaje. El sistema puede generar automáticamente listas de objetivos de ataque, con coordenadas GPS, tipos de armas sugeridos e incluso una evaluación legal preliminar, para que los comandantes tomen decisiones con rapidez.

El Mando Central del ejército de EE. UU. señala que la IA puede ayudar al sistema de mando a filtrar rápidamente las señales clave entre grandes volúmenes de información, mejorando la eficiencia de las decisiones y el ritmo de las operaciones.

No obstante, esto también significa que el ritmo del campo de batalla se acelera aún más: de forma gradual, pasa de «la toma de decisiones liderada por humanos» a «colaboración humano-máquina» e incluso, en ciertos escenarios, se observa la tendencia a depender en gran medida de los juicios de las máquinas.

Lectura ampliada
The Wall Street Journal: Después de que Trump emite una orden de veto a Anthropic, EE. UU. e Israel siguen dependiendo de Claude en sus ataques aéreos contra Irán

Se mejora la capacidad de ataques de precisión, y al mismo tiempo se reducen costos de personal y el umbral

La introducción de IA reduce de manera significativa el umbral de la guerra, haciendo que, con el tiempo, las capacidades de ataque de precisión que antes requerían el apoyo de sistemas masivos de inteligencia se vuelvan gradualmente replicables o incluso subcontratables. Según el reporte de ABC News, por ejemplo, en el caso de Irán, la Guardia Revolucionaria ha comenzado a utilizar imágenes satelitales comerciales y herramientas de análisis de IA para construir rápidamente una base de datos de objetivos y llevar a cabo ataques de precisión.

La tecnología de análisis de imágenes proporcionada por la empresa china de IA espacial MizarVision puede identificar automáticamente instalaciones de aeropuertos, sistemas de radar, zonas de almacenamiento de combustible y centros de mando, y además agregar etiquetas geográficas, integrándola directamente en los sistemas de operaciones. Esta tecnología convierte capacidades que antes dependían de satélites militares altamente clasificados en recursos que pueden obtenerse a través de plataformas comerciales.

Fuente de la imagen: La tecnología de análisis de imágenes proporcionada por la empresa china de IA espacial MizarVision, puede identificar automáticamente instalaciones del aeropuerto, sistemas de radar, zonas de almacenamiento de combustible y centros de mando.

Los análisis señalan que la aparición de esta «inteligencia militar descentralizada» permite que países pequeños o de capacidades bélicas asimétricas también logren ataques de precisión a un costo menor. Por ejemplo, los ataques dirigidos a nodos clave como sistemas de defensa aérea, abastecimiento de combustible e instalaciones de reparación pueden debilitar de forma efectiva la capacidad de combate general del adversario, en lugar de realizar bombardeos a gran escala.

La IA se equivoca y causa una catástrofe; las víctimas civiles desatan controversias sobre a quién corresponde la responsabilidad

Sin embargo, la alta eficiencia de la IA no ha traído un nivel de precisión equivalente. Parte de las evaluaciones muestran que la tasa de acierto de reconocimiento de objetivos del sistema de IA es de aproximadamente 60%, que aún está por debajo del nivel de alrededor del 84% de los analistas humanos. Esta brecha puede traer consecuencias graves en operaciones reales.

En un ataque aéreo reciente, una escuela primaria de niñas en Irán fue incluida como objetivo de ataque, lo que causó la muerte de más de 165 civiles. Se considera que dicho objetivo formaba parte de una de las listas generadas con asistencia de IA. El Pentágono indicó que el incidente involucró inteligencia desactualizada; actualmente ya se ha iniciado una investigación, pero el hecho ha generado una fuerte atención en el Congreso de EE. UU. y en la comunidad internacional.

Más de 120 legisladores pidieron aclarar el papel de la IA en la toma de decisiones y cuestionaron quién debe asumir la responsabilidad cuando ocurre un error. Los expertos en guerra señalan que, cuando los procesos de decisión se automatizan, «la cadena de responsabilidad» se vuelve borrosa: se extiende desde los comandantes militares hasta ingenieros de software y proveedores de tecnología, y las fronteras legales y éticas enfrentan desafíos sin precedentes.

La tecnología comercial se involucra plenamente en el campo de batalla; los límites de la guerra siguen difuminándose

Este conflicto también revela otra tendencia clave: la línea entre tecnología comercial y operaciones militares se está desvaneciendo rápidamente. Irán ya ha hecho público que varias empresas tecnológicas estadounidenses figuran como posibles objetivos de ataque, incluidos proveedores de servicios en la nube y de infraestructura de IA, lo que muestra que el campo de batalla se ha expandido más allá de los emplazamientos militares tradicionales hacia el plano digital y de la infraestructura.

Algunos ataques incluso alcanzaron centros de datos en la región de Oriente Medio, reflejando que la guerra con IA no solo es un enfrentamiento militar, sino también una cuestión de seguridad de infraestructura digital y de la cadena global de suministro. Cuando los sistemas de IA dependen de operar sobre nubes comerciales, estas plataformas también se convierten en uno de los objetivos estratégicos.

Los expertos señalan que la competencia central de las guerras futuras ya no consistirá solamente en la cantidad de armas o la intensidad del poder de fuego, sino en quién puede interpretar los datos con mayor rapidez y convertirlos en acciones.

La IA no solo acelera la toma de decisiones en la guerra, sino que también amplifica los errores y los riesgos. Si no se cuenta con una supervisión eficaz y mecanismos de transparencia, es posible que surja un conflicto difícil de conciliar entre eficiencia y humanidad.

Este contenido ha sido generado mediante un resumen de información de varias partes por Agent cifrado; revisión y edición de 《加密城市》. Actualmente aún se encuentra en fase de capacitación. Podría haber desviaciones lógicas o errores de información; el contenido se proporciona solo como referencia. No debe considerarse una recomendación de inversión.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

Shinsegae Group abandona la colaboración con OpenAI por una asociación con Reflection AI y cambia su estrategia minorista

El grupo Shinsegae ha detenido su asociación con OpenAI y ha optado por una colaboración ampliada con Reflection AI para mejorar la IA en las operaciones minoristas. Esta decisión busca agilizar los esfuerzos y abordar las preocupaciones sobre la eficacia del comercio impulsado por IA.

GateNewsHace30m

OpenAI y Google Agregan Soporte para el Formato HWP; Hancom Busca un Repunte de Valuación

ChatGPT de OpenAI ahora admite los formatos de archivo HWP y HWPX, lo que permite a los usuarios coreanos subir documentos directamente para su análisis sin necesidad de conversión. Esto mejora la usabilidad para las empresas locales y podría impulsar la recuperación de la cotización de Hancom en medio de las caídas recientes.

GateNewsHace30m

Google elimina 175,5M de anuncios en Corea del Sur usando la aplicación con IA y suspende 326K cuentas de anunciantes

En 2025, Google eliminó 175,5 millones de anuncios infractores en Corea del Sur mediante IA, suspendió 326.000 cuentas y se enfrentó a una multa de $50 millones por infracciones de privacidad, lo que pone de manifiesto una tendencia de aumento de la aplicación y el papel de la IA para combatir el fraude publicitario.

GateNewsHace30m

Se espera que Naver y Kakao reporten sólidos resultados del Q1 a medida que continúan las inversiones en IA

Se espera que Naver y Kakao reporten sólidos resultados del Q1 2026 impulsados por el comercio y la publicidad, a pesar del impacto limitado de los productos de IA en etapas iniciales. Ambas compañías están invirtiendo significativamente en infraestructura de IA y cambiando estrategias para integrar la IA en los servicios existentes.

GateNewshace1h

Anthropic lanza Claude Opus 4.7 con capacidades cibernéticas debilitadas

Anthropic lanzó una versión mejorada de su modelo insignia, Claude Opus 4.7, el 16 de abril a (hora local). En comparación con el modelo Opus 4.6 anterior, Opus 4.7 demuestra "mejoras significativas" en capacidades avanzadas de ingeniería de software, en particular en tareas difíciles, con mayor rigor y consistencia en operaciones complejas y de larga duración, además de capacidades de visión mejoradas. Sin embargo, Anthropic debilitó deliberadamente las capacidades de ataque-defensa en ciberseguridad del modelo durante el entrenamiento e introdujo mecanismos de seguridad para detectar y bloquear automáticamente solicitudes prohibidas o de alto riesgo.

CryptoFrontierhace1h

xAI proporcionará una enorme potencia de cómputo con GPUs a Cursor para el entrenamiento del modelo de código con IA

Elon Musk's xAI proporcionará potencia informática a la startup de programación Cursor, utilizando miles de GPUs para entrenar su nuevo modelo de código. Este cambio amplía el papel de xAI en los servicios informáticos, lo que podría aumentar los ingresos y abordar los costos operativos en medio de pérdidas continuas.

GateNewshace1h
Comentar
0/400
Sin comentarios