A IA está a transformar a guerra moderna! A velocidade de decisão passa de dias para segundos, mas como é que ficam as questões éticas?

As Forças Armadas dos EUA introduziram sistemas de IA para comprimir a cadeia de ataque letal para poucos segundos, aumentando a eficiência do ataque de precisão, mas, devido a julgamentos errados, provocaram vítimas civis e deram origem a uma polémica sobre a responsabilização.

A IA encurta a «cadeia de ataque letal»; as decisões no campo de batalha passam de dias para segundos

A inteligência artificial está a remodelar rapidamente a forma como a guerra moderna é conduzida. De acordo com informações de várias fontes, os EUA já terão introduzido recentemente sistemas de IA em operações militares para reconhecimento de alvos e decisões de ataque, fazendo com que os processos tradicionais, que antes demoravam vários dias para recolha e análise de informações, sejam comprimidos para minutos ou até segundos.

O sistema central inclui a plataforma inteligente Maven desenvolvida pela Palantir, que combina dados provenientes de satélites, drones e registos históricos de inteligência, e integra-os e analisa-os através de modelos de linguagem de grande escala. O sistema pode gerar automaticamente uma lista de alvos de ataque, com coordenadas GPS, tipos de armas recomendados e até uma avaliação jurídica preliminar, para permitir que os comandantes decidam rapidamente.

O Comando Central dos EUA afirma que a IA pode ajudar o sistema de comando a filtrar rapidamente sinais-chave a partir de enormes quantidades de informação, melhorando a eficiência da decisão e o ritmo das operações.

No entanto, isso também significa que o ritmo do campo de batalha acelera ainda mais, passando gradualmente de «decisão liderada por humanos» para «colaboração homem-máquina», e até surgindo a tendência de uma elevada dependência de juízos da máquina em certos cenários.

Leitura adicional
The Wall Street Journal: depois de Trump impor uma proibição contra a Anthropic, EUA e Israel continuam a depender de Claude nos ataques aéreos ao Irão

Com capacidade de ataque de precisão melhorada, simultaneamente com custos e barreiras de mão de obra mais baixos

A introdução da IA reduz significativamente as barreiras da guerra, tornando progressivamente as capacidades de ataque de precisão, que antes dependiam de vastos sistemas de informações, mais fáceis de replicar e até de terceirizar. De acordo com um relatório da rede de notícias da ABC News, no caso do Irão, a Guarda Revolucionária já começou a utilizar imagens de satélite comerciais e ferramentas de análise de IA para estabelecer rapidamente uma base de dados de alvos e realizar ataques de precisão.

A tecnologia de análise de imagens fornecida pela empresa de IA de geoespacial chinesa MizarVision consegue reconhecer automaticamente instalações de aeroportos, sistemas de radar, zonas de armazenamento de combustível e centros de comando, e acrescenta etiquetas geográficas para integração direta nos sistemas de operações. Esta tecnologia faz com que capacidades que antes dependiam de satélites militares altamente sigilosos se transformem em recursos que podem ser obtidos através de plataformas comerciais.

Fonte da imagem: a tecnologia de análise de imagens fornecida pela empresa de IA de geoespacial chinesa MizarVision, na ABC News

A análise indica que o surgimento desta «inteligência militar descentralizada» permite que países pequenos e médios ou forças de guerra assimétrica também alcancem ataques de precisão com custos mais baixos. Por exemplo, ao visar nós críticos como sistemas de defesa aérea, instalações de abastecimento de combustível e instalações de manutenção, é possível enfraquecer eficazmente a capacidade de combate global do adversário, em vez de realizar bombardeamentos abrangentes.

A IA erra e causa tragédia; mortes de civis desencadeiam polémica sobre a atribuição de responsabilidades

No entanto, a alta eficiência da IA não trouxe a mesma medida de precisão. Algumas avaliações indicam que a taxa de acerto do reconhecimento de alvos dos sistemas de IA é de cerca de 60%, ainda inferior ao nível de cerca de 84% dos analistas humanos. Esta diferença, na prática, pode trazer consequências graves.

Numa recente operação de ataque aéreo, uma escola primária de raparigas no Irão foi listada como alvo de ataque, causando mais de 165 mortes de civis. Aquele alvo é considerado um dos itens de uma lista gerada com apoio da IA. O Pentágono afirmou que o incidente envolveu informação desatualizada; que já foi iniciada uma investigação, mas o incidente gerou forte atenção no Congresso dos EUA e na comunidade internacional.

Mais de 120 membros do Congresso pediram esclarecimentos sobre o papel da IA na tomada de decisões e questionaram quem deve ser responsabilizado quando ocorre um erro. Especialistas em guerra apontam que, quando o processo de decisão é automatizado, «a cadeia de responsabilidade» se torna mais difusa, estendendo-se do comandante militar aos engenheiros de software e aos fornecedores de tecnologia, enquanto as fronteiras entre a lei e a ética enfrentam desafios sem precedentes.

Tecnologia comercial entra em massa no campo de batalha; os limites da guerra continuam a esbater-se

O conflito também revela outra tendência-chave: a fronteira entre tecnologia comercial e operações militares está a desaparecer rapidamente. O Irão já anunciou publicamente várias empresas de tecnologia dos EUA como potenciais alvos de ataque, incluindo fornecedores de serviços de cloud e infraestruturas de IA, demonstrando que o campo de batalha se expandiu para além de bases militares tradicionais, passando para a camada digital e de infraestruturas.

Alguns ataques chegaram até a abranger centros de dados em cloud na região do Médio Oriente, reflectindo que a guerra com IA não é apenas um confronto militar, mas também envolve a segurança das infraestruturas digitais e das cadeias globais de abastecimento. Quando os sistemas de IA dependem da cloud comercial para funcionar, estas plataformas também se tornam um dos alvos estratégicos.

Os especialistas afirmam que, no futuro, a concorrência central nas guerras deixará de ser apenas a quantidade de armas ou a intensidade do poder de fogo, e passará a ser quem consegue analisar os dados mais rapidamente e transformá-los em acção.

A IA não só acelera as decisões de guerra como também amplifica erros e riscos; na ausência de uma supervisão eficaz e de mecanismos de transparência, poderá surgir um conflito difícil de conciliar entre eficiência e humanidade.

Este conteúdo foi gerado pela Agent de Criptografia, que compila informações de várias fontes, e foi revista e editado pelo «Cidade Criptografada»; neste momento ainda se encontra em fase de formação. Pode haver desvios de lógica ou erros de informação. O conteúdo serve apenas para referência; não o encare como uma recomendação de investimento.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Esquece o Cartaz Animado de Olhos Mortos — A Meta está a construir um clone de IA fotorrealista de Zuckerberg

A Meta está a desenvolver uma versão de IA fotorrealista de Mark Zuckerberg para melhorar o envolvimento dos colaboradores através de interações realistas, mudando dos ambientes do metaverso para uma liderança orientada por IA. O projeto tem como objetivo proporcionar acesso escalável e constante à persona do CEO.

Decrypt1h atrás

Claude Mythos ameaça a segurança financeira? O ministro das Finanças dos EUA e o presidente da Reserva Federal reúnem-se de urgência para alertar para os riscos

O secretário do Tesouro dos EUA e o presidente da Reserva Federal convocaram os principais dirigentes de Wall Street, avisando que o modelo de IA Mythos poderá representar um risco sistémico para o sistema financeiro. O Mythos consegue descobrir automaticamente uma grande quantidade de falhas; a Anthropic decidiu limitar a sua divulgação pública e lançou o «Projeto Asas de Vidro» para reforçar a cibersegurança.

CryptoCity1h atrás

As fotos íntimas do Justin Bieber são divulgadas! A influenciadora de IA conquista o festival de música Coachella, a autenticidade é difícil de distinguir, gerando preocupação

Recentemente, vários influenciadores virtuais de IA publicaram no festival Coachella fotografias íntimas com nomes conhecidos, como a estrela pop Justin Bieber, sem assinalar que se tratava de conteúdo de IA, o que suscitou preocupações sobre a insuficiência dos mecanismos de divulgação da plataforma. À medida que os interesses comerciais impulsionam a ascensão dos influenciadores de IA, o seu crescimento poderá levar a uma diminuição da confiança do público na autenticidade.

ChainNewsAbmedia4h atrás

Na região de Irkutsk, na Rússia, foram apreendidos mais de 8000 locais de mineração ilegal de criptomoedas

Na região de Irkutsk, na Rússia, foram descobertas mais de 8000 instalações ilegais de mineração de criptomoedas, com formas de disfarce variadas. Desde 2019, a empresa já intentou 2170 processos, exigindo uma indemnização de 1850 milhões de dólares. Para estabilizar a rede eléctrica, está previsto recorrer à IA para identificar os locais de mineração ilegais.

GateNews4h atrás

Será que o Claude Mythos ameaça a segurança financeira? O ministro das Finanças dos EUA e o presidente da Reserva Federal reúnem-se com urgência para alertar para os riscos

O ministro das Finanças dos EUA e o presidente da Reserva Federal convocaram os principais executivos de Wall Street, alertando que o modelo de IA Mythos pode representar um risco sistémico para o sistema financeiro. O Mythos consegue descobrir autonomamente grandes quantidades de vulnerabilidades; a Anthropic optou por limitar a sua disponibilização pública e iniciou o «Projeto Asa de Vidro» para reforçar a cibersegurança.

CryptoCity4h atrás

O Claude Mythos ameaça a segurança financeira? O Secretário do Tesouro dos EUA e o presidente da Reserva Federal reúnem-se de urgência para alertar para os riscos

O ministro das Finanças dos EUA e o presidente da Reserva Federal convocaram os principais executivos de Wall Street, alertando que o modelo de IA Mythos pode representar um risco sistémico para o sistema financeiro. O Mythos consegue descobrir autonomamente um grande número de vulnerabilidades; a Anthropic optou por limitar a sua divulgação pública e lançou o «Projeto Asas de Vidro» para reforçar a segurança na rede.

CryptoCity7h atrás
Comentário
0/400
Sem comentários