V神 partilha: como criar um ambiente de trabalho de IA totalmente local, discreto e totalmente sob controlo e autonomia

Vitalik Buterin propôs uma arquitectura de IA executada localmente, salientando a privacidade, a segurança e a soberania própria, e alertando para os potenciais riscos dos agentes de IA.

O fundador da Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu site pessoal, partilhando a configuração do seu ambiente de trabalho em IA, construído com a privacidade, a segurança e a soberania própria como base — com toda a inferência de LLM a ser executada localmente, todos os ficheiros guardados localmente, e um sandboxing completo, evitando deliberadamente modelos na cloud e APIs externas.

Logo no início, o artigo avisa: «Por favor, não copie as ferramentas e tecnologias descritas neste artigo e assuma que são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»

Porque é que agora escrevo este texto? Os problemas de segurança dos agentes de IA estão a ser seriamente subestimados

Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agents» — já não se trata apenas de colocar perguntas, mas de entregar tarefas, fazendo a IA pensar durante muito tempo e chamar centenas de ferramentas para as executar. Ele dá como exemplo o OpenClaw (actualmente o repo com crescimento mais rápido na história do GitHub) e identifica também vários problemas de segurança registados por investigadores:

  • Um agente de IA pode modificar definições críticas sem confirmação humana, incluindo adicionar novos canais de comunicação e alterar instruções do sistema
  • A análise de qualquer entrada externa maliciosa (por exemplo, uma página maliciosa) pode levar a que o agente seja completamente controlado; num exemplo apresentado pela HiddenLayer, os investigadores fizeram o AI resumir um conjunto de páginas, incluindo uma página maliciosa que manda o agente descarregar e executar um script de shell
  • Algumas skills de terceiros (skills) executam uma fuga silenciosa de dados, enviando os dados para um servidor externo controlado pelo autor da skill através do comando curl
  • Entre as skills que analisaram, cerca de 15% incluem comandos maliciosos

Vitalik sublinha que o seu ponto de partida para a privacidade é diferente do dos investigadores tradicionais de segurança informática: «Venho de uma posição profundamente receosa de que dar toda a vida pessoal das pessoas ao AI na cloud — e isso mesmo enquanto a cifragem de ponta a ponta e software com prioridade no local finalmente se tornam mainstream — pode fazer-nos recuar dez passos, quando na verdade deveríamos estar a avançar.»

Cinco objectivos de segurança

Ele definiu um enquadramento claro de objectivos de segurança:

  • Privacidade do LLM: em cenários que envolvam dados pessoais, reduzir ao máximo o uso de modelos remotos
  • Outra privacidade: minimizar a fuga de dados que não são de LLM (como pesquisas, outras APIs online)
  • Escape de LLM: impedir que conteúdos externos «invadam» o meu LLM, levando-o a contrariar os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
  • LLM acidental: impedir que o LLM envie, por engano, dados privados para o canal errado ou os publique na Internet
  • Backdoor de LLM: impedir mecanismos ocultos que foram deliberadamente treinados no modelo. Ele chama especialmente a atenção: modelos abertos são pesos abertos (open-weights); quase nenhum é verdadeiramente código aberto (open-source)

Escolhas de hardware: a 5090 ultrapassa a DGX Spark, que é decepcionante

Vitalik testou três configurações de hardware de inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:

Hardware Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090 portátil(24GB VRAM) 90 não consegue executar
AMD Ryzen AI Max Pro(128GB de memória unificada, Vulkan) 51 18
DGX Spark(128GB) 60 22

A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é o ideal. A experiência com a NVIDIA 5090 portátil foi a mais fluida; a AMD ainda tem mais problemas nas margens, mas no futuro espera-se que melhore. Um MacBook de gama alta também é uma opção eficaz, embora ele pessoalmente não o tenha testado.

Sobre a DGX Spark, ele foi bastante directo: «Ao descreverem-na como um ‘supercomputador de IA para desktop’, mas na prática os tokens/sec são mais baixos do que na melhor GPU de um portátil, e ainda é preciso resolver detalhes adicionais como a ligação de rede — isto é fraco.» A sua recomendação é: se não conseguir pagar um portátil topo de gama, pode comprar em conjunto com amigos uma máquina suficientemente potente, colocá-la num local com um IP fixo e usar todos a ligação remota para trabalhar a partir daí.

Porque os problemas de privacidade da IA local são mais urgentes do que imaginas

Este artigo de Vitalik, em sintonia com a discussão sobre os problemas de segurança do Claude Code lançada no mesmo dia, cria um eco interessante — à medida que os agentes de IA entram nos fluxos de trabalho quotidianos de desenvolvimento, os problemas de segurança também estão a passar do risco teórico para uma ameaça real.

A sua mensagem central é muito clara: no momento em que as ferramentas de IA ficam cada vez mais poderosas e cada vez mais capazes de aceder aos teus dados pessoais e permissões de sistema, «prioridade ao local, sandboxing e confiança mínima» não é paranoia, é um ponto de partida racional.

  • Este artigo foi republicado com autorização de: 《鏈新聞》
  • Título do original: 《Vitalik:Como eu criei um ambiente de trabalho em IA totalmente local, privado e sob controlo próprio》
  • Autor do original: Elponcrab
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Cofundador da Ethereum Lubin: a IA será um ponto de virada crítico para o cripto, mas o monopólio de gigantes de tecnologia traz risco sistêmico

O cofundador da Ethereum, Joseph Lubin, destacou o potencial transformador da IA para o setor de criptomoedas, ao mesmo tempo em que alertou sobre os riscos de centralização entre gigantes da tecnologia. Ele prevê transações autônomas impulsionadas por IA na blockchain e destaca a convergência entre as finanças tradicionais e a DeFi.

GateNews48m atrás

Elon Musk Defende Cheques de “Renda Universal Alta” como Solução Definitiva para o Desemprego na IA

Elon Musk defende uma Renda Universal de Alta Renda para combater o desemprego causado pela IA, vislumbrando um futuro com muitos bens e inflação zero. Em contraste, especialistas como Sam Altman levantam preocupações sobre perda de empregos e propõem medidas de proteção para os trabalhadores.

Coinpedia57m atrás

DeepSeek Supostamente Lança Primeira Rodada de Captação Externa, Mirando Avaliação de US$ 10B+ e US$ 300M+

DeepSeek, uma startup chinesa de IA, está negociando sua primeira rodada de financiamento externo, com o objetivo de levantar pelo menos $300 milhões em uma avaliação de $10 bilhões. Apesar de rejeições anteriores a ofertas de investimento, as discussões de captação agora supostamente estão em andamento.

GateNews1h atrás

Publicidade do ChatGPT avança para Austrália e Nova Zelândia: Free e usuários do Go primeiro, planos pagos mantêm sem anúncios

A OpenAI, em 17 de abril de 2023, expandiu os anúncios do ChatGPT para a Austrália, Nova Zelândia e Canadá, para usuários do Free e do Go, enquanto os usuários pagantes não veem anúncios. Essa iniciativa marca o segundo caminho para a comercialização da IA e, ao considerar riscos comerciais e regulatórios, a exibição de anúncios pode promover conversões pagas.

ChainNewsAbmedia3h atrás

Hyundai Motor Group se reorganiza em torno de IA e robótica, mirando 30.000 robôs Atlas até 2030

O Hyundai Motor Group está se reorganizando para focar em IA e robótica, reduzindo operações tradicionais. A empresa planeja um investimento de US$ 34,3 bilhões em robótica até 2030 e pretende lançar um modelo de robótica como serviço, colaborando com a Google DeepMind e a NVIDIA.

GateNews6h atrás

A NEA explora o uso de inteligência artificial na regulamentação nuclear

O Grupo de Trabalho da NEA sobre Novas Tecnologias realizou um workshop nos dias 25–26 de março, com foco em como a inteligência artificial pode ser aplicada à supervisão regulatória e às operações internas dentro de autoridades nucleares. Resumo O workshop da NEA explorou aplicações reais de IA na regulamentação nuclear, com

Cryptonews9h atrás
Comentário
0/400
Sem comentários