V Deus partilha: Como construir um ambiente de trabalho de IA totalmente local, discreto e sob controlo próprio e independente

Vitalik Buterin apresenta uma arquitectura de IA a ser executada localmente, destacando a privacidade, a segurança e a auto-soberania, e alerta para os riscos potenciais dos agentes de IA.

O fundador da Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu website pessoal, partilhando a configuração do seu ambiente de trabalho em IA — construído com a privacidade, a segurança e a auto-soberania como prioridades — no qual a inferência de todos os LLM é executada localmente, todos os ficheiros são guardados localmente, e tudo está totalmente isolado em sandbox, evitando deliberadamente modelos em nuvem e APIs externas.

Logo no início do artigo, faz um aviso: «Por favor, não copie directamente as ferramentas e as tecnologias descritas neste artigo e assuma que são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»

Porque é que escreve agora? Os problemas de segurança de agentes de IA são subestimados

Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agentes» — já não se trata apenas de fazer perguntas, mas de entregar tarefas, fazendo com que a IA pense durante longos períodos e invoque centenas de ferramentas para as executar. Ele dá como exemplo o OpenClaw (atualmente o repositório que mais cresce na história do GitHub) e cita também vários problemas de segurança registados por investigadores:

  • Os agentes de IA podem alterar definições críticas sem confirmação humana, incluindo adicionar novos canais de comunicação e modificar prompts do sistema
  • Analisar qualquer entrada externa maliciosa (por exemplo, uma página web maliciosa) pode fazer com que o agente seja totalmente controlado; numa demonstração da HiddenLayer, os investigadores fizeram com que a IA resumisse um conjunto de páginas, escondendo uma página maliciosa que ordenava ao agente para descarregar e executar um script de shell
  • Alguns pacotes de competências de terceiros (skills) executam fugas silenciosas de dados, enviando os dados para servidores externos controlados pelos autores das skills através de instruções curl
  • Nas skills que analisaram, cerca de 15% contêm instruções maliciosas

Vitalik enfatiza que o seu ponto de partida em privacidade é diferente do dos investigadores tradicionais de cibersegurança: «Venho de uma perspectiva profundamente receosa em relação à ideia de entregar toda a vida pessoal a uma IA na nuvem — e quando, finalmente, a criptografia fim-a-fim e software com prioridade local se tornam mainstream, nós podemos, afinal, estar a recuar dez passos».

Cinco objectivos de segurança

Definiu um enquadramento claro para objectivos de segurança:

  • Privacidade de LLM: em cenários que envolvam dados pessoais sensíveis, reduzir ao máximo o uso de modelos remotos
  • Outra privacidade: minimizar fugas de dados que não sejam de LLM (por exemplo, pesquisas e outras APIs online)
  • Escape de LLM: impedir que conteúdo externo «invada» o meu LLM, fazendo-o contrariar os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
  • LLM acidental: impedir que o LLM envie dados privados para o canal errado ou os publique na rede por engano
  • Backdoor de LLM: impedir mecanismos ocultos intencionalmente treinados dentro do modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights); quase nenhum é realmente de código aberto (open-source)

Escolhas de hardware: 5090 ultrapassa os portáteis; DGX Spark desilude

Vitalik testou três configurações de hardware para inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:

Hardware Qwen3.5 35B (tokens/sec) Qwen3.5 122B (tokens/sec)
NVIDIA 5090 portátil (24GB VRAM) 90 não consegue executar
AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) 51 18
DGX Spark (128GB) 60 22

A sua conclusão é: abaixo de 50 tok/sec é demasiado lento; 90 tok/sec é o ideal. O NVIDIA 5090 portátil proporciona a experiência mais fluida; a AMD ainda tem mais problemas nos limites, mas espera-se que melhore no futuro. Um MacBook Pro topo de gama também é uma opção válida, embora ele pessoalmente não o tenha testado.

Sobre o DGX Spark, foi directo e pouco diplomático: «É descrito como um “supercomputador de IA para secretária”, mas na prática os tokens/sec são mais baixos do que os de uma boa GPU de portátil — e ainda por cima há que tratar de detalhes adicionais como a ligação à rede. Isto é fraquíssimo.» A sua recomendação é: «Se não conseguir comprar um portátil topo de gama, partilhe a compra de uma máquina suficientemente potente com amigos, coloque-a num local com IP fixo e use-a com ligações remotas em conjunto.»

Porque os problemas de privacidade da IA local são mais urgentes do que imaginas

O artigo de Vitalik, em paralelo com a discussão dos problemas de segurança do Claude Code lançado no mesmo dia, cria uma correspondência interessante — à medida que os agentes de IA entram nos fluxos de trabalho quotidianos de desenvolvimento, as questões de segurança também estão a passar de riscos teóricos a ameaças reais.

A mensagem central é muito clara: no momento em que as ferramentas de IA ficam cada vez mais poderosas e cada vez mais capazes de aceder aos teus dados pessoais e permissões do sistema, «privacidade local, isolamento em sandbox e confiança mínima» não é paranoia — é um ponto de partida racional.

  • Este artigo foi republicado mediante autorização de: «LianNews»
  • Título original: «Vitalik: Como é que construí um ambiente de trabalho de IA totalmente local, privado e sob controlo próprio»
  • Autor do original: Elponcrab
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Bytedance nega notícia sobre a entrada do investigador da DeepSeek, Guo Daya, com um salário de centenas de milhões de yuan

A Bytedance negou os relatos de que o investigador Guo Daya se tivesse juntado à sua equipa Seed com um salário de 100 milhões de yuan. Guo confirmou o seu cargo como líder de agentes, mas os detalhes do salário não foram divulgados, enquanto as estruturas de remuneração da equipa são uniformes.

GateNews2h atrás

A Sequoia Capital angaria $7 mil milhões para um novo fundo liderado por Alfred Lin e Pat Grady

A Sequoia Capital angariou $7 mil milhões para um novo fundo sob a gestão de Alfred Lin e Pat Grady, com foco em startups de IA como a OpenAI e a Anthropic. Esta é uma mudança de estratégia, permitindo investimentos em empresas concorrentes dentro do mesmo sector.

GateNews2h atrás

A Minyue Technology garante financiamento pré-B+ para sistemas de soldadura com IA

A Minyue Technology garantiu financiamento pré-B+ para melhorar os seus sistemas de soldadura e corte, expandir a infraestrutura de dados e prosseguir o crescimento internacional, na sequência de uma ronda pré-B bem-sucedida. A empresa especializa-se em tecnologia avançada de soldadura e pretende conquistar mais mercados globais.

GateNews2h atrás

Manycore Tech Angaria $156M no IPO de Hong Kong, Mudando o Foco para Serviços de IA e Robótica

A Manycore Tech angariou $156 milhões no seu IPO de Hong Kong, alterando o foco da remodelação doméstica para serviços de IA e robótica com recurso a dados proprietários de design 3D. Apesar de um aumento de 8,6% nas receitas, continua a registar prejuízos, o que reflete o interesse dos investidores em software de design especializado.

GateNews3h atrás

O produto de IA da Nvidia para computação quântica impulsiona uma subida das acções de 50%+ na IonQ e na D-Wave

A nova suite de produtos de IA da Nvidia, Ising, foi lançada a 14 de abril e melhora a correcção de erros quânticos, aumentando a velocidade em 2,5 vezes e a precisão em três vezes. Este anúncio fez disparar de forma significativa as acções de computação quântica, indicando forte interesse do mercado, mesmo num contexto de volatilidade.

GateNews3h atrás

OpenAI vai investir mais de $20 mil milhões em chips da Cerebras ao longo de 3 anos e adquirir uma participação acionista

A OpenAI pretende investir mais de $20 mil milhões em chips da Cerebras para servidores ao longo de três anos e irá adquirir participação acionista na Cerebras, reforçando as capacidades de treino e infra-estruturas de IA.

GateNews3h atrás
Comentar
0/400
Nenhum comentário