
Vitalik Buterin apresenta uma arquitectura de IA a ser executada localmente, destacando a privacidade, a segurança e a auto-soberania, e alerta para os riscos potenciais dos agentes de IA.
O fundador da Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu website pessoal, partilhando a configuração do seu ambiente de trabalho em IA — construído com a privacidade, a segurança e a auto-soberania como prioridades — no qual a inferência de todos os LLM é executada localmente, todos os ficheiros são guardados localmente, e tudo está totalmente isolado em sandbox, evitando deliberadamente modelos em nuvem e APIs externas.
Logo no início do artigo, faz um aviso: «Por favor, não copie directamente as ferramentas e as tecnologias descritas neste artigo e assuma que são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»
Porque é que escreve agora? Os problemas de segurança de agentes de IA são subestimados
Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agentes» — já não se trata apenas de fazer perguntas, mas de entregar tarefas, fazendo com que a IA pense durante longos períodos e invoque centenas de ferramentas para as executar. Ele dá como exemplo o OpenClaw (atualmente o repositório que mais cresce na história do GitHub) e cita também vários problemas de segurança registados por investigadores:
- Os agentes de IA podem alterar definições críticas sem confirmação humana, incluindo adicionar novos canais de comunicação e modificar prompts do sistema
- Analisar qualquer entrada externa maliciosa (por exemplo, uma página web maliciosa) pode fazer com que o agente seja totalmente controlado; numa demonstração da HiddenLayer, os investigadores fizeram com que a IA resumisse um conjunto de páginas, escondendo uma página maliciosa que ordenava ao agente para descarregar e executar um script de shell
- Alguns pacotes de competências de terceiros (skills) executam fugas silenciosas de dados, enviando os dados para servidores externos controlados pelos autores das skills através de instruções curl
- Nas skills que analisaram, cerca de 15% contêm instruções maliciosas
Vitalik enfatiza que o seu ponto de partida em privacidade é diferente do dos investigadores tradicionais de cibersegurança: «Venho de uma perspectiva profundamente receosa em relação à ideia de entregar toda a vida pessoal a uma IA na nuvem — e quando, finalmente, a criptografia fim-a-fim e software com prioridade local se tornam mainstream, nós podemos, afinal, estar a recuar dez passos».
Cinco objectivos de segurança
Definiu um enquadramento claro para objectivos de segurança:
- Privacidade de LLM: em cenários que envolvam dados pessoais sensíveis, reduzir ao máximo o uso de modelos remotos
- Outra privacidade: minimizar fugas de dados que não sejam de LLM (por exemplo, pesquisas e outras APIs online)
- Escape de LLM: impedir que conteúdo externo «invada» o meu LLM, fazendo-o contrariar os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
- LLM acidental: impedir que o LLM envie dados privados para o canal errado ou os publique na rede por engano
- Backdoor de LLM: impedir mecanismos ocultos intencionalmente treinados dentro do modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights); quase nenhum é realmente de código aberto (open-source)
Escolhas de hardware: 5090 ultrapassa os portáteis; DGX Spark desilude
Vitalik testou três configurações de hardware para inferência local, usando principalmente o modelo Qwen3.5:35B, em conjunto com llama-server e llama-swap:
| Hardware |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 portátil (24GB VRAM) |
90 |
não consegue executar |
| AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
A sua conclusão é: abaixo de 50 tok/sec é demasiado lento; 90 tok/sec é o ideal. O NVIDIA 5090 portátil proporciona a experiência mais fluida; a AMD ainda tem mais problemas nos limites, mas espera-se que melhore no futuro. Um MacBook Pro topo de gama também é uma opção válida, embora ele pessoalmente não o tenha testado.
Sobre o DGX Spark, foi directo e pouco diplomático: «É descrito como um “supercomputador de IA para secretária”, mas na prática os tokens/sec são mais baixos do que os de uma boa GPU de portátil — e ainda por cima há que tratar de detalhes adicionais como a ligação à rede. Isto é fraquíssimo.» A sua recomendação é: «Se não conseguir comprar um portátil topo de gama, partilhe a compra de uma máquina suficientemente potente com amigos, coloque-a num local com IP fixo e use-a com ligações remotas em conjunto.»
Porque os problemas de privacidade da IA local são mais urgentes do que imaginas
O artigo de Vitalik, em paralelo com a discussão dos problemas de segurança do Claude Code lançado no mesmo dia, cria uma correspondência interessante — à medida que os agentes de IA entram nos fluxos de trabalho quotidianos de desenvolvimento, as questões de segurança também estão a passar de riscos teóricos a ameaças reais.
A mensagem central é muito clara: no momento em que as ferramentas de IA ficam cada vez mais poderosas e cada vez mais capazes de aceder aos teus dados pessoais e permissões do sistema, «privacidade local, isolamento em sandbox e confiança mínima» não é paranoia — é um ponto de partida racional.
- Este artigo foi republicado mediante autorização de: «LianNews»
- Título original: «Vitalik: Como é que construí um ambiente de trabalho de IA totalmente local, privado e sob controlo próprio»
- Autor do original: Elponcrab
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
Relatórios de Bugs Gerados por IA Assolam a Equipe de Manutenção do cURL
Os relatórios de bugs gerados por IA estão sobrecarregando o projeto cURL, com um aumento significativo nas submissões que está causando sobrecarga de recursos. Os mantenedores estão respondendo limitando o acesso a modelos de IA e suspendendo programas de recompensa por vulnerabilidade para administrar a enxurrada.
GateNewsAgora mesmo
xAI Lança APIs de Fala-para-Texto e Texto-para-Fala da Grok
A xAI lançou APIs de fala-para-texto e texto-para-fala para a sua plataforma Grok, permitindo que desenvolvedores integrem interações naturais de voz em aplicativos. Esta atualização aprimora a experiência do usuário e a acessibilidade para vários casos de uso.
GateNews20m atrás
O Cursor levanta $2B em uma avaliação liderada pela Thrive Capital
A Cursor, uma startup de codificação com IA, está preparada para levantar pelo menos $2 billion em um valuation de $50 billion, liderada pela Thrive Capital e pela Andreessen Horowitz. Ela busca alcançar mais de $6 billion em receita até 2026 e se diferencia por meio de um modelo de preços em camadas e pela certificação SOC 2 Type 2.
CryptoFrontier20m atrás
Iconiq, gestora de patrimônio, se prepara para levantar bilhões para um novo fundo de IA
A Iconiq, gestora de patrimônio com sede em São Francisco, planeja captar um novo fundo com foco em investimentos em IA, tendo anteriormente investido mais de $3 bilhão em startups de IA em 2025. A base de investidores da empresa passou a incluir mais apoiadores institucionais e, recentemente, fez seis novos investimentos em IA.
GateNews30m atrás
Anthropic Recebe Quase 120.000 Reivindicações de Autores em Acordo de Direitos Autorais de US$ 1,5B
Quase 120.000 autores reivindicaram uma fatia do acordo de US$ 1,5 bilhão da Anthropic após uso não autorizado de livros em treinamentos de IA. O acordo, que resulta de violações de direitos autorais, levanta preocupações sobre concorrência justa na indústria de IA.
GateNews40m atrás
Mike Krieger, da Anthropic, renuncia ao conselho da Figma
O diretor de Produto da Anthropic, Mike Krieger, renunciou ao conselho da Figma, e a empresa afirmou que a saída não teve relação com quaisquer discordâncias internas. A partida ocorre após uma parceria entre a Figma e a Anthropic para incorporar assistentes de design com IA.
GateNews50m atrás