
Vitalik Buterin propõe uma arquitectura de IA a funcionar localmente, destacando a privacidade, a segurança e a soberania individual, e alerta para os riscos potenciais dos agentes de IA.
O fundador da Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu site pessoal, partilhando a configuração do seu ambiente de trabalho em IA, com base na privacidade, segurança e soberania individual — com todas as inferências de LLM a serem executadas localmente, todos os ficheiros a serem armazenados localmente, e um encapsulamento (sandbox) abrangente, deliberadamente evitando modelos na nuvem e APIs externas.
No início do artigo, começa por alertar: «Por favor, não copie directamente as ferramentas e tecnologias descritas neste artigo, e não assuma que são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»
Por que razão escreve agora? Os problemas de segurança dos AI agents estão a ser seriamente subestimados
Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «robôs de chat» para «agents» — já não se trata apenas de colocar questões, é entregar tarefas, permitindo que a IA pense durante longos períodos e chame centenas de ferramentas para executar. Ele dá o exemplo do OpenClaw (actualmente o repo com crescimento mais rápido na história do GitHub) e cita também vários problemas de segurança documentados por investigadores:
- Os AI agents podem modificar definições críticas sem confirmação humana, incluindo adicionar novos canais de comunicação e alterar prompts do sistema
- Analisar qualquer entrada externa maliciosa (por exemplo, um site malicioso) pode fazer com que o agent seja completamente tomado de controlo; numa demonstração da HiddenLayer, os investigadores fizeram com que a IA resumisse uma série de páginas, escondendo nela uma página maliciosa que mandava o agent descarregar e executar um script de shell
- Algumas colecções de competências de terceiros (skills) executam um vazamento silencioso de dados, enviando-os para servidores externos controlados pelo autor da skill através de um comando curl
- Nas skills que analisaram, cerca de 15% continham instruções maliciosas
Vitalik sublinha que o seu ponto de partida em relação à privacidade é diferente do de investigadores tradicionais de segurança informática: «Venho de uma posição profundamente receosa com a ideia de alimentar toda a vida pessoal de alguém a uma IA na nuvem — precisamente quando a encriptação ponta-a-ponta e software com preferência local finalmente se tornaram mainstream, nós poderemos ter recuado dez passos.»
Cinco objectivos de segurança
Definiu uma estrutura clara de objectivos de segurança:
- Privacidade de LLM: em cenários que envolvam dados pessoais, reduzir ao máximo o uso de modelos remotos
- Outra privacidade: minimizar fugas de dados que não sejam de LLM (por exemplo, pesquisas, outras APIs online)
- Escape (jailbreak) de LLM: impedir que conteúdos externos «invadam» o meu LLM, fazendo-o agir contra os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
- LLM acidental: impedir que o LLM envie dados privados por engano para canais errados ou os publique na rede
- Backdoor de LLM: impedir mecanismos ocultos treinados de forma deliberada para dentro do modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights); quase nenhum deles é verdadeiramente open-source
Escolhas de hardware: 5090 em portátil leva vantagem; DGX Spark deixa a desejar
Vitalik testou três configurações de hardware para inferência local, usando principalmente o modelo Qwen3.5:35B, juntamente com llama-server e llama-swap:
| Hardware |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| Portátil NVIDIA 5090 (24GB VRAM) |
90 |
não consegue executar |
| AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é ideal. O portátil NVIDIA 5090 oferece a experiência mais fluida; a AMD ainda tem mais problemas nos limites, mas espera-se que melhore no futuro. Um MacBook Pro de gama alta também é uma opção eficaz, embora ele pessoalmente não tenha experimentado.
Sobre o DGX Spark, ele foi directo e pouco diplomático: «É descrito como um “supercomputador de IA para secretária”, mas na prática os tokens/sec são mais baixos do que os de uma boa GPU de portátil, e ainda há detalhes adicionais a resolver, como a ligação à rede — isto é fraco.» A recomendação dele é: «Se não consegue pagar um portátil topo de gama, pode comprar em conjunto com amigos uma máquina suficientemente potente, colocá-la num local com IP fixo e todos usarem ligação remota para trabalhar.»
Por que razão os problemas de privacidade da IA local são mais urgentes do que imaginas
Este artigo de Vitalik, em conjunto com a discussão sobre a segurança do Claude Code lançada no mesmo dia, estabelece um eco interessante — enquanto os agentes de IA entram no fluxo de trabalho quotidiano de desenvolvimento, as questões de segurança também estão a passar de riscos teóricos para ameaças reais.
A mensagem central é muito clara: «Quando as ferramentas de IA ficam cada vez mais fortes e cada vez mais conseguem aceder aos teus dados pessoais e às permissões do teu sistema, “privado local, sandboxing, confiança mínima” não é paranoia; é um ponto de partida racional.»
- Este artigo foi republicado com autorização de: 《鏈新聞》
- Título original: 《Vitalik:我如何打造完全本地、私密、自主可控的AI工作環境》
- Autor do artigo original: Elponcrab
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
O Grupo Hyundai Motor reorganiza-se em torno da IA e da robótica, mirando 30.000 robôs Atlas até 2030
O Grupo Hyundai Motor está a reestruturar-se para se focar em IA e robótica, reduzindo as operações tradicionais. Prevê um investimento de 34,3 mil milhões de dólares em robótica até 2030 e pretende lançar um modelo de robótica como serviço, em colaboração com a Google DeepMind e a NVIDIA.
GateNews2h atrás
A NEA explora a utilização de inteligência artificial na regulamentação nuclear
O Grupo de Trabalho da NEA sobre Novas Tecnologias reuniu-se para um workshop nos dias 25--26 de março, centrado em como a inteligência artificial pode ser aplicada à supervisão regulamentar e às operações internas no âmbito das autoridades nucleares.
Resumo
O workshop da NEA explorou aplicações reais de IA na regulamentação nuclear, com
Cryptonews5h atrás
A China vai testar 300+ robôs humanoides na meia-maratona de Pequim a 19 de abril
A segunda meia-maratona de robôs de Pequim conta com mais de 300 robôs humanoides de 70 equipas, competindo num percurso de 21 km. São destacados avanços no movimento autónomo, com 40% a operarem sem controlo. A China domina o mercado de robôs humanoides, apesar dos desafios de produção.
GateNews7h atrás
EUA procuram aumentar as importações de urânio da Namíbia para alimentar centrais nucleares orientadas por IA
Os EUA estão a considerar aumentar as importações de urânio da Namíbia para apoiar a energia nuclear para centros de dados de IA, enquanto a China domina o sector do urânio da Namíbia. O aumento dos preços do urânio está a reavivar o interesse pela mineração, apesar dos desafios no abastecimento de água na região árida.
GateNews7h atrás
Executivos da OpenAI Bill Peebles e Kevin Weil Saem numa Reestruturação de Liderança
Os executivos da OpenAI Bill Peebles e Kevin Weil anunciaram a sua saída, parte de uma série de mudanças de liderança à medida que a empresa descentraliza as suas operações. As suas partidas seguem-se a várias outras saídas de alto perfil e a uma mudança na estrutura da empresa.
GateNews9h atrás
A Zoom faz parceria com a World para adicionar deteção de deepfakes com reconhecimento facial
A Zoom fez parceria com o World, de Sam Altman, para lançar uma funcionalidade que deteta participantes reais em vez de deepfakes de IA durante chamadas de vídeo. O objetivo é combater a fraude por deepfakes em crescimento, com opções de verificação para anfitriões e participantes.
GateNews9h atrás