
Vitalik Buterin propôs uma arquitectura de IA executada localmente, sublinhando a privacidade, a segurança e a soberania própria, e alertando para os riscos potenciais dos agentes de IA.
O fundador da Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu site pessoal, partilhando o ambiente de trabalho de IA que construiu com a privacidade, a segurança e a soberania própria como núcleo — tudo o que as LLM fazem com inferência é executado localmente, todos os ficheiros são guardados localmente, e está tudo totalmente isolado em sandbox, evitando deliberadamente modelos em nuvem e APIs externas.
Logo no início do artigo, ele começa por avisar: «Não copie directamente as ferramentas e as tecnologias descritas neste artigo e não assuma que elas são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»
Porque é que agora escrevo este artigo? Os problemas de segurança dos agentes de IA estão a ser seriamente subestimados
Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agents» — já não se trata apenas de lhe fazer perguntas, mas de lhe entregar tarefas, para que a IA pense durante muito tempo e chame centenas de ferramentas para as executar. Ele dá como exemplo o OpenClaw (actualmente o repo com maior crescimento na história do GitHub) e cita também vários problemas de segurança registados por investigadores:
- Um agente de IA pode modificar definições críticas sem confirmação humana, incluindo adicionar novos canais de comunicação e alterar instruções do sistema
- Analisar quaisquer entradas externas maliciosas (por exemplo, páginas web maliciosas) pode levar a que o agente seja totalmente tomado de assalto; numa demonstração da HiddenLayer, os investigadores fizeram a IA resumir um conjunto de páginas, incluindo uma página maliciosa que mandava o agente descarregar e executar um script de shell
- Algumas colecções de competências de terceiros (skills) executam exfiltração silenciosa de dados, enviando os dados para um servidor externo controlado pelo autor da competência através de instruções curl
- Nas skills que analisaram, cerca de 15% contêm instruções maliciosas
Vitalik sublinha que a sua abordagem à privacidade difere da de investigadores tradicionais de segurança informática: «Venho de uma posição profundamente receosa com a ideia de alimentar toda a vida pessoal de alguém a uma IA em nuvem — e, precisamente quando a criptografia ponta-a-ponta e software com preferência local finalmente se tornam mainstream, podemos estar a dar agora dez passos atrás.»
Cinco objectivos de segurança
Ele definiu um enquadramento claro de objectivos de segurança:
- Privacidade das LLM: em cenários que envolvam dados pessoais, reduzir ao máximo o uso de modelos remotos
- Outra privacidade: minimizar fugas de dados que não sejam das LLM (por exemplo, pesquisas, outras APIs online)
- Evasão (jailbreak) das LLM: impedir que conteúdos externos «invadam» a minha LLM, levando-a a contrariar os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
- LLM acidental: impedir que a LLM envie inadvertidamente dados privados para canais errados ou os torne públicos na rede
- LLM backdoor: impedir mecanismos ocultos que sejam propositadamente treinados no modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights), e praticamente nenhum é verdadeiramente open-source (código aberto)
Escolhas de hardware: a 5090 ultrapassa o resto; a DGX Spark desilude
Vitalik testou três configurações de hardware de inferência local, usando principalmente o modelo Qwen3.5:35B, juntamente com llama-server e llama-swap:
| Hardware |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 portátil (24GB de VRAM) |
90 |
Não é possível executar |
| AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é ideal. O portátil NVIDIA 5090 foi o que ofereceu a melhor experiência, com maior fluidez; a AMD ainda tem muitos problemas nas margens, mas há esperança de melhorias no futuro. Um MacBook topo de gama também é uma opção eficaz, embora ele, pessoalmente, não o tenha testado.
Sobre a DGX Spark, ele foi pouco diplomático: «Foi descrita como um «supercomputador de IA para secretária», mas, na prática, os tokens/sec são mais baixos do que numa boa GPU de portátil, e ainda há de tratar de detalhes como a ligação à rede — isto é mesmo mau.» A sua recomendação é: se não conseguir pagar um portátil de topo, pode comprar em conjunto com amigos uma máquina suficientemente potente, colocá-la num local com IP fixo e todos usarem ligação remota para trabalhar com ela.
Porque é que os problemas de privacidade da IA local são mais urgentes do que imaginas
O artigo de Vitalik, em conjunto com o debate sobre os problemas de segurança do Claude Code lançado no mesmo dia, cria um eco interessante — enquanto os agentes de IA entram no fluxo quotidiano de desenvolvimento, os problemas de segurança também estão a passar de riscos teóricos a ameaças reais.
A mensagem central dele é muito clara: à medida que as ferramentas de IA ficam cada vez mais poderosas e cada vez mais capazes de aceder aos teus dados pessoais e às permissões do teu sistema, «prioridade ao local, isolamento em sandbox, confiança mínima» não é paranoia, é um ponto de partida racional.
- Este artigo foi republicado com autorização de: «鏈新聞»
- Título original: «Vitalik: Como criei um ambiente de trabalho de IA totalmente local, privado e com controlo autónomo»
- Autor do artigo original: Elponcrab
Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o
Aviso Legal.
Related Articles
China vai testar 300+ robôs humanoides em meia-maratona em Pequim em 19 de abril
A segunda meia-maratona de robôs de Pequim apresenta mais de 300 robôs humanoides de 70 equipes competindo em um percurso de 21 km. Avanços em movimento autônomo são destacados, com 40% operando sem controle. A China domina o mercado de robôs humanoides, apesar dos desafios de produção.
GateNews2h atrás
EUA Buscam Aumentar Importações de Urânio da Namíbia para Alimentar Usinas Nucleares Impulsionadas por IA
Os EUA estão contemplando aumentar as importações de urânio da Namíbia para apoiar a energia nuclear de data centers de IA, enquanto a China domina o setor de urânio da Namíbia. Os preços do urânio em alta estão reativando o interesse pela mineração, apesar dos desafios de abastecimento de água na região árida.
GateNews2h atrás
Executivos da OpenAI Bill Peebles e Kevin Weil Deixam o Cargo em Reviravolta na Liderança
Os executivos da OpenAI Bill Peebles e Kevin Weil anunciaram suas saídas, parte de uma série de mudanças na liderança à medida que a empresa descentraliza suas operações. As partidas deles seguem outras várias saídas de alto perfil e uma mudança na estrutura da empresa.
GateNews3h atrás
Zoom Faz Parceria com World para Adicionar Detecção de Deepfake Usando Reconhecimento Facial
O Zoom fez parceria com a World, empresa de identificação humana de Sam Altman, para lançar um recurso que detecta participantes reais versus deepfakes de IA durante chamadas de vídeo. A iniciativa visa combater o aumento de fraudes com deepfakes, com opções de verificação para anfitriões e participantes.
GateNews4h atrás
Relatórios de Bugs Gerados por IA Assolam a Equipe de Manutenção do cURL
Os relatórios de bugs gerados por IA estão sobrecarregando o projeto cURL, com um aumento significativo nas submissões que está causando sobrecarga de recursos. Os mantenedores estão respondendo limitando o acesso a modelos de IA e suspendendo programas de recompensa por vulnerabilidade para administrar a enxurrada.
GateNews4h atrás
xAI Lança APIs de Fala-para-Texto e Texto-para-Fala da Grok
A xAI lançou APIs de fala-para-texto e texto-para-fala para a sua plataforma Grok, permitindo que desenvolvedores integrem interações naturais de voz em aplicativos. Esta atualização aprimora a experiência do usuário e a acessibilidade para vários casos de uso.
GateNews4h atrás