
Vitalik Buterin propôs uma arquitectura de IA executada localmente, sublinhando a privacidade, a segurança e a soberania própria, e alertando para os riscos potenciais dos agentes de IA.
O fundador da Ethereum, Vitalik Buterin, a 2 de Abril, publicou um artigo longo no seu site pessoal, partilhando o ambiente de trabalho de IA que construiu com a privacidade, a segurança e a soberania própria como núcleo — tudo o que as LLM fazem com inferência é executado localmente, todos os ficheiros são guardados localmente, e está tudo totalmente isolado em sandbox, evitando deliberadamente modelos em nuvem e APIs externas.
Logo no início do artigo, ele começa por avisar: «Não copie directamente as ferramentas e as tecnologias descritas neste artigo e não assuma que elas são seguras. Isto é apenas um ponto de partida, e não uma descrição de um produto final.»
Porque é que agora escrevo este artigo? Os problemas de segurança dos agentes de IA estão a ser seriamente subestimados
Vitalik aponta que, no início deste ano, a IA fez uma transformação importante de «chatbots» para «agents» — já não se trata apenas de lhe fazer perguntas, mas de lhe entregar tarefas, para que a IA pense durante muito tempo e chame centenas de ferramentas para as executar. Ele dá como exemplo o OpenClaw (actualmente o repo com maior crescimento na história do GitHub) e cita também vários problemas de segurança registados por investigadores:
- Um agente de IA pode modificar definições críticas sem confirmação humana, incluindo adicionar novos canais de comunicação e alterar instruções do sistema
- Analisar quaisquer entradas externas maliciosas (por exemplo, páginas web maliciosas) pode levar a que o agente seja totalmente tomado de assalto; numa demonstração da HiddenLayer, os investigadores fizeram a IA resumir um conjunto de páginas, incluindo uma página maliciosa que mandava o agente descarregar e executar um script de shell
- Algumas colecções de competências de terceiros (skills) executam exfiltração silenciosa de dados, enviando os dados para um servidor externo controlado pelo autor da competência através de instruções curl
- Nas skills que analisaram, cerca de 15% contêm instruções maliciosas
Vitalik sublinha que a sua abordagem à privacidade difere da de investigadores tradicionais de segurança informática: «Venho de uma posição profundamente receosa com a ideia de alimentar toda a vida pessoal de alguém a uma IA em nuvem — e, precisamente quando a criptografia ponta-a-ponta e software com preferência local finalmente se tornam mainstream, podemos estar a dar agora dez passos atrás.»
Cinco objectivos de segurança
Ele definiu um enquadramento claro de objectivos de segurança:
- Privacidade das LLM: em cenários que envolvam dados pessoais, reduzir ao máximo o uso de modelos remotos
- Outra privacidade: minimizar fugas de dados que não sejam das LLM (por exemplo, pesquisas, outras APIs online)
- Evasão (jailbreak) das LLM: impedir que conteúdos externos «invadam» a minha LLM, levando-a a contrariar os meus interesses (por exemplo, enviar os meus tokens ou dados privados)
- LLM acidental: impedir que a LLM envie inadvertidamente dados privados para canais errados ou os torne públicos na rede
- LLM backdoor: impedir mecanismos ocultos que sejam propositadamente treinados no modelo. Ele lembra especialmente: modelos abertos são pesos abertos (open-weights), e praticamente nenhum é verdadeiramente open-source (código aberto)
Escolhas de hardware: a 5090 ultrapassa o resto; a DGX Spark desilude
Vitalik testou três configurações de hardware de inferência local, usando principalmente o modelo Qwen3.5:35B, juntamente com llama-server e llama-swap:
| Hardware |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 portátil (24GB de VRAM) |
90 |
Não é possível executar |
| AMD Ryzen AI Max Pro (128GB de memória unificada, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
A sua conclusão é: abaixo de 50 tok/sec é demasiado lento, 90 tok/sec é ideal. O portátil NVIDIA 5090 foi o que ofereceu a melhor experiência, com maior fluidez; a AMD ainda tem muitos problemas nas margens, mas há esperança de melhorias no futuro. Um MacBook topo de gama também é uma opção eficaz, embora ele, pessoalmente, não o tenha testado.
Sobre a DGX Spark, ele foi pouco diplomático: «Foi descrita como um «supercomputador de IA para secretária», mas, na prática, os tokens/sec são mais baixos do que numa boa GPU de portátil, e ainda há de tratar de detalhes como a ligação à rede — isto é mesmo mau.» A sua recomendação é: se não conseguir pagar um portátil de topo, pode comprar em conjunto com amigos uma máquina suficientemente potente, colocá-la num local com IP fixo e todos usarem ligação remota para trabalhar com ela.
Porque é que os problemas de privacidade da IA local são mais urgentes do que imaginas
O artigo de Vitalik, em conjunto com o debate sobre os problemas de segurança do Claude Code lançado no mesmo dia, cria um eco interessante — enquanto os agentes de IA entram no fluxo quotidiano de desenvolvimento, os problemas de segurança também estão a passar de riscos teóricos a ameaças reais.
A mensagem central dele é muito clara: à medida que as ferramentas de IA ficam cada vez mais poderosas e cada vez mais capazes de aceder aos teus dados pessoais e às permissões do teu sistema, «prioridade ao local, isolamento em sandbox, confiança mínima» não é paranoia, é um ponto de partida racional.
- Este artigo foi republicado com autorização de: «鏈新聞»
- Título original: «Vitalik: Como criei um ambiente de trabalho de IA totalmente local, privado e com controlo autónomo»
- Autor do artigo original: Elponcrab
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
A China vai testar 300+ robôs humanoides na meia-maratona de Pequim a 19 de abril
A segunda meia-maratona de robôs de Pequim conta com mais de 300 robôs humanoides de 70 equipas, competindo num percurso de 21 km. São destacados avanços no movimento autónomo, com 40% a operarem sem controlo. A China domina o mercado de robôs humanoides, apesar dos desafios de produção.
GateNews1h atrás
EUA procuram aumentar as importações de urânio da Namíbia para alimentar centrais nucleares orientadas por IA
Os EUA estão a considerar aumentar as importações de urânio da Namíbia para apoiar a energia nuclear para centros de dados de IA, enquanto a China domina o sector do urânio da Namíbia. O aumento dos preços do urânio está a reavivar o interesse pela mineração, apesar dos desafios no abastecimento de água na região árida.
GateNews1h atrás
Executivos da OpenAI Bill Peebles e Kevin Weil Saem numa Reestruturação de Liderança
Os executivos da OpenAI Bill Peebles e Kevin Weil anunciaram a sua saída, parte de uma série de mudanças de liderança à medida que a empresa descentraliza as suas operações. As suas partidas seguem-se a várias outras saídas de alto perfil e a uma mudança na estrutura da empresa.
GateNews2h atrás
A Zoom faz parceria com a World para adicionar deteção de deepfakes com reconhecimento facial
A Zoom fez parceria com o World, de Sam Altman, para lançar uma funcionalidade que deteta participantes reais em vez de deepfakes de IA durante chamadas de vídeo. O objetivo é combater a fraude por deepfakes em crescimento, com opções de verificação para anfitriões e participantes.
GateNews3h atrás
Relatórios de Bugs Gerados por IA Sobrecarregam a Equipa de Manutenção do cURL
Os relatórios de bugs gerados por IA estão a sobrecarregar o projecto cURL, com um aumento significativo nas submissões a causar tensão nos recursos. Os responsáveis estão a responder limitando o acesso a modelos de IA e a pausar os programas de recompensas por vulnerabilidades para gerir a vaga de entradas.
GateNews3h atrás
A xAI Lança as APIs de Conversão de Fala em Texto e de Texto em Fala da Grok
A xAI lançou APIs de conversão de fala em texto e de texto em fala para a sua plataforma Grok, permitindo aos programadores integrar interações de voz naturais nas aplicações. Esta atualização melhora a experiência do utilizador e a acessibilidade para vários casos de uso.
GateNews4h atrás