V神 explique : comment créer un environnement de travail IA entièrement local, discret et sous contrôle autonome

Vitalik Buterin propose une architecture d’IA exécutée localement, en mettant l’accent sur la confidentialité, la sécurité et la souveraineté personnelle, tout en mettant en garde contre les risques potentiels des agents IA.

Le fondateur d’Ethereum, Vitalik Buterin, a publié le 2 avril sur son site personnel un long article dans lequel il partage son environnement de travail IA conçu autour de la confidentialité, de la sécurité et de la souveraineté personnelle : toutes les inférences LLM s’exécutent localement, tous les fichiers sont stockés localement, et le tout est entièrement sandboxé, en évitant volontairement les modèles dans le cloud et les API externes.

Dès le début de l’article, il prévient : « Ne copiez pas directement les outils et technologies décrits dans cet article, et ne présumez pas qu’ils sont sûrs. Ceci n’est qu’un point de départ, pas une description d’un produit fini. »

Pourquoi écrire maintenant ? La sécurité des AI agents est largement sous-estimée

Vitalik indique qu’au début de cette année, l’IA a réalisé une transformation importante, passant des « robots de discussion » aux « agents » : vous ne vous contentez plus de poser des questions, vous confiez des tâches à l’IA, qui réfléchit pendant longtemps et appelle des centaines d’outils pour les exécuter. Il prend l’exemple d’OpenClaw (actuellement le repo qui progresse le plus vite dans l’histoire de GitHub) et cite en même temps plusieurs problèmes de sécurité recensés par des chercheurs :

  • Les AI agents peuvent modifier des paramètres critiques sans confirmation humaine, y compris ajouter de nouveaux canaux de communication et modifier les invites système
  • L’analyse de n’importe quelle entrée externe malveillante (par ex. une page web malveillante) peut conduire à ce que l’agent soit entièrement pris en main ; lors d’une démonstration de HiddenLayer, des chercheurs ont fait résumer une série de pages web, dont l’une contenait une page malveillante capable d’ordonner à l’agent de télécharger et d’exécuter un script shell
  • Certaines « compétences » tierces (skills) peuvent exfiltrer des données en silence, en envoyant des données vers un serveur externe contrôlé par l’auteur de la compétence via des instructions curl
  • Dans les compétences qu’ils ont analysées, environ 15 % contiennent des instructions malveillantes

Vitalik souligne que son point de départ pour la confidentialité diffère de celui des chercheurs traditionnels en cybersécurité : « Je viens d’une position profondément effrayée à l’idée de confier toute la vie privée d’une personne à une IA hébergée dans le cloud — alors même que le chiffrement de bout en bout et des logiciels “local first” deviennent enfin la norme, nous pourrions reculer de dix pas. »

Cinq objectifs de sécurité

Il a défini un cadre clair d’objectifs de sécurité :

  • Confidentialité des LLM : dans les situations impliquant des données personnelles, réduire au maximum l’utilisation de modèles distants
  • Autre confidentialité : minimiser la fuite de données non liées aux LLM (par ex. requêtes de recherche, autres API en ligne)
  • Évasion des LLM : empêcher le contenu externe de « pirater » mon LLM, de sorte qu’il agisse contre mes intérêts (par ex. en envoyant mes tokens ou des données privées)
  • LLM involontaire : empêcher le LLM d’envoyer par erreur des données privées vers le mauvais canal ou de les rendre publiques sur le réseau
  • Backdoor des LLM : empêcher des mécanismes cachés d’avoir été entraînés volontairement dans le modèle. Il rappelle en particulier ceci : les modèles ouverts sont des poids ouverts (open-weights) ; il n’y en a presque aucun qui soit réellement open-source

Choix du matériel : le 5090 de loin gagnant, DGX Spark décevant

Vitalik a testé trois configurations matérielles d’inférence locale. Il utilise principalement le modèle Qwen3.5:35B, avec llama-server et llama-swap :

Matériel Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090 ordinateur portable (24GB VRAM) 90 Impossible à exécuter
AMD Ryzen AI Max Pro(128GB mémoire unifiée,Vulkan) 51 18
DGX Spark(128GB) 60 22

Sa conclusion est la suivante : en dessous de 50 tok/sec, c’est trop lent ; 90 tok/sec est idéal. Le NVIDIA 5090 sur ordinateur portable offre l’expérience la plus fluide ; l’AMD a encore davantage de problèmes en périphérie pour l’instant, mais il est possible que cela s’améliore à l’avenir. Un MacBook haut de gamme est aussi une option valable, mais il n’a pas pu le tester lui-même.

À propos du DGX Spark, il n’y va pas avec le dos de la cuillère : « Il est décrit comme un “superordinateur de bureau pour l’IA”, mais en réalité le tokens/sec est plus bas que celui d’un bon GPU sur ordinateur portable, et en plus il faut encore s’occuper de détails comme la connexion réseau — c’est très décevant. » Sa recommandation est la suivante : si vous ne pouvez pas vous permettre un ordinateur portable haut de gamme, vous pouvez acheter ensemble, avec des amis, une machine suffisamment puissante, la placer dans un lieu avec une IP fixe, puis utiliser la connexion à distance pour tout le monde.

Pourquoi les problèmes de confidentialité de l’IA locale sont plus urgents que ce que vous imaginez

L’article de Vitalik, qui a été publié le même jour que la discussion sur les problèmes de sécurité de Claude Code, fait écho de façon intéressante : au moment où les agents IA entrent dans le flux de travail quotidien du développement, les problèmes de sécurité passent aussi progressivement de risques théoriques à des menaces réelles.

Son message central est très clair : à mesure que les outils d’IA deviennent de plus en plus puissants, qu’ils peuvent de plus en plus accéder à vos données personnelles et à vos droits sur les systèmes, « local d’abord, sandboxé, confiance minimale » n’est pas de la paranoïa, mais un point de départ rationnel.

  • Cet article est reproduit avec autorisation de : « 链新闻 »
  • Titre original : « Vitalik : Comment ai-je conçu un environnement de travail IA totalement local, privé et sous contrôle autonome ? »
  • Auteur de l’original : Elponcrab
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

NVIDIA a dévoilé le premier « modèle Ising » au monde conçu pour l’IA quantique

NVIDIA dévoile le modèle open source « NVIDIA Ising », conçu pour l’intelligence artificielle quantique, afin de relever les défis d’étalonnage et de correction d’erreurs des processeurs quantiques. Grâce aux technologies de langages visuels, il réduit le temps d’étalonnage à quelques heures et améliore la vitesse ainsi que la précision du décodage de correction d’erreurs. Le modèle a été intégré à plusieurs organismes de recherche et est disponible en téléchargement, afin d’accélérer l’adoption des applications dans le marché de l’informatique quantique.

ChainNewsAbmediaIl y a 44m

L’agent distributeur d’IA « Valerie » fait fonctionner une machine à distributeurs à San Francisco avec OpenClaw

L’agent IA « Valerie » fait maintenant fonctionner une machine de distribution à San Francisco sur OpenClaw, testant jusqu’où les gens seront prêts à faire confiance à du code avec de la tarification, du marketing et de l’argent liquide dans le monde réel. Résumé L’agent IA « Valerie » fait fonctionner une machine de distribution physique à San Francisco en utilisant le framework OpenClaw, en définissant des prix, en la nommant,

CryptonewsIl y a 1h

DeepSeek lève des fonds à une valorisation supérieure à $10 milliards dans son premier tour de financement externe

Message d’actualité du portail Gate, 17 avril — D’après The Information, l’entreprise d’IA DeepSeek réalise son premier tour de financement externe depuis sa création, avec une valorisation cible dépassant $10 milliard.

GateNewsIl y a 1h

Earth VC soutient la startup d’IA quantique Sygaldry lors d’un tour de financement de $139M

Earth Venture Capital a investi dans Sygaldry Technologies, une startup d’IA quantique, contribuant à un financement total de $139 million. Sygaldry développe des serveurs hybrides pour des charges de travail d’IA efficaces, cofondés par Chad Rigetti, auparavant de Rigetti Computing.

GateNewsIl y a 3h

La Chine renforce le cadre législatif pour l’IA, l’économie numérique et la blockchain

La Chine prévoit de renforcer son système juridique en matière de réseau pour répondre aux besoins du développement d’Internet, en mettant l’accent sur la législation relative à l’IA, à l’économie numérique et à d’autres secteurs technologiques. D’ici décembre 2025, plus de 180 lois sont attendues, bien que les réglementations actuelles accusent encore un retard par rapport aux attentes du public.

GateNewsIl y a 4h

Intchains Group révèle 8 040 ETH mis en jeu et accélère la transformation de ses opérations alimentées par l’IA

Intchains Group a annoncé un jalonnement cumulatif de 8 040 ETH, avec une stratégie incluant la plateforme FalconX et son propre Goldshell Stake. La société renforce également ses opérations grâce à l’automatisation par IA afin d’améliorer l’efficacité et la prise de décision.

GateNewsIl y a 4h
Commentaire
0/400
Aucun commentaire