
Vitalik Buterin propose une architecture d’IA exécutée localement, en soulignant la confidentialité, la sécurité et la souveraineté personnelle, et en mettant en garde contre les risques potentiels liés aux agents d’IA.
Le fondateur d’Ethereum, Vitalik Buterin, a publié le 2 avril sur son site personnel un long article dans lequel il partage son environnement de travail IA construit autour de la confidentialité, de la sécurité et de la souveraineté personnelle : tous les calculs d’inférence des LLM s’exécutent localement, tous les fichiers sont stockés localement, le tout est entièrement mis en sandbox, avec une intention explicite d’éviter les modèles cloud et les API externes.
Dès le début, l’article avertit : « Ne copiez pas directement les outils et technologies décrits dans cet article, et ne partez pas du principe qu’ils sont sûrs. Ceci n’est qu’un point de départ, pas une description d’un produit final. »
Pourquoi écrire maintenant ? Les problèmes de sécurité des AI agents sont grandement sous-estimés
Vitalik indique qu’au début de cette année, l’IA a fait une transition importante de « chatbot » vers « agent » : vous ne vous contentez plus de poser des questions, vous confiez des tâches, permettant à l’IA de réfléchir sur une longue durée, d’appeler des centaines d’outils pour les exécuter. Il cite OpenClaw (actuellement le repo qui connaît la croissance la plus rapide de l’histoire de GitHub) et pointe du doigt plusieurs problèmes de sécurité recensés par des chercheurs :
- Les AI agents peuvent modifier des paramètres critiques sans validation humaine, notamment en ajoutant de nouveaux canaux de communication et en modifiant les instructions du système
- Analyser toute entrée externe malveillante (par exemple une page web malveillante) peut conduire à ce que l’agent soit totalement pris en main ; lors d’une démonstration de HiddenLayer, les chercheurs ont fait résumer une série de pages web, dont l’une contenait une page malveillante qui ordonnait à l’IA de télécharger et d’exécuter un script shell
- Une partie des packs de compétences tiers (skills) exécute des fuites silencieuses de données, en envoyant les données via une commande curl vers un serveur externe contrôlé par l’auteur de la compétence
- Dans les packs de compétences qu’ils ont analysés, environ 15 % contiennent des instructions malveillantes
Vitalik insiste sur le fait que son point de départ pour la confidentialité est différent de celui des chercheurs traditionnels en cybersécurité : « Je viens d’un point de vue profondément effrayé à l’idée de nourrir la vie personnelle complète d’une personne à une IA basée sur le cloud — alors même que le chiffrement de bout en bout et les logiciels “local-first” sont enfin en train de devenir mainstream, nous pourrions reculer de dix pas. »
Cinq objectifs de sécurité
Il définit un cadre d’objectifs de sécurité explicite :
- Confidentialité des LLM : dans les situations impliquant des données personnelles, réduire au maximum l’utilisation de modèles distants
- Autre confidentialité : minimiser les fuites de données autres que celles liées aux LLM (par exemple les requêtes de recherche, d’autres API en ligne)
- Évasion des LLM : empêcher du contenu externe de “pirater” mon LLM, en le faisant agir contre mes intérêts (par exemple en envoyant mes tokens ou des données privées)
- LLM imprévu : empêcher le LLM d’envoyer par erreur des données privées vers le mauvais canal ou de les publier sur le réseau
- Porte dérobée des LLM : empêcher des mécanismes cachés entraînés intentionnellement dans le modèle. Il avertit particulièrement : les modèles ouverts sont des poids ouverts (open-weights), et il n’y en a presque aucun qui soit réellement open source (open-source)
Choix matériel : le 5090 de PC portable l’emporte, DGX Spark décevant
Vitalik a testé trois configurations matérielles pour l’inférence locale, utilisant principalement le modèle Qwen3.5:35B, avec llama-server et llama-swap :
| Matériel |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 PC portable(24GB VRAM) |
90 |
Impossible à exécuter |
| AMD Ryzen AI Max Pro(128GB mémoire unifiée,Vulkan) |
51 |
18 |
| DGX Spark(128GB) |
60 |
22 |
Son verdict est le suivant : moins de 50 tok/sec est trop lent, 90 tok/sec est idéal. Le PC portable NVIDIA 5090 offre l’expérience la plus fluide ; l’AMD a encore davantage de problèmes en marge pour l’instant, mais on espère que cela s’améliorera à l’avenir. Un MacBook Pro haut de gamme est aussi une option valable, mais il ne l’a pas testé personnellement.
À propos du DGX Spark, il le dit sans détour : « On le décrit comme un “superordinateur de l’IA pour le bureau”, mais en réalité, tokens/sec est plus bas que celui du GPU d’un meilleur PC portable, et en plus il faut encore gérer des détails comme la connexion réseau — c’est vraiment nul. » Sa recommandation est : « Si vous ne pouvez pas vous offrir un PC portable haut de gamme, achetez-en un suffisamment puissant avec des amis, placez-le dans un endroit avec une IP fixe, puis tout le monde s’y connecte à distance pour l’utiliser. »
Pourquoi les problèmes de confidentialité de l’IA locale sont plus urgents que vous ne le pensez
L’article de Vitalik, en écho intéressant avec la discussion sur les problèmes de sécurité de Claude Code lancée le même jour : pendant que les agents d’IA entrent dans les flux de travail quotidiens de développement, les problèmes de sécurité deviennent aussi une menace réelle, passant du risque théorique à la réalité.
Son message central est très clair : « À l’époque où les outils d’IA deviennent de plus en plus puissants et capables d’accéder à vos données personnelles ainsi qu’aux autorisations de votre système, “local-first, sandbox, confiance minimale” n’est pas de la paranoïa, mais un point de départ rationnel. »
- Cet article est reproduit avec autorisation depuis : 《Chaîne News》
- Titre original : 《Vitalik : comment j’ai créé un environnement de travail IA entièrement local, privé et sous contrôle autonome》
- Auteur de l’original : Elponcrab
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Cofondateur d’Ethereum Lubin : l’IA sera un tournant critique pour la crypto, mais le monopole des géants de la tech présente un risque systémique
Le cofondateur d’Ethereum, Joseph Lubin, a souligné le potentiel transformateur de l’IA pour le secteur des cryptomonnaies, tout en mettant en garde contre les risques de centralisation parmi les grands acteurs technologiques. Il envisage des transactions autonomes pilotées par l’IA sur la blockchain et met en avant la convergence entre la finance traditionnelle et la DeFi.
GateNewsIl y a 1h
Elon Musk fait la promotion de chèques « revenus universels élevés » comme solution ultime au chômage lié à l’IA
Elon Musk défend un Revenu universel élevé afin de lutter contre le chômage causé par l’IA, imaginant un avenir où les biens sont abondants et où l’inflation est nulle. En revanche, des experts comme Sam Altman soulèvent des inquiétudes concernant la perte d’emplois et proposent des mesures de protection pour les travailleurs.
CoinpediaIl y a 1h
DeepSeek Lancerait Son Premier Tour De Levée De Fonds Externe, Visant Une Valorisation De 10 Md$+ Et 300 M$+
DeepSeek, une startup chinoise d’IA, négocie son premier tour de financement externe, visant au moins $300 millions pour une valorisation de $10 milliard. Malgré des rejets antérieurs d’offres d’investissement, ses discussions de levée de fonds seraient désormais en cours.
GateNewsIl y a 1h
Les publicités de ChatGPT arrivent en Australie et en Nouvelle-Zélande : Free et les utilisateurs Go d’abord, et les formules payantes restent sans publicité
OpenAI étend ChatGPT aux publicités le 17 avril 2023 en Australie, en Nouvelle-Zélande et au Canada, pour les utilisateurs Free et Go, tandis que les utilisateurs payants n’ont pas de publicités. Cette initiative marque la deuxième voie de commercialisation de l’IA, tout en tenant compte des risques commerciaux et réglementaires ; la présence de publicités peut favoriser la conversion vers l’abonnement payant.
ChainNewsAbmediaIl y a 3h
Hyundai Motor Group se réorganise autour de l’IA et de la robotique, vise 30 000 robots Atlas d’ici 2030
Le groupe Hyundai Motor restructure ses activités pour se concentrer sur l’IA et la robotique, en réduisant ses opérations traditionnelles. Il prévoit d’investir 34,3 milliards de dollars dans la robotique d’ici 2030 et vise à lancer un modèle de robotique en tant que service, en collaboration avec Google DeepMind et NVIDIA.
GateNewsIl y a 7h
NEA examine l’utilisation de l’intelligence artificielle dans la réglementation nucléaire
Le groupe de travail de l’OCDE sur les nouvelles technologies a tenu un atelier les 25 et 26 mars, portant sur la manière dont l’intelligence artificielle peut être appliquée à la supervision réglementaire et aux opérations internes au sein des autorités nucléaires.
Résumé
L’atelier de l’OCDE a examiné des applications réelles de l’IA dans la réglementation nucléaire, avec
CryptonewsIl y a 9h