
Vitalik Buterin propone una arquitectura de IA para ejecutarse localmente, destacando la privacidad, la seguridad y la soberanía personal, y advierte sobre los riesgos potenciales de los agentes de IA.
El fundador de Ethereum, Vitalik Buterin, el 2 de abril publicó un artículo largo en su sitio web personal, compartiendo el entorno de trabajo de IA que construyó con la privacidad, la seguridad y la soberanía personal como núcleo: que todas las inferencias de LLM se ejecuten localmente, que todos los archivos se almacenen localmente, y que todo esté completamente aislado en un sandbox; evita deliberadamente los modelos en la nube y las API externas.
Al comienzo, el artículo advierte: «Por favor, no copies directamente las herramientas y tecnologías descritas en este artículo, y asumas que son seguras. Esto es solo un punto de partida, no una descripción de un producto terminado».
¿Por qué escribir ahora sobre este tema? Los problemas de seguridad de los agentes de IA están muy subestimados
Vitalik señala que, a principios de este año, la IA completó una importante transición de «chatbot» a «agente»: ya no te limitas a preguntar cosas, sino que entregas tareas, haciendo que la IA piense durante mucho tiempo y llame a cientos de herramientas para ejecutarlas. Lo ejemplifica con OpenClaw (actualmente el repo de más rápido crecimiento en la historia de GitHub) y nombra también varios problemas de seguridad registrados por investigadores:
- Los agentes de IA pueden modificar configuraciones críticas sin confirmación humana, incluida la adición de nuevos canales de comunicación y la modificación de las instrucciones del sistema
- Analizar cualquier entrada externa maliciosa (como páginas web maliciosas) puede hacer que el agente quede completamente tomado; en una demostración de HiddenLayer, los investigadores lograron que la IA resumiera un conjunto de páginas, en el que había una página maliciosa que le ordenaba al agente descargar y ejecutar un script de shell
- Algunas capacidades de terceros (skills) ejecutan filtraciones silenciosas de datos y envían los datos a servidores externos controlados por el autor de la capacidad mediante instrucciones curl
- En las capacidades que analizaron, alrededor del 15% incluye instrucciones maliciosas
Vitalik recalca que su enfoque sobre la privacidad es distinto al de los investigadores tradicionales de ciberseguridad: «Vengo de una postura profundamente temerosa de que llevar toda la vida personal a la IA en la nube sea algo profundamente aterrador. Justo cuando el cifrado de extremo a extremo y el software local con prioridad finalmente se volvieron convencionales, podríamos estar dando un paso atrás de diez».
Cinco objetivos de seguridad
Estableció un marco claro de objetivos de seguridad:
- Privacidad de LLM: en situaciones que involucren datos personales, reducir al máximo el uso de modelos remotos
- Otra privacidad: minimizar la filtración de datos que no sean de LLM (como consultas de búsqueda, otras API en línea)
- Escape de LLM: evitar que el contenido externo «se cuele» en mi LLM y haga que se aparte de mis intereses (por ejemplo, enviar mis tokens o datos privados)
- LLM inesperado: evitar que el LLM envíe por error datos privados al canal equivocado o los publique en la red
- Puerta trasera de LLM: evitar mecanismos ocultos entrenados deliberadamente dentro del modelo. En particular, recuerda esto: los modelos abiertos son pesos abiertos (open-weights), y casi ninguno es realmente de código abierto (open-source)
Elección de hardware: gana un portátil 5090, DGX Spark decepciona
Vitalik probó tres configuraciones de hardware para inferencia local; su uso principal fue el modelo Qwen3.5:35B, junto con llama-server y llama-swap:
| Hardware |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 portátil (24GB VRAM) |
90 |
No puede ejecutarse |
| AMD Ryzen AI Max Pro (128GB de memoria unificada, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
Su conclusión es: por debajo de 50 tok/sec es demasiado lento, y 90 tok/sec es lo ideal. La experiencia con el portátil NVIDIA 5090 fue la más fluida; AMD todavía tiene más problemas en los bordes, pero se espera que en el futuro mejore. El MacBook de gama alta también es una opción efectiva, aunque él personalmente no lo ha probado.
Sobre el DGX Spark, lo dijo sin rodeos: «Se describe como un “superordenador de IA de escritorio”, pero en realidad tokens/sec es más bajo que el de una buena GPU de portátil, y además hay que ocuparse de detalles como la conexión de red. Esto es bastante decepcionante». Su recomendación es: si no puedes permitirte un portátil de gama alta, compra en conjunto con amigos una máquina suficientemente potente, déjala en un lugar con IP fija y usen conexiones remotas desde todos.
Por qué los problemas de privacidad de la IA local son más urgentes de lo que crees
El artículo de Vitalik, en paralelo con la discusión sobre los problemas de seguridad de Claude Code lanzada el mismo día, guarda un interesante reflejo: mientras los agentes de IA entran en los flujos de trabajo cotidianos de desarrollo, los problemas de seguridad también se están moviendo de riesgos teóricos a amenazas reales.
Su mensaje central es muy claro: cuando las herramientas de IA son cada vez más potentes y cada vez pueden acceder a tus datos personales y a los permisos de tu sistema, «prioridad local, aislamiento en sandbox y confianza mínima» no es paranoia, sino un punto de partida racional.
- Este artículo se reproduce con autorización de:《链新闻》
- Título original:《Vitalik:Cómo construí un entorno de trabajo de IA completamente local, privado y bajo control propio》
- Autor original: Elponcrab
Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el
Aviso legal.
Artículos relacionados
Cofundador de Ethereum Lubin: la IA será un punto de inflexión crítico para las criptomonedas, pero el monopolio de los gigantes tecnológicos plantea un riesgo sistémico
El cofundador de Ethereum Joseph Lubin destacó el potencial transformador de la IA para el sector de las criptomonedas, al tiempo que advirtió sobre los riesgos de la centralización entre los gigantes tecnológicos. Él imagina transacciones autónomas impulsadas por IA en blockchain y resalta la convergencia de las finanzas tradicionales con DeFi.
GateNewsHace17m
Elon Musk impulsa los cheques de «ingreso universal alto» como solución definitiva para el desempleo por IA
Elon Musk aboga por una Renta Universal Alta para combatir el desempleo provocado por la IA, imaginando un futuro con abundantes bienes y cero inflación. En contraste, expertos como Sam Altman plantean preocupaciones sobre la pérdida de empleo y proponen medidas de protección para los trabajadores.
CoinpediaHace26m
Se informa que DeepSeek lanza su primera ronda de recaudación externa, apunta a una valoración de más de $10B y $300M+
DeepSeek, una startup de IA china, está negociando su primera ronda de financiación externa, con el objetivo de obtener al menos $300 millones con una valoración de $10 mil millones. A pesar de que anteriormente rechazó ofertas de inversión, según se informa, sus conversaciones de recaudación ahora están en marcha.
GateNewsHace47m
ChatGPT la publicidad llega a Australia y Nueva Zelanda: Free y usuarios de Go primero, los planes de pago mantienen sin anuncios
OpenAI amplió el anuncio de ChatGPT el 17 de abril de 2023 a Australia, Nueva Zelanda y Canadá, para los usuarios de Free y Go; los usuarios de pago no tienen anuncios. Esta medida marca la segunda vía de comercialización de la IA y, al considerar los riesgos comerciales y regulatorios, la aparición de anuncios puede impulsar la conversión a pago.
ChainNewsAbmediahace2h
Hyundai Motor Group se reorganiza en torno a la IA y la robótica y apunta a 30,000 robots Atlas para 2030
Hyundai Motor Group se está reestructurando para centrarse en la IA y la robótica, reduciendo las operaciones tradicionales. Planea una inversión de $34.3 mil millones en robótica para 2030 y tiene como objetivo lanzar un modelo de robótica como servicio, colaborando con Google DeepMind y NVIDIA.
GateNewshace5h
NEA explora el uso de la inteligencia artificial en la regulación nuclear
El Grupo de Trabajo de la NEA sobre Nuevas Tecnologías convocó un taller los días 25 y 26 de marzo, centrado en cómo la inteligencia artificial puede aplicarse a la supervisión regulatoria y a las operaciones internas dentro de las autoridades nucleares.
Resumen
El taller de la NEA exploró aplicaciones reales de IA en la regulación nuclear, con
Cryptonewshace8h