
Vitalik Buterin mengajukan arsitektur AI yang dijalankan secara lokal, menekankan privasi, keamanan, dan kedaulatan diri, serta memperingatkan potensi risiko dari AI Agent.
Pendirinya Ethereum, Vitalik Buterin, pada 2 April menulis artikel panjang di situs web pribadinya, membagikan pengaturan lingkungan kerja AI yang ia rancang dengan inti privasi, keamanan, dan kedaulatan diri—semua penalaran LLM dijalankan secara lokal, semua berkas disimpan secara lokal, sepenuhnya di-sandbox, dengan sengaja menghindari model cloud dan API eksternal.
Di awal artikelnya ia lebih dulu memberi peringatan: «Jangan langsung menyalin alat dan teknologi yang dijelaskan dalam artikel ini, serta menganggapnya aman. Ini hanya titik awal, bukan deskripsi tentang produk yang sudah selesai.»
Mengapa menulis artikel ini sekarang? Masalah keamanan AI agent sangat diremehkan
Vitalik menyatakan bahwa pada awal tahun ini AI menyelesaikan transformasi penting dari «robot obrolan» menjadi «agent»—kini Anda tidak lagi hanya menjawab pertanyaan, melainkan menyerahkan tugas, sehingga AI bisa berpikir dalam jangka waktu lama dan memanggil ratusan alat untuk menjalankan tugas. Ia memberi contoh OpenClaw (saat ini repo yang berkembang paling cepat dalam sejarah GitHub) dan sekaligus menyebut berbagai masalah keamanan yang dicatat oleh para peneliti:
- AI agent dapat mengubah pengaturan kunci tanpa konfirmasi manusia, termasuk menambahkan saluran komunikasi baru dan mengubah prompt sistem
- Memproses input eksternal apa pun yang berbahaya (seperti situs web berbahaya) dapat menyebabkan agent sepenuhnya diambil alih; dalam satu demo dari HiddenLayer, peneliti membuat AI merangkum sejumlah halaman web yang di dalamnya ada halaman berbahaya yang akan memerintahkan agent mengunduh dan menjalankan skrip shell
- Sebagian paket keterampilan pihak ketiga (skills) dapat melakukan kebocoran data secara senyap, mengirimkan data melalui perintah curl ke server eksternal yang dikendalikan oleh pembuat skill tersebut
- Dalam skill packages yang mereka analisis, sekitar 15% berisi instruksi berbahaya
Vitalik menekankan bahwa titik berangkatnya tentang privasi berbeda dari peneliti keamanan tradisional: «Saya berasal dari posisi yang sangat takut melihat seluruh kehidupan pribadi seseorang diberi makan ke AI berbasis cloud—tepat pada saat enkripsi end-to-end dan perangkat lunak yang mengutamakan lokal akhirnya menjadi arus utama, kita justru berpotensi mundur sepuluh langkah.»
Lima tujuan keamanan
Ia menetapkan kerangka tujuan keamanan yang jelas:
- Privasi LLM: dalam situasi yang melibatkan data privasi personal, meminimalkan penggunaan model jarak jauh
- Privasi lainnya: meminimalkan kebocoran data selain LLM (seperti kueri pencarian, API online lainnya)
- Jebol LLM: mencegah konten eksternal «menyusup» ke LLM saya, membuatnya bertindak melawan kepentingan saya (misalnya mengirim token saya atau data pribadi)
- LLM yang tidak sengaja: mencegah LLM secara keliru mengirim data pribadi ke saluran yang salah atau mempublikasikannya ke internet
- Backdoor LLM: mencegah mekanisme tersembunyi yang sengaja dilatih ke dalam model. Ia secara khusus mengingatkan: model terbuka adalah bobot terbuka (open-weights), dan hampir tidak ada yang benar-benar open-source
Pilihan perangkat keras: 5090 laptop menang, DGX Spark mengecewakan
Vitalik menguji tiga konfigurasi perangkat keras untuk inferensi lokal, terutama menggunakan model Qwen3.5:35B, dipadukan dengan llama-server dan llama-swap:
| Perangkat keras |
Qwen3.5 35B (tokens/sec) |
Qwen3.5 122B (tokens/sec) |
| NVIDIA 5090 laptop (24GB VRAM) |
90 |
tidak dapat dijalankan |
| AMD Ryzen AI Max Pro (128GB memori terpadu, Vulkan) |
51 |
18 |
| DGX Spark (128GB) |
60 |
22 |
Kesimpulannya adalah: di bawah 50 tok/sec terlalu lambat, sementara 90 tok/sec adalah yang ideal. Pengalaman dengan NVIDIA 5090 laptop paling mulus; AMD saat ini masih memiliki lebih banyak masalah di tepi, tetapi di masa depan diharapkan membaik. MacBook kelas atas juga merupakan opsi yang efektif, hanya saja ia secara pribadi belum mencobanya.
Mengenai DGX Spark, ia berterus terang tanpa basa-basi: «Dideskripsikan sebagai ‘superkomputer AI desktop’, tetapi kenyataannya tokens/sec lebih rendah daripada GPU laptop yang bagus, dan itu pun masih perlu beresin detail tambahan seperti koneksi jaringan—itu sangat buruk.» Saran beliau adalah: jika tidak mampu membeli laptop kelas atas, belilah bersama teman sebuah mesin yang cukup kuat, letakkan di lokasi dengan IP tetap, dan semua orang bisa mengaksesnya dari jarak jauh.
Mengapa masalah privasi AI lokal lebih mendesak daripada yang Anda bayangkan
Artikel Vitalik ini selaras dengan diskusi tentang masalah keamanan Claude Code yang dirilis pada hari yang sama—membentuk cerminan yang menarik. Saat AI agent masuk ke alur kerja pengembangan sehari-hari, masalah keamanan juga sedang beralih dari risiko teoretis menjadi ancaman nyata.
Pesan intinya sangat jelas: ketika alat AI semakin kuat dan semakin mampu mengakses data pribadi serta izin sistem Anda, «prioritas lokal, di-sandbox, kepercayaan minimal» bukanlah paranoia, melainkan titik awal yang rasional.
- Artikel ini dialihbahasakan dengan izin dari: 《Lian News》
- Judul asli: 《Vitalik: Bagaimana saya membangun lingkungan kerja AI yang sepenuhnya lokal, pribadi, dan terkontrol sendiri》
- Penulis asli: Elponcrab
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
NEA mengeksplorasi penggunaan kecerdasan buatan dalam regulasi nuklir
Kelompok Kerja NEA tentang Teknologi Baru mengadakan lokakarya pada 25–26 Maret, dengan fokus pada bagaimana kecerdasan buatan dapat diterapkan untuk pengawasan peraturan dan operasi internal di dalam otoritas nuklir.
Ringkasan
Lokakarya NEA mengeksplorasi penerapan AI di dunia nyata dalam regulasi nuklir, dengan
Cryptonews2jam yang lalu
Tiongkok Akan Menguji 300+ Robot Humanoid di Paruh Maraton Beijing pada 19 April
Maraton setengah robot paruh kedua Beijing menampilkan lebih dari 300 robot humanoid dari 70 tim yang bertanding di lintasan 21 km. Kemajuan dalam pergerakan otonom disorot, dengan 40% beroperasi tanpa kendali. Tiongkok mendominasi pasar robot humanoid, meski menghadapi tantangan produksi.
GateNews4jam yang lalu
AS Ingin Meningkatkan Impor Uranium Namibia untuk Menjalankan Pembangkit Nuklir Berbasis AI
AS sedang mempertimbangkan peningkatan impor uranium dari Namibia untuk mendukung energi nuklir bagi pusat data AI, sementara Tiongkok mendominasi sektor uranium Namibia. Kenaikan harga uranium menghidupkan kembali minat pertambangan, meskipun ada tantangan pasokan air di kawasan yang gersang.
GateNews4jam yang lalu
Para Eksekutif OpenAI Bill Peebles dan Kevin Weil Berpamitan dalam Penataan Ulang Kepemimpinan
Para eksekutif OpenAI, Bill Peebles dan Kevin Weil, mengumumkan pengunduran diri mereka, sebagai bagian dari serangkaian perubahan kepemimpinan saat perusahaan mendesentralisasi operasinya. Kepergian mereka menyusul beberapa pengunduran diri berprofil tinggi lainnya serta pergeseran dalam struktur perusahaan.
GateNews6jam yang lalu
Zoom Bermitra dengan World untuk Menambahkan Deteksi Deepfake Menggunakan Pengenalan Wajah
Zoom telah bermitra dengan World milik Sam Altman untuk meluncurkan fitur yang mendeteksi peserta sebenarnya vs deepfake AI selama panggilan video. Ini bertujuan untuk memerangi penipuan deepfake yang kian meningkat, dengan opsi verifikasi untuk tuan rumah dan peserta.
GateNews6jam yang lalu
Laporan Bug yang Dihasilkan AI Membanjiri Tim Pemelihara cURL
Laporan bug yang dihasilkan AI membanjiri proyek cURL, dengan peningkatan substansial pada jumlah pengajuan yang menyebabkan beban sumber daya. Para pemelihara merespons dengan membatasi akses model AI dan menghentikan program imbalan kerentanan untuk mengelola lonjakan tersebut.
GateNews6jam yang lalu