
Vitalik Buterin mengusulkan arsitektur AI yang dijalankan secara lokal, menekankan privasi, keamanan, dan kedaulatan diri, serta memperingatkan potensi risiko dari AI Agent.
Pendirian Ethereum Vitalik Buterin pada 2 April menulis artikel panjang di situs web pribadinya, membagikan pengaturan lingkungan kerja AI yang ia bangun dengan inti privasi, keamanan, dan kedaulatan diri—semua inferensi LLM dijalankan secara lokal, semua file disimpan secara lokal, sepenuhnya di-sandbox, dan secara sengaja menghindari model cloud serta API eksternal.
Di awal artikelnya ia lebih dulu memperingatkan: “Jangan salin langsung alat dan teknologi yang dijelaskan dalam artikel ini, serta anggap semuanya aman. Ini hanya titik awal, bukan deskripsi produk yang sudah selesai.”
Mengapa menulis artikel ini sekarang? Masalah keamanan AI agent sangat diremehkan
Vitalik menyebutkan bahwa, pada awal tahun ini, AI telah menyelesaikan transformasi penting dari “chatbot” menjadi “agent”—Anda tidak lagi hanya mengajukan pertanyaan, melainkan menyerahkan tugas, sehingga AI bisa berpikir dalam jangka panjang, memanggil ratusan alat untuk menjalankan pekerjaan. Ia memberi contoh OpenClaw (repo dengan pertumbuhan tercepat dalam sejarah GitHub), sekaligus menyoroti berbagai masalah keamanan yang dicatat oleh peneliti:
- AI agent dapat mengubah pengaturan penting tanpa konfirmasi manusia, termasuk menambahkan saluran komunikasi baru dan mengubah system prompt
- Memproses masukan eksternal apa pun yang berbahaya (seperti situs web berbahaya) dapat membuat agent sepenuhnya diambil alih; dalam sebuah demo oleh HiddenLayer, para peneliti membuat AI meringkas sekelompok halaman web, di antaranya ada satu halaman berbahaya yang membuat agent mengunduh dan mengeksekusi skrip shell
- Sebagian paket keterampilan pihak ketiga (skills) menjalankan kebocoran data secara senyap, dengan mengirim data melalui perintah curl ke server eksternal yang dikendalikan oleh penulis skill tersebut
- Dalam skill pack yang mereka analisis, sekitar 15% berisi instruksi berbahaya
Vitalik menekankan bahwa pandangannya tentang privasi berbeda dari peneliti keamanan siber tradisional: “Saya datang dari sikap yang sangat takut pada gagasan menyerahkan seluruh kehidupan pribadi seseorang ke AI berbasis cloud—tepat pada saat enkripsi end-to-end dan perangkat lunak yang mengutamakan lokal akhirnya menjadi arus utama, kita justru mungkin mundur sepuluh langkah.”
Lima tujuan keamanan
Ia menetapkan kerangka tujuan keamanan yang jelas:
- Privasi LLM: dalam situasi yang melibatkan data privasi personal, kurangi penggunaan model jarak jauh sebanyak mungkin
- Privasi lainnya: minimalkan kebocoran data non-LLM (misalnya kueri pencarian, API online lainnya)
- Jailbreak LLM: cegah konten eksternal “menyusup” ke LLM saya, membuatnya melawan kepentingan saya (misalnya mengirim token saya atau data pribadi)
- LLM tak terduga: mencegah LLM secara keliru mengirim data pribadi ke kanal yang salah atau membuatnya terbuka ke internet
- Backdoor LLM: cegah mekanisme tersembunyi yang sengaja dilatih ke dalam model. Ia secara khusus mengingatkan: model terbuka adalah bobot terbuka (open-weights), dan hampir tidak ada yang benar-benar open-source
Pilihan perangkat keras: 5090 laptop menang, DGX Spark mengecewakan
Vitalik menguji tiga konfigurasi perangkat keras untuk inferensi lokal, dengan model andalannya Qwen3.5:35B, dipadukan dengan llama-server dan llama-swap:
| Perangkat keras |
Qwen3.5 35B(tokens/sec) |
Qwen3.5 122B(tokens/sec) |
| NVIDIA 5090 laptop(24GB VRAM) |
90 |
tidak dapat dijalankan |
| AMD Ryzen AI Max Pro(128GB memori terintegrasi, Vulkan) |
51 |
18 |
| DGX Spark(128GB) |
60 |
22 |
Kesimpulannya adalah: di bawah 50 tok/sec terlalu lambat, 90 tok/sec adalah ideal. Pengalaman dengan NVIDIA 5090 laptop paling mulus; AMD saat ini masih memiliki lebih banyak masalah di tepi, tetapi di masa depan diharapkan membaik. MacBook kelas atas juga merupakan opsi yang efektif, hanya saja ia pribadi tidak mencobanya secara langsung.
Soal DGX Spark, ia mengatakannya dengan terus terang: “Dideskripsikan sebagai ‘superkomputer AI desktop’, tapi sebenarnya tokens/sec-nya lebih rendah daripada GPU laptop yang bagus, dan masih harus mengurus detail tambahan seperti koneksi jaringan—ini sangat buruk.” Saran dia adalah: jika tidak mampu membeli laptop kelas atas, Anda bisa patungan dengan teman untuk membeli satu mesin yang cukup kuat, menaruhnya di lokasi dengan IP tetap, lalu semua orang menggunakan koneksi jarak jauh.
Mengapa masalah privasi AI lokal lebih mendesak daripada yang Anda bayangkan
Artikel Vitalik ini beresonansi secara menarik dengan diskusi soal keamanan Claude Code yang dirilis pada hari yang sama—saat AI agent masuk ke alur kerja pengembangan sehari-hari, masalah keamanan juga sedang berubah dari risiko teoretis menjadi ancaman nyata.
Pesan intinya sangat jelas: pada saat alat AI makin kuat, makin mampu mengakses data pribadi Anda dan izin sistem, “mengutamakan lokal, di-sandbox, dan minim kepercayaan” bukanlah paranoia, melainkan titik awal yang rasional.
- Artikel ini diterbitkan ulang dengan izin dari:《Lian News》
- Judul asli:《Vitalik: Bagaimana saya membangun lingkungan kerja AI yang sepenuhnya lokal, privat, dan dapat dikendalikan sendiri》
- Penulis asli:Elponcrab
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke
Penafian.
Artikel Terkait
Iklan ChatGPT masuk ke Australia dan Selandia Baru: Free dan pengguna Go lebih dulu, paket berbayar tetap tanpa iklan
OpenAI pada 17 April 2023 memperluas iklan ChatGPT ke Australia, Selandia Baru, dan Kanada, untuk pengguna Free dan Go; pengguna berbayar tidak memiliki iklan. Langkah ini menandai jalur kedua komersialisasi AI, sekaligus mempertimbangkan risiko bisnis dan regulasi; kehadiran iklan dapat mendorong konversi berbayar.
ChainNewsAbmedia43menit yang lalu
Hyundai Motor Group Mengorganisasi Ulang Berpusat pada AI dan Robotika, Menargetkan 30.000 Robot Atlas pada 2030
Grup Hyundai Motor melakukan restrukturisasi untuk fokus pada AI dan robotika, mengurangi operasi tradisional. Grup ini berencana berinvestasi sebesar $34,3 miliar pada robotika pada 2030 dan menargetkan peluncuran model robotics-as-a-service, bekerja sama dengan Google DeepMind dan NVIDIA.
GateNews3jam yang lalu
NEA mengeksplorasi penggunaan kecerdasan buatan dalam regulasi nuklir
Kelompok Kerja NEA tentang Teknologi Baru mengadakan lokakarya pada 25–26 Maret, dengan fokus pada bagaimana kecerdasan buatan dapat diterapkan untuk pengawasan peraturan dan operasi internal di dalam otoritas nuklir.
Ringkasan
Lokakarya NEA mengeksplorasi penerapan AI di dunia nyata dalam regulasi nuklir, dengan
Cryptonews6jam yang lalu
Tiongkok Akan Menguji 300+ Robot Humanoid di Paruh Maraton Beijing pada 19 April
Maraton setengah robot paruh kedua Beijing menampilkan lebih dari 300 robot humanoid dari 70 tim yang bertanding di lintasan 21 km. Kemajuan dalam pergerakan otonom disorot, dengan 40% beroperasi tanpa kendali. Tiongkok mendominasi pasar robot humanoid, meski menghadapi tantangan produksi.
GateNews8jam yang lalu
AS Ingin Meningkatkan Impor Uranium Namibia untuk Menjalankan Pembangkit Nuklir Berbasis AI
AS sedang mempertimbangkan peningkatan impor uranium dari Namibia untuk mendukung energi nuklir bagi pusat data AI, sementara Tiongkok mendominasi sektor uranium Namibia. Kenaikan harga uranium menghidupkan kembali minat pertambangan, meskipun ada tantangan pasokan air di kawasan yang gersang.
GateNews9jam yang lalu
Para Eksekutif OpenAI Bill Peebles dan Kevin Weil Berpamitan dalam Penataan Ulang Kepemimpinan
Para eksekutif OpenAI, Bill Peebles dan Kevin Weil, mengumumkan pengunduran diri mereka, sebagai bagian dari serangkaian perubahan kepemimpinan saat perusahaan mendesentralisasi operasinya. Kepergian mereka menyusul beberapa pengunduran diri berprofil tinggi lainnya serta pergeseran dalam struktur perusahaan.
GateNews10jam yang lalu