شارك V神: كيف أنشئ بيئة عمل للذكاء الاصطناعي بالكامل محلية وخفية وقابلة للتحكم بشكل مستقل

قدّم فيتالك بوتيرين إطارًا لتشغيل بنية ذكاء اصطناعي محليًا، مع التأكيد على الخصوصية والأمان والسيادة الذاتية، والتنبيه إلى المخاطر المحتملة لوكلاء الذكاء الاصطناعي.

نشر مؤسس الإيثريوم فيتالك بوتيرين في 2 أبريل على موقعه الشخصي مقالة طويلة، شارك فيها إعداداته لبيئة عمل للذكاء الاصطناعي صمّمها بحيث تكون الخصوصية والأمان والسيادة الذاتية في صلبها: بحيث يتم تنفيذ استدلال نماذج LLM محليًا بالكامل، وتخزين جميع الملفات محليًا، مع عزل كامل داخل حاويات معزولة (sandbox) عمدًا، متجنبًا نماذج السحابة وواجهات برمجة التطبيقات الخارجية بشكل متعمد.

في بداية المقال، حذّر أولًا قائلاً: «يرجى عدم نسخ الأدوات والتقنيات التي يصفها هذا المقال مباشرةً وافتراض أنها آمنة. هذا مجرد نقطة انطلاق، وليس وصفًا لنسخة مكتملة.»

لماذا يكتب الآن؟ تم التقليل بشكل كبير من مخاطر أمان وكلاء الذكاء الاصطناعي

أشار فيتالك إلى أنه في بداية هذا العام اكتمل التحول المهم في الذكاء الاصطناعي من «روبوتات الدردشة» إلى «وكلاء»—لم تعد تطرح الأسئلة فقط، بل تسلّم مهامًا، ويمكّن ذلك الذكاء الاصطناعي من التفكير لفترات طويلة واستدعاء مئات الأدوات لتنفيذ العمل. وقدّم مثالًا على ذلك OpenClaw (حاليًا أسرع مستودع نمواً على GitHub على الإطلاق)، كما ذكر بالاسم عدة مشكلات أمان تم توثيقها من قِبل الباحثين:

  • يمكن لوكيل الذكاء الاصطناعي تعديل الإعدادات الحساسة دون الحاجة لتأكيد من الإنسان، بما في ذلك إضافة قنوات اتصال جديدة وتعديل تعليمات النظام
  • إن تحليل أي إدخال خارجي خبيث (مثل صفحة ويب خبيثة) قد يؤدي إلى أن يصبح الوكيل مُسيطرًا عليه بالكامل؛ وفي عرض توضيحي لدى HiddenLayer، جعل الباحثون الذكاء الاصطناعي يلخص مجموعة من الصفحات، وكان هناك داخلها صفحة خبيثة تُصدر أوامر لأجل أن يقوم الوكيل بتنزيل وتنفيذ سكربت shell
  • قد تُنفّذ بعض حزم المهارات (skills) الخاصة بطرف ثالث تسريبًا صامتًا للبيانات، عبر أوامر curl لإرسال البيانات إلى خادم خارجي يتحكم به مؤلف المهارة
  • في حزم المهارات التي حللوها، تحتوي نحو 15% منها على تعليمات خبيثة

شدد فيتالك على أن نقطة انطلاقه تجاه الخصوصية تختلف عن الباحثين التقليديين في الأمن السيبراني: «أنا آتٍ من موقف يخشى بشدة تقديم الحياة الشخصية كاملة إلى ذكاء اصطناعي في السحابة—حيث أننا في الوقت الذي أصبحت فيه أخيرًا خطوة للأمام مع التعميم الواسع للتشفير من طرف إلى طرف والبرمجيات ذات الأولوية المحلية، قد نتراجع عشر خطوات.»

خمسة أهداف أمان

حدد إطارًا واضحًا لأهداف الأمان:

  • خصوصية LLM: في الحالات التي تتضمن بيانات خصوصية شخصية، تقليل استخدام النماذج البعيدة قدر الإمكان
  • خصوصية أخرى: تقليل تسرب البيانات غير المرتبط بـ LLM بأقصى حد ممكن (مثل استعلامات البحث وواجهات برمجة التطبيقات الأخرى عبر الإنترنت)
  • خروج LLM عن السيطرة (LLM Jailbreak): منع محتوى خارجي من «اختراق» LLM الخاص بي، بحيث يجعله يتصرف بما يخالف مصلحتي (مثل إرسال الرموز الخاصة بي أو بياناتي الخاصة)
  • LLM غير المقصود: منع LLM من إرسال بياناتي الخاصة إلى قناة خاطئة أو نشرها على الإنترنت بالخطأ
  • باب خلفي لـ LLM: منع آليات مخفية تم تضمينها عمداً في التدريب على النموذج. وقد نبّه تحديدًا: النموذج المفتوح هو أوزان مفتوحة (open-weights)، ولا يكاد توجد واحدة تُعد «مفتوحة المصدر» فعلًا (open-source)

اختيارات العتاد: فوز 5090 للكمبيوتر المحمول، وخيبة أمل من DGX Spark

اختبر فيتالك ثلاثة إعدادات عتادية للاستدلال محليًا، مع استخدام رئيسي لنموذج Qwen3.5:35B، إلى جانب llama-server و llama-swap:

العتاد Qwen3.5 35B(tokens/sec) Qwen3.5 122B(tokens/sec)
NVIDIA 5090 للكمبيوتر المحمول(24GB VRAM) 90 غير قادر على التشغيل
AMD Ryzen AI Max Pro(ذاكرة موحدة 128GB، Vulkan) 51 18
DGX Spark(128GB) 60 22

كانت نتيجته: إن كان المعدل أقل من 50 tok/sec فهو بطيء جدًا، وإن كان 90 tok/sec فهو مثالي. وكانت تجربة NVIDIA 5090 للكمبيوتر المحمول هي الأكثر سلاسة. وما زالت لدى AMD مشكلات حواف كثيرة، لكن من المتوقع أن تتحسن في المستقبل. كما أن أجهزة MacBook الراقية تعد خيارًا فعالًا، لكنه لم يجرّبها شخصيًا.

وبالنسبة إلى DGX Spark، قال عنه بوضوح وبلا مجاملة: «تم وصفه بأنه «حاسوب عملاق للذكاء الاصطناعي على سطح المكتب»، لكن في الواقع tokens/sec فيه أقل من بطاقات GPUs في كمبيوتر محمول أفضل، كما يتطلب أيضًا معالجة تفاصيل إضافية مثل الاتصال بالشبكة—وهذا أمر سيئ.» ونصيحته هي: إذا كنت لا تستطيع تحمل جهاز كمبيوتر محمول عالي المستوى، فيمكنك اقتناء جهاز قوي بما يكفي بشكل مشترك مع الأصدقاء، ووضعه في مكان لديه عنوان IP ثابت، ثم استخدام الجميع للاتصال عن بُعد.

لماذا تعد مشكلات خصوصية الذكاء الاصطناعي المحلي أكثر إلحاحًا مما تتصور

تتجاوب مقالة فيتالك هذه بشكل مثير للاهتمام مع مناقشة مشكلات أمان Claude Code التي تم إصدارها في نفس اليوم—إذ بينما يدخل وكلاء الذكاء الاصطناعي في سير عمل التطوير اليومي، فإن مسائل الأمان تتحول أيضًا من مخاطر نظرية إلى تهديدات واقعية.

الرسالة الأساسية لديه واضحة جدًا: «عندما يصبح الوصول إلى بياناتك الشخصية وصلاحيات أنظمتك من خلال أدوات الذكاء الاصطناعي أكثر قوة وأكثر قدرة»، فإن «الأولوية المحلية، والعزل داخل حاويات (sandbox)، وأقل قدر ممكن من الثقة» ليست وسواسًا، بل نقطة انطلاق عقلانية.

  • نُشرت هذه المقالة بإذن وإعادة نشرها من: «链新闻»
  • العنوان الأصلي: «Vitalik:كيف قمت ببناء بيئة عمل للذكاء الاصطناعي كاملة محليًا، خاصة وقابلة للتحكم الذاتي»
  • المؤلف الأصلي: Elponcrab
إخلاء المسؤولية: قد تكون المعلومات الواردة في هذه الصفحة من مصادر خارجية ولا تمثل آراء أو مواقف Gate. المحتوى المعروض في هذه الصفحة هو لأغراض مرجعية فقط ولا يشكّل أي نصيحة مالية أو استثمارية أو قانونية. لا تضمن Gate دقة أو اكتمال المعلومات، ولا تتحمّل أي مسؤولية عن أي خسائر ناتجة عن استخدام هذه المعلومات. تنطوي الاستثمارات في الأصول الافتراضية على مخاطر عالية وتخضع لتقلبات سعرية كبيرة. قد تخسر كامل رأس المال المستثمر. يرجى فهم المخاطر ذات الصلة فهمًا كاملًا واتخاذ قرارات مدروسة بناءً على وضعك المالي وقدرتك على تحمّل المخاطر. للتفاصيل، يرجى الرجوع إلى إخلاء المسؤولية.
تعليق
0/400
لا توجد تعليقات