نيابة ولاية فلوريدا تحقق مع OpenAI، وتشتبه في أن ChatGPT ساعد في التخطيط لهجوم إطلاق نار في مدرسة، مع وجود مخاوف تتعلق بالأمن القومي وقلق من أن الاستخدام قد يفضي إلى إيذاء النفس لدى القُصّر. تنفي OpenAI الاتهامات، مؤكدة أن أكثر من 900 مليون شخص يستخدمونها بأمان أسبوعيًا، وأنها ستتعاون مع التحقيقات لمنع جرائم الذكاء الاصطناعي.
وفقًا لتقرير من Axios، أعلن المدعي العام لولاية فلوريدا James Uthmeier أن مكتب المدعين المحلي قد بدأ تحقيقًا مع OpenAI. تشمل أسباب التحقيق مخاوف تتعلق بالأمن القومي، فضلاً عن أنه في حادث إطلاق النار في جامعة ولاية فلوريدا في العام الماضي، يُشتبه في أن ChatGPT تولّى دورًا يتمثل في مساعدة الجاني على التخطيط لارتكاب الجريمة. لم تتضح بعد حدود نطاق التحقيق، لكن المدعين سيصدرون أوامر استدعاء.
قال Uthmeier في فيديو نشره على منصة التواصل الاجتماعي X، إنه ينبغي للذكاء الاصطناعي أن يعزّز تطور البشر، وليس أن يُستخدم لإبادة البشر. وأكد أن حكومة الولاية تطلب من OpenAI تقديم توضيح بشأن الضرر الذي يلحق بحقوق الأطفال، وبشأن الأنشطة التي تعرض سلامة الجمهور للخطر وتساهم في وقوع حوادث إطلاق النار.
أشار Uthmeier إلى وجود صلة بين ChatGPT وقضايا إيذاء النفس أو الانتحار التي تورط فيها قاصرون. وأوضح أنه في حادث إطلاق النار في جامعة ولاية فلوريدا بتاريخ 17 أبريل 2025 الذي أسفر عن مقتل شخصين وإصابة خمسة، قد يكون المهاجم Phoenix Ikner استخدم هذه الأداة للتخطيط للعملية.
كما أعرب عن قلقه من احتمال استغلال بيانات OpenAI من قبل حكومة الصين، وقال إن الشركات التقنية عندما تُطلق تقنيات جديدة لا يجب أن تُعرّض سلامة المواطنين للخطر، مشددًا على أن أي شركة ليس لها الحق في الإضرار بالأطفال أو تشجيع الجرائم أو تهديد الأمن القومي، وأن الشركات المخالفة ستتعرض للمساءلة القانونية.
إزاء الاتهامات، أصدرت OpenAI بيانًا للرد على مزاعم أن ChatGPT ساعد في التخطيط لحادث إطلاق النار، مؤكدة الجهود التي تبذلها في مجال تدابير السلامة.
صرّح متحدث باسم OpenAI بأنه يوجد أكثر من 900 مليون شخص يستخدمون ChatGPT أسبوعيًا لتحسين حياتهم، بما في ذلك تعلم مهارات جديدة والتنقل في أنظمة الرعاية الصحية، وتعمل جهود السلامة المستمرة التي تقوم بها OpenAI دورًا محوريًا في تقديم منافع للجمهور ودعم الأبحاث العلمية.
تعهدت OpenAI بالتعاون مع التحقيق، مع التأكيد على أن النية من التطوير تتمثل في فهم مقاصد المستخدمين والرد عليها بطريقة آمنة.
يُظهر التحقيق في ولاية فلوريدا ضد OpenAI أن صناعة الذكاء الاصطناعي تواجه تدقيقًا صارمًا في هذه المرحلة. فقد تعرضت الروبوتات مثل Gemini من Google وGrok التي طورتها xAI التابعة لماسك (Elon Musk) مؤخرًا لانتقادات بسبب طريقة التعامل مع التحذيرات المتعلقة بالمخاطر.
ومن بين ذلك، واجه كل من Grok والمنصة التابعة لـ X (تويتر سابقًا) جدلًا أيضًا بسبب وظيفة تعديل الصور بنقرة واحدة، ما أثار انتقادات بأنها تتساهل في إنتاج وتداول مواد إباحية تستهدف القاصرين.
قبل يوم واحد من إعلان فلوريدا في الولايات المتحدة بدء التحقيق، ذكرت OpenAI أنها تعاونت مع فريق العمل التابع لمركز الوطني المفقودين والمعتدى عليهم من الأطفال والمدّعين العامين لوضع إطار وقائي، في حين كانت الهيئة التشريعية في فلوريدا قد أقرت في وقت سابق من هذا العام مشروع القانون رقم 245 الخاص بمجلس النواب.
يحدّث هذا القانون القوانين على مستوى الولاية ويعتمد بوضوح مصطلحات تتعلق بالاعتداء الجنسي على الأطفال، وذلك لمواجهة المحتوى غير القانوني الذي يولّده الذكاء الاصطناعي وسد الثغرات، وقد وقّع حاكم فلوريدا Ron DeSantis على مشروع القانون في 1 أبريل.
قراءة متعمقة:
قائد أكبر قضية استغلال جنسي في كوريا الجنوبية يُحكم بالسجن المؤبد! حجم 261 ضحية وفق نطاق رقم N في غرفة؟ وTG تتعاون لأول مرة مع الشرطة الكورية في التحقيقات
مقالات ذات صلة
توسّع ChatGPT في الإعلانات إلى أستراليا ونيوزيلندا: مجانًا وGo للمستخدمين أولًا، مع الحفاظ على الخطط المدفوعة دون إعلانات
مجموعة هيونداي موتور تعيد تنظيم أعمالها حول الذكاء الاصطناعي والروبوتات، وتستهدف 30,000 روبوت Atlas بحلول عام 2030
تستكشف هيئة الطاقة النووية استخدام الذكاء الاصطناعي في تنظيم الطاقة النووية
الولايات المتحدة تسعى لزيادة واردات اليورانيوم من ناميبيا لتشغيل محطات نووية مدفوعة بالذكاء الاصطناعي