بدأت النيابة العامة في ولاية فلوريدا تحقيقًا ضد OpenAI، مع الاشتباه في أن ChatGPT ساعد في التخطيط لواقعة إطلاق نار في مدرسة، مع وجود مخاوف تتعلق بالأمن القومي وقلق بشأن إيذاء النفس لدى القُصّر. وتنفي OpenAI هذه الاتهامات، مؤكدّةً أن أكثر من 900 مليون شخص يستخدمونها بأمان أسبوعيًا، وأنها ستتعاون مع التحقيقات لمنع جرائم الذكاء الاصطناعي.
وفقًا لتقرير من Axios، أعلن المدعي العام لولاية فلوريدا James Uthmeier أن مكتب المدّعين المحلي قد بدأ تحقيقًا ضد OpenAI. وتشمل أسباب التحقيق المخاوف المتعلقة بالأمن القومي، و في حادث إطلاق النار في جامعة ولاية فلوريدا في العام الماضي، حيث يُشتبه في أن ChatGPT لعب دورًا يساعد الجاني على التخطيط لتنفيذ الجريمة. لا تزال نطاقات التحقيق غير واضحة، لكن المدّعين سيصدرون استدعاءات.
وأشار Uthmeier في مقطع فيديو نشره على منصة التواصل الاجتماعي X إلى أن الذكاء الاصطناعي ينبغي أن يعزز تطور البشر، وليس أن يُستخدم لإبادة البشر. وأكد أن حكومة الولاية طلبت من OpenAI تقديم توضيح بشأن الأضرار التي تلحق بحقوق الأطفال، وكذلك بشأن الأنشطة التي تعرض سلامة الناس للخطر وتُسهم في وقوع حوادث إطلاق النار.
ذكر Uthmeier أن ChatGPT مرتبط بقضية إيذاء النفس والانتحار لدى القُصّر. وقال إنه في حادث إطلاق النار في جامعة ولاية فلوريدا في 17 أبريل 2025 الذي أدى إلى قتيلين وخمسة جرحى، قد يكون الجاني Phoenix Ikner قد استخدم هذه الأداة لتخطيط العملية.
كما أعرب عن قلقه من احتمال أن تُستغل بيانات OpenAI من قبل الحكومة الصينية، وقال إن إطلاق الشركات التقنية لتقنيات جديدة لا يمكن أن يجعل سلامة الجمهور في خطر، مع التأكيد على أنه لا يحق لأي شركة الإضرار بالأطفال أو تشجيع الجرائم أو تهديد الأمن القومي، وأن الشركات المخالفة ستتعرض للملاحقة القانونية.
في مواجهة الاتهامات، ردّت OpenAI بنفي أن يكون ChatGPT قد ساعد في التخطيط لحادث إطلاق النار، مع التأكيد على جهودها في مجال تدابير السلامة.
وأوضح متحدث باسم OpenAI أن هناك أكثر من 900 مليون شخص يستخدمون ChatGPT أسبوعيًا لتحسين حياتهم، بما يشمل تعلم مهارات جديدة والتنقل عبر أنظمة الرعاية الصحية، وتؤدي أعمال السلامة المستمرة لدى OpenAI دورًا محوريًا في تقديم الفوائد للمواطنين، وكذلك في دعم الأبحاث العلمية.
تعهدت OpenAI بالتعاون مع التحقيقات، مشددة على أن النية وراء تطويرها تتمثل في فهم نوايا المستخدمين والرد بطريقة آمنة.
يعكس تحقيق فلوريدا ضد OpenAI أن قطاع الذكاء الاصطناعي يواجه تدقيقًا صارمًا في الوقت الراهن. فقد تعرضت الروبوتات مثل Gemini من Google وGrok التي طورتها xAI التابعة لـ(Elon Musk) مؤخرًا لانتقادات بسبب طريقة التعامل مع التحذيرات المتعلقة بالخطر.
ومن بينها، أثارت كل من Grok ومنصة X (المعروفة سابقًا بتويتر) جدلًا حتى بسبب ميزة تعديل الصور بنقرة واحدة، الأمر الذي أدى إلى اتهامات بالتغاضي عن إنتاج وانتشار مواد إباحية تُستهدف القُصّر.
قبل يوم من إعلان فلوريدا في الولايات المتحدة بدء التحقيق، قالت OpenAI إنها تعاونت بالفعل مع فريق عمل تابع لقطاع الذكاء الاصطناعي لدى مركز National Center for Missing & Exploited Children والتحالف مع المدّعين العامين لوضع إطار وقائي، بينما كانت الهيئة التشريعية في فلوريدا قد أقرت في وقت سابق من هذا العام مشروع القانون رقم 245 لمجلس النواب.
يحدّث هذا القانون قوانين الولاية، ويُحدد صراحةً اعتماد مصطلحات تتعلق بالإساءة الجنسية لمواد الأطفال، وذلك لمعالجة المحتوى غير المشروع الذي يُنشئه الذكاء الاصطناعي وسد الثغرات. وقد وقّع حاكم ولاية فلوريدا Ron DeSantis على مشروع القانون في 1 أبريل.
قراءة متعمقة:
قائد أكبر قضية استغلال جنسي في كوريا الجنوبية يُحكم بالسجن المؤبد! حجم الضحايا 261 شخصًا ضمن نطاق أكبر من N غرفة، وTG يساعد لأول مرة في تحقيق الشرطة الكورية
مقالات ذات صلة
مجموعة هيونداي موتور تعيد تنظيم أعمالها حول الذكاء الاصطناعي والروبوتات، وتستهدف 30,000 روبوت Atlas بحلول عام 2030
تستكشف هيئة الطاقة النووية استخدام الذكاء الاصطناعي في تنظيم الطاقة النووية
الولايات المتحدة تسعى لزيادة واردات اليورانيوم من ناميبيا لتشغيل محطات نووية مدفوعة بالذكاء الاصطناعي