ChatGPT предполагают в содействии планированию нападения с применением оружия, расследование со стороны властей США во Флориде! Генеральный прокурор: ИИ не должен использоваться для уничтожения человечества

Власти Флориды начали расследование в отношении OpenAI, подозревая, что ChatGPT помогал в планировании школьного стрелкового нападения, а также затрагивая вопросы национальной безопасности и опасения, связанные с самоповреждением несовершеннолетних. OpenAI отрицает обвинения, подчеркивая, что каждую неделю более 900 млн людей безопасно используют его сервис, и заявляет, что будет сотрудничать с расследованием и пресечением преступлений, связанных с ИИ.

Расследование OpenAI во Флориде: подозрения в том, что ChatGPT помог спланировать стрельбу

Согласно сообщению Axios, генеральный прокурор Флориды James Uthmeier объявил, что местная прокуратура начала расследование против OpenAI. Среди причин расследования компании — опасения в связи с национальной безопасностью, а также предполагаемая роль ChatGPT в прошлом году в деле о стрельбе в Университете штата Флорида, где он, как считается, мог выступать в качестве инструмента для планирования преступления предполагаемым нападавшим. Объем расследования пока неясен, но сторона обвинения намерена направить повестки.

Uthmeier в видео, опубликованном на платформе X, заявил, что ИИ должен способствовать развитию людей, а не использоваться для уничтожения людей. Он подчеркнул, что власти штата требуют от OpenAI объяснений по поводу ущерба правам детей, а также действий, которые подвергают риску безопасность населения и способствуют совершению нападений.

Стрельба в Университете штата Флорида привела к двум погибшим и пяти раненым

Uthmeier указал, что ChatGPT связан со случаями самоповреждения и самоубийства несовершеннолетних. Он пояснил, что в стрельбе в Университете штата Флорида, произошедшей 17 апреля 2025 года и в результате которой погибли двое и пятеро получили ранения, стрелок Phoenix Ikner, возможно, использовал этот инструмент для планирования своих действий.

Он также выразил обеспокоенность риском того, что данные OpenAI могут быть использованы правительством Китая, и заявил, что выпуск компаниями новых технологий не должен подвергать безопасность людей опасности. Он подчеркнул, что любая компания не имеет права причинять вред детям, способствовать преступлениям или угрожать национальной безопасности, а в случае нарушений компании будут ожидать судебные разбирательства.

OpenAI делает акцент на безопасности продукта: отрасль сталкивается с жесткой проверкой

Отвечая на обвинения, OpenAI выступила с заявлением, опровергающим то, что ChatGPT помогал планировать стрельбу, и подчеркнула усилия в сфере мер безопасности.

Представитель OpenAI сообщил, что каждую неделю более 900 млн человек используют ChatGPT, чтобы улучшать свою жизнь, включая обучение новым навыкам и навигацию по медицинским системам, а продолжающаяся работа OpenAI по обеспечению безопасности играет ключевую роль в предоставлении людям пользы и поддержке научных исследований.

OpenAI пообещала сотрудничать с расследованием, подчеркнув, что первоначальная цель разработки — понимать намерения пользователей и отвечать безопасным образом.

Расследование во Флориде в отношении OpenAI отражает тот факт, что в то время, когда отрасль ИИ подвергается строгому надзору, такие вопросы остаются в фокусе внимания. Роботы вроде Gemini от Google и Grok, разработанного xAI под руководством Илона Маска (Elon Musk), в последнее время подвергались критике за способы реагирования на опасные предупреждения.

В частности, Grok, а также платформа X (ранее Twitter) вызвали споры из-за функции изменения изображений «в один клик», что, по мнению критиков, фактически поощряет создание и распространение изображений с сексуальной эксплуатацией несовершеннолетних.

  • **Соответствующий репортаж:**Grok за 11 дней сгенерировал более 20 000 изображений с сексуальной эксплуатацией несовершеннолетних! ЕС запускает расследование; максимальный возможный штраф — до 6% годовой выручки

OpenAI продвигает рамки безопасности, во Флориде принимают поправки в закон для предотвращения уязвимостей

За день до того, как во Флориде объявили о запуске расследования, OpenAI сообщила, что уже сотрудничала с AI-рабочей группой Центра по делам пропавших и пострадавших от насилия детей и с объединением генеральных прокуроров, чтобы разработать рамки профилактики. При этом законодательное собрание Флориды приняло законопроект № 245 в этом году ранее.

Данный законопроект обновляет нормы штата, четко закрепляя формулировки, относящиеся к материалам сексуального насилия над детьми, — чтобы противостоять незаконному контенту, генерируемому с помощью ИИ, и закрыть существующие пробелы. Губернатор Флориды Ron DeSantis подписал этот законопроект 1 апреля.

Дополнительное чтение:
Главный подозреваемый в крупнейшем деле о сексуальной эксплуатации в Южной Корее получил пожизненное заключение! 261 пострадавший — масштаб уровня «квартирного N-номера», TG впервые помогла корейской полиции в расследовании

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

Сооснователь Ethereum Любин: ИИ станет критически важным поворотным моментом для криптовалют, но монополия техгигантов несет системный риск

Сооснователь Ethereum Джозеф Любин подчеркнул преобразующий потенциал ИИ для криптовалютного сектора, одновременно предостерегая от рисков централизации среди технологических гигантов. Он представляет ИИ-управляемые автономные транзакции в блокчейне и отмечает сближение традиционных финансов с DeFi.

GateNews1ч назад

Илон Маск продвигает чеки «универсального высокого дохода» как единственное решение проблемы безработицы в ИИ

Илон Маск выступает за Универсальный высокий доход, чтобы противодействовать безработице, вызванной ИИ, представляя будущее, в котором будет в достатке товаров и нулевая инфляция. В отличие от этого, такие эксперты, как Сэм Альтман, выражают обеспокоенность потерей рабочих мест и предлагают защитные меры для работников.

Coinpedia1ч назад

Сообщается, что DeepSeek запустила первый раунд внешнего сбора средств, нацелившись на оценку $10B+ и $300M+

DeepSeek, китайская AI-компания, ведет переговоры о первом раунде внешнего финансирования, стремясь привлечь как минимум $300 млн при оценке $10 млрд. Несмотря на прежние отказы от инвестиционных предложений, сейчас, как сообщается, ее обсуждения по сбору средств уже идут.

GateNews1ч назад

Реклама ChatGPT выходит на рынки Австралии и Новой Зеландии: для пользователей Free и Go сначала, платные тарифы сохраняют отсутствие рекламы

OpenAI 17 апреля 2023 года расширила рекламу ChatGPT до Австралии, Новой Зеландии и Канады, нацелившись на пользователей Free и Go; для платных пользователей рекламы нет. Это знаменует вторую траекторию коммерциализации ИИ и учитывает коммерческие и регуляторные риски: появление рекламы может способствовать конвертации в платную подписку.

ChainNewsAbmedia4ч назад

Hyundai Motor Group реорганизует деятельность вокруг ИИ и робототехники, нацеливаясь на 30 000 роботов Atlas к 2030 году

Группа Hyundai Motor Group проводит реструктуризацию, чтобы сосредоточиться на ИИ и робототехнике, сокращая традиционные направления. Она планирует инвестировать $34,3 млрд в робототехнику к 2030 году и намерена запустить модель робототехники как услуги, сотрудничая с Google DeepMind и NVIDIA.

GateNews7ч назад

NEA изучает применение искусственного интеллекта в ядерном регулировании

Рабочая группа NEA по новым технологиям провела семинар 25—26 марта, посвященный тому, как искусственный интеллект может применяться для регуляторного надзора и внутренних операций в рамках ядерных органов власти. Резюме Семинар NEA изучал реальные приложения ИИ в ядерном регулировании, с

Cryptonews9ч назад
комментарий
0/400
Нет комментариев