OpenAI запускає GPT-5.4-Cyber — AI-модель, орієнтовану на кібербезпеку, для найвищого рівня клієнтів

Повідомлення Gate News, 15 квітня — OpenAI представила GPT-5.4-Cyber, спеціалізовану AI-модель з кібербезпеки, обмеженій групі топ-клієнтів у межах своєї програми довіреного доступу, запущеної в лютому. Запуск відбувається через тиждень після того, як конкурент Anthropic випустив Mythos — подібну модель, створену для виявлення та запобігання вразливостям програмного забезпечення.

GPT-5.4-Cyber на початковому етапі доступна лише найвищому рівню користувачів у межах програми довіреного доступу OpenAI, наразі її кількість становить сотні, а плани передбачають розширення до тисяч протягом кількох тижнів. Модель призначена для автоматичного виявлення дефектів і вразливостей у програмному забезпеченні, сповіщаючи фахівців із безпеки для їх усунення ще до того, як зловмисники зможуть ними скористатися. OpenAI заявила, що Codex Security — її попередня кібербезпекова модель, випущена в березні, — уже допомогла виправити понад 3,000 критичних і високоризикових вразливостей.

Конкурентний поштовх відображає зростаюче занепокоєння урядів і фінансових установ щодо кіберзагроз, посилених AI. Нещодавно віцепрезидент США Vance провів екстрені обговорення з провідними технологічними компаніями, тоді як міністр фінансів Scott Bessent і голова Федеральної резервної системи Jerome Powell зібрали лідерів із великих банків, щоб вирішити потенційні кіберризики, які створюють передові AI-моделі.

Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до Застереження.

Пов'язані статті

NEA досліджує використання штучного інтелекту в ядерному регулюванні

Робоча група NEA з нових технологій скликала практичний семінар 25--26 березня, зосередившись на тому, як штучний інтелект можна застосувати для регуляторного нагляду та внутрішніх операцій у ядерних органах влади. Резюме Практичний семінар NEA розглянув прикладні застосування ШІ в ядерному регулюванні, з

Cryptonews24хв. тому

Китай випробує понад 300 гуманоїдних роботів у півмарафоні в Пекіні 19 квітня

У другому робо-півмарафоні в Пекіні візьмуть участь понад 300 гуманоїдних роботів із 70 команд, які змагатимуться на дистанції 21 км. Акцент зроблено на прогресі в автономному русі: 40% працюють без керування. Китай домінує на ринку гуманоїдних роботів, попри виробничі труднощі.

GateNews3год тому

США прагнуть збільшити імпорт урану з Намібії, щоб живити атомні станції для ШІ

Сполучені Штати розглядають збільшення імпорту урану з Намібії, щоб забезпечувати ядерну енергетику для центрів обробки даних під потреби ШІ, оскільки Китай домінує в урановому секторі Намібії. Зростання цін на уран відновлює інтерес до видобутку, попри проблеми з постачанням води в посушливому регіоні.

GateNews3год тому

Керівники OpenAI Білл Піблз і Кевін Вейл залишають посади під час реорганізації управління

Керівники OpenAI Білл Піблз і Кевін Вейл оголосили про своє звільнення; це частина низки кадрових змін керівництва, оскільки компанія децентралізує свою роботу. Їхні відходи відбулися після кількох інших гучних звільнень і зміни структури компанії.

GateNews4год тому

Zoom співпрацює зі World, щоб додати виявлення дипфейків за допомогою розпізнавання облич

Zoom співпрацює зі World Сема Альтмана, щоб запустити функцію, яка під час відеодзвінків виявляє реальних учасників проти AI-дипфейків. Це має на меті протидіяти зростанню шахрайства з дипфейками, із варіантами верифікації для хостів і учасників.

GateNews4год тому

AI-генеровані звіти про помилки перевантажують команду супроводу cURL

AI-генеровані звіти про помилки перевантажують проєкт cURL: суттєво зросла кількість подань, що спричиняє ресурсне навантаження. Розробники відповідають тим, що обмежують доступ до AI-моделей і призупиняють програми винагород за вразливості, щоб упоратися з припливом.

GateNews5год тому
Прокоментувати
0/400
Немає коментарів