Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Pre-IPOs
Отримайте повний доступ до глобальних IPO акцій.
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Кібербезпека з штучним інтелектом: гонка між OpenAI та Anthropic
Кібербезпека штучного інтелекту тепер є офіційним конкурентним фронтом між OpenAI та Anthropic, причому OpenAI завершує розробку передового продукту безпеки для випуску обмеженому колу партнерів, а Anthropic веде строго контрольовану ініціативу під назвою Project Glasswing, спрямовану на виявлення критичних вразливостей програмного забезпечення до того, як це зроблять зловмисники.
Резюме
Штучний інтелект перейшов від інструменту, що допомагає захисникам розуміти загрози, до системи, яка може самостійно знаходити та експлуатувати вразливості. OpenAI та Anthropic тепер безпосередньо працюють у цій сфері, що має наслідки для урядів, підприємств і мільйонів програмних систем, які підтримують глобальну фінансову інфраструктуру.
OpenAI завершує розробку продукту безпеки, а Anthropic веде Glasswing
OpenAI завершує створення продукту кібербезпеки на базі ШІ з передовими можливостями і планує спершу випустити його обмеженій групі партнерів, повідомляє Tech Startups. Anthropic веде паралельну внутрішню ініціативу під назвою Project Glasswing, строго контрольовану програму, спрямовану на пошук критичних вразливостей програмного забезпечення до того, як це зроблять зловмисники.
Обидві заяви позначають зміну у позиціонуванні двох провідних лабораторій ШІ. Обидві переходять від універсального ШІ до продуктів, орієнтованих на безпеку, з прямими можливостями для атаки та захисту. Питання вже не в тому, що може зробити ШІ у сфері кібербезпеки, а в тому, хто контролює його і хто несе відповідальність, якщо щось піде не так.
Що показує досвід Anthropic
Anthropic вже продемонстрував масштаб можливостей інструментів безпеки ШІ. Як повідомляє crypto.news, компанія обмежила доступ до своєї моделі Claude Mythos Preview після того, як ранні тести виявили тисячі критичних вразливостей у широко використовуваних програмних середовищах, включаючи 27-річну помилку в OpenBSD і 16-річну віддалену уразливість виконання у FreeBSD. Anthropic заявила: «З урахуванням швидкості прогресу ШІ, не мине багато часу, і такі можливості поширяться, можливо, за межі тих, хто прагне використовувати їх безпечно».
Дані галузі, наведені Anthropic, показують 72% річного зростання кібератак, що базуються на ШІ, при цьому 87% світових організацій повідомили про підвищену експозицію до інцидентів, викликаних ШІ, у 2025 році. Project Glasswing позиціонується як контрольована ініціатива Anthropic, щоб залишатися попереду цієї кривої.
Ризик двонаправлених інструментів безпеки ШІ
Глибша проблема для регуляторів і галузі полягає в тому, що той самий інструмент ШІ, який знаходить вразливість захисно, може бути використаний для атаки. Як зазначає crypto.news, спільне дослідження Anthropic і MATS Fellows показало, що Claude Sonnet і GPT-5 могли створювати імітаційні експлойти проти смарт-контрактів Ethereum на суму 4,6 мільйона доларів у тестах, а також виявили дві нові уразливості нульового дня у майже 3000 недавно розгорнутих контрактах.
Ця реальність двонаправленого використання робить стратегічно важливими контрольовані стратегії розгортання, які застосовують обидві компанії. Але питання, чи достатньо обмеженого доступу, щоб запобігти поширенню, залишається відкритим і жодна з лабораторій не дала на нього повної відповіді.