La génération de fausses infos par IA coûte seulement 13 won, 4 secondes : conférence sécurité de Corée

CryptoFrontier

Le 16 avril 2026, Ko Woo-young, chercheur principal de l’Institut national de technologie de la sécurité de Corée (NSTI), a présenté des résultats à la 32e Conférence sur la sécurité des réseaux d’information et de communication (NetSec-KR 2026), à Séoul, révélant que des fausses nouvelles générées par IA peuvent être produites à un coût et une vitesse remarquablement faibles. D’après la présentation de Ko, créer de fausses informations à l’aide d’une IA générative coûte en moyenne 13 won et prend 4 secondes, tandis que 12 fausses nouvelles nécessitent en moyenne 155 won et 46 secondes. Ko a souligné que la prolifération de désinformation générée par IA et de commentaires malveillants conçus pour manipuler l’opinion publique est devenue une menace critique pour la société.

Désinformation générée par IA et impact social

Ko a mis en avant que, tandis que les capacités de l’IA générative sont de plus en plus détournées, la tactique principale d’abus consiste en la manipulation de l’opinion et de l’information. Il a insisté sur le fait que, lorsque le coût et le volume des fausses nouvelles et des faux commentaires deviennent si faibles et si abondants, la société atteint un point où distinguer la vérité du faux devient extrêmement difficile.

D’après l’analyse de Ko, lorsque de fausses informations deviennent omniprésentes, les membres de la société s’épuisent face à la désinformation et commencent à perdre de l’intérêt pour la réalité. Ce phénomène amène les gens à remettre en question même des informations authentiques. Ko a noté que « la sanction pour de fausses nouvelles est légalement difficile à appliquer à moins qu’elle ne se traduise par un gain financier », et a souligné que « la technologie de l’IA générative évolue trop rapidement, et des améliorations institutionnelles sont nécessaires. »

Ko Woo-young présentant les risques de fausses nouvelles générées par IA à NetSec-KR 2026

Analyse et détection de logiciels malveillants basées sur l’IA

Choi Seok-woo, directeur du NSTI, a présenté « Technologie d’analyse de logiciels malveillants basée sur l’IA » lors de la même session. D’après les résultats de Choi, à mesure que l’IA commence à être utilisée pour générer des logiciels malveillants, environ 450 000 nouveaux échantillons de logiciels malveillants sont créés chaque jour. Le total cumulé des logiciels malveillants a dépassé 1 milliard d’occurrences.

Face à cette menace en hausse, Choi a préconisé le développement de solutions pilotées par l’IA, notamment des systèmes d’assistance analytique basés sur l’IA, des agents d’analyse autonome fondés sur de grands modèles de langage (LLM), et des outils de déobfuscation automatisés.

Choi Seok-woo présentant la nécessité d’une technologie d’analyse de logiciels malveillants basée sur l’IA

Détection des vulnérabilités basée sur les LLM : limites actuelles

Ji Hyun-seok, chercheur principal au NSTI, a présenté « L’ère de la détection des vulnérabilités de sécurité des logiciels basée sur les LLM ». La recherche de Ji a examiné la façon dont les LLM détectent les vulnérabilités de sécurité et a mis en évidence des limites importantes des capacités actuelles.

Ji a déclaré : « Dans des cas récents, bien que l’IA ait identifié de nombreuses vulnérabilités, les résultats de l’analyse montrent que ce n’est pas réellement le cas. Une détection efficace des vulnérabilités n’a été possible que lorsque les modèles LLM et IA ont reçu des outils dédiés de détection des vulnérabilités. » D’après Ji, les LLM font actuellement face à plusieurs contraintes, notamment des limites dans la prise en charge de grands ensembles de code, des problèmes de dépendance aux données, et une inférence peu fiable.

Ji a projeté que la synergie serait maximisée lorsque des analystes sécurité compétents, capables d’identifier directement des vulnérabilités, pourraient exploiter des outils LLM. Toutefois, Ji a souligné que « la détection des vulnérabilités par LLM n’est pas encore complète. De meilleures méthodes pour trouver des vulnérabilités doivent être explorées ». La présentation a mis en évidence que la détection des vulnérabilités basée sur les LLM ne peut pas encore être réalisée efficacement par l’IA seule, et que l’expertise humaine demeure essentielle pour une analyse de sécurité fiable.

Ji Hyun-seok présentant des recherches sur la détection des vulnérabilités basée sur les LLM

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.
Commentaire
0/400
Aucun commentaire