Com o objetivo de fazer face ao aumento da exploração sexual de crianças habilitada por IA, a OpenAI publicou na quarta-feira um plano de política que descreve novas medidas de segurança que a indústria pode adotar para ajudar a travar o uso de IA na criação de material de abuso sexual de crianças. No plano, a OpenAI enumera medidas legais, operacionais e técnicas destinadas a reforçar as proteções contra abusos habilitados por IA e a melhorar a coordenação entre empresas de tecnologia e investigadores. “A exploração sexual de crianças é um dos desafios mais urgentes da era digital”, escreveu a empresa. “A IA está a alterar rapidamente tanto a forma como estes danos surgem em toda a indústria como a forma como podem ser abordados à escala.”
A OpenAI afirmou que a proposta incorpora contributos de organizações que trabalham na proteção de crianças e na segurança online, incluindo o National Center for Missing and Exploited Children e a Attorney General Alliance e o seu grupo de trabalho de IA. “A IA generativa está a acelerar o crime de exploração sexual de crianças em linha de formas profundamente perturbadoras — reduzindo barreiras, aumentando a escala e permitindo novas formas de dano”, afirmou em comunicado a Presidente e CEO do National Center for Missing & Exploited Children, Michelle DeLaune. “Mas, ao mesmo tempo, o National Center for Missing & Exploited Children fica encorajado a ver empresas como a OpenAI a refletirem sobre a forma como estas ferramentas podem ser concebidas de modo mais responsável, com salvaguardas incorporadas desde o início.” A OpenAI disse que o plano combina normas legais, sistemas de reporte da indústria e salvaguardas técnicas dentro dos modelos de IA. A empresa afirmou que estas medidas têm como objetivo ajudar a identificar mais cedo os riscos de exploração e melhorar a responsabilização em toda a rede de plataformas online.
O blueprint identifica áreas de ação, incluindo a atualização de leis para abordar material de abuso sexual de crianças gerado por IA ou alterado, melhorar a forma como os fornecedores online reportam sinais de abuso e coordenar com investigadores, e construir salvaguardas nos sistemas de IA concebidos para evitar abusos. “Nenhuma intervenção única pode resolver este desafio por si só”, escreveu a empresa. “Este plano reúne abordagens legais, operacionais e técnicas para identificar melhor os riscos, acelerar as respostas e apoiar a responsabilização, assegurando ao mesmo tempo que as autoridades de aplicação da lei se mantêm fortes à medida que a tecnologia evolui.” O blueprint surge num contexto em que defensores da segurança infantil levantaram preocupações de que sistemas de IA generativa capazes de produzir imagens realistas possam ser usados para criar representações manipuladas ou sintéticas de menores. Em fevereiro, a UNICEF apelou aos governos do mundo para aprovarem leis que criminalizem material de abuso infantil gerado por IA. Em janeiro, a Comissão Europeia lançou uma investigação formal sobre se a X, anteriormente conhecida como Twitter, violou as regras digitais da UE ao não impedir que o modelo nativo de IA da plataforma, Grok, gerasse conteúdos ilegais, uma vez que reguladores no Reino Unido e na Austrália também abriram investigações. Salientando que as leis, por si só, não vão travar a vaga de material de abuso gerado por IA, a OpenAI afirmou que serão necessárias normas mais rigorosas da indústria à medida que os sistemas de IA se tornem mais capazes. “Ao interromper tentativas de exploração mais cedo, melhorar a qualidade dos sinais enviados às autoridades policiais e reforçar a responsabilização em todo o ecossistema, este plano tem como objetivo prevenir danos antes de acontecerem e ajudar a garantir uma proteção mais rápida para as crianças quando surgem riscos”, disse a OpenAI.