O Grupo de Trabalho da NEA sobre Novas Tecnologias reuniu-se para um workshop a 25–26 de março, centrado em como a inteligência artificial pode ser aplicada à supervisão regulatória e às operações internas no seio das autoridades nucleares.
Resumo
As discussões centraram-se na implementação prática em vez da teoria, com os participantes a examinarem de que forma as ferramentas existentes podem ser integradas nos fluxos de trabalho regulatórios.
O evento reuniu reguladores nucleares e especialistas em IA de 15 países membros da NEA, juntamente com representantes de organizações internacionais. Os participantes partilharam estudos de caso que mostram sistemas de IA já em utilização ou em desenvolvimento em diferentes organismos reguladores.
Os exemplos apresentados durante as sessões incluíram a geração de resumos e apresentações com recurso a IA, a melhoria das capacidades de simulação e a extração de informação relevante a partir de grandes volumes de documentos regulatórios.
Estas demonstrações deram origem a trocas de opiniões detalhadas sobre desafios de implementação, lições aprendidas e formas de identificar aplicações de elevado valor.
Os participantes destacaram várias conclusões principais. Existe uma necessidade clara de estabelecer estruturas de IA bem definidas no seio dos organismos reguladores, apoiadas por procedimentos e orientações definidas.
Considerou-se que os projetos com âmbito bem delimitado tendem a ter um desempenho mais eficaz, enquanto critérios de sucesso claros para ferramentas e iniciativas de IA foram considerados essenciais.
Foram identificados modelos no local como uma possível via para responder a preocupações relacionadas com cibersegurança, soberania dos dados e proteção dos dados. Ao mesmo tempo, a experiência humana continua a ser central para a tomada de decisões e para a interpretação das saídas geradas por IA.
O workshop incentivou a comparação aberta das abordagens nacionais, com os reguladores a partilhar experiências de implementação e a identificar preocupações comuns. As trocas de informação também apontaram para áreas em que uma cooperação internacional mais estreita poderia ajudar a abordar desafios partilhados.
O Sr. Eetu Ahonen, Vice-Presidente do WGNT, conduziu as discussões e sublinhou o valor da colaboração entre jurisdições.
“Este workshop demonstrou o valor da colaboração internacional. Cada regulador está a explorar a IA a partir de um ângulo diferente, mas as experiências que temos com a implementação de ferramentas de IA, os desafios de segurança dos dados e a garantia da supervisão humana são notavelmente semelhantes. Ao partilharmos abertamente e aprendermos uns com os outros, estamos a reforçar a nossa capacidade de utilizar a IA de forma responsável e eficiente para melhorar a segurança nuclear.”
O WGNT, que organizou o evento, funciona como uma plataforma para reguladores e organizações de apoio técnico trocarem conhecimentos sobre a supervisão de tecnologias emergentes ao longo do respetivo ciclo de vida. O seu trabalho apoia o desenvolvimento de uma compreensão partilhada e ajuda a identificar caminhos rumo a posições regulatórias alinhadas.
A NEA planeia publicar um folheto dedicado a resumir as conclusões do workshop, incluindo desafios-chave, lições aprendidas e práticas recomendadas para integrar a IA nos processos regulatórios.
Related Articles
A publicidade do ChatGPT chega à Austrália e Nova Zelândia: os utilizadores Free e Go primeiro, os planos pagos mantêm-se sem publicidade
O Grupo Hyundai Motor reorganiza-se em torno da IA e da robótica, mirando 30.000 robôs Atlas até 2030
A China vai testar 300+ robôs humanoides na meia-maratona de Pequim a 19 de abril
EUA procuram aumentar as importações de urânio da Namíbia para alimentar centrais nucleares orientadas por IA
Executivos da OpenAI Bill Peebles e Kevin Weil Saem numa Reestruturação de Liderança
A Zoom faz parceria com a World para adicionar deteção de deepfakes com reconhecimento facial