A verificação KYC obrigatória do Claude é lançada; contas em regiões não suportadas enfrentam bloqueio

Claude KYC

A Anthropic implementou de forma abrangente uma verificação de identidade obrigatória (KYC) na sua plataforma Claude, a cargo do fornecedor de serviços terceiro Persona Identities. A oficial define esta medida como uma «verificação completa de conformidade habitual», com o objectivo de evitar abusos, aplicar as políticas da plataforma e assegurar conformidade regulatória. Após a implantação em grande escala desta medida a partir de Abril de 2026, o seu impacto é mais directo para utilizadores localizados em regiões não suportadas, como a China continental.

Condições de disparo da verificação KYC e objectivos oficiais

A verificação KYC (conheça o seu cliente) é um mecanismo de conformidade que plataformas financeiras e tecnológicas utilizam para confirmar a identidade real dos utilizadores. Nesta iniciativa, a Anthropic introduziu a Persona Identities como executor terceiro, exigindo que os utilizadores submetam documentos de identificação válidos e concluam uma verificação de vida em tempo real.

A descrição oficial indica três objectivos centrais desta medida:

Prevenir abusos: identificar operações em massa de contas, utilizações maliciosas automatizadas e outras condutas anormais

Aplicar políticas de utilização: garantir que o uso da plataforma cumpre os Termos de Serviço da Anthropic

Conformidade regulatória: dar resposta às exigências cada vez mais rigorosas dos regulamentos dos EUA e internacionais para fornecedores de serviços de IA

Importa notar que, mesmo que o utilizador complete com sucesso a verificação de passaporte e a verificação de vida, se o sistema detectar que a localização real de utilização da conta se encontra numa região não suportada pela Anthropic, a conta ainda pode ser desactivada após a verificação.

Canais oficiais de recomendação para utilizadores afectados

Para utilizadores que desencadeiam a verificação KYC, a Anthropic recomenda que, após o aparecimento da janela de verificação, preparem prontamente documentos de identificação válidos emitidos pelo governo e dispositivos com câmara de alta definição, concluindo a análise dentro do prazo definido para evitar interrupções do serviço.

Se a conta já tiver sido desactivada, a entidade oficial disponibiliza dois canais formais:

Canal de recurso: preencher o formulário de recurso oficial ou enviar um email para support@anthropic.com, explicando a utilização da conta e as razões do julgamento incorrecto

Pedido de reembolso (para utilizadores pagos): se acabou de concluir a subscrição antes da desactivação da conta, poderá contactar billing@anthropic.com para solicitar reembolso

Deve ter em conta que, de acordo com feedback da comunidade actualmente, a taxa de sucesso dos recursos é relativamente limitada e os reembolsos normalmente exigem múltiplas interacções.

Um contexto mais amplo: tendência de conformidade das plataformas de IA acelera

A implementação obrigatória de KYC por parte da Anthropic não é um caso isolado, mas sim um reflexo das plataformas de serviços de IA num contexto de intensificação da pressão regulatória global. Nos últimos anos, vários mercados principais têm vindo a reforçar continuamente os controlos de exportação de serviços de IA e os requisitos de verificação de utilizadores, o que tem levado as plataformas a apertar gradualmente os mecanismos de verificação de identidade. Para utilizadores em regiões limitadas, encontrar plataformas legais alternativas de serviços de IA — incluindo outros assistentes de IA que suportem a região, ou obter autorização de acesso a API através de canais oficiais — é actualmente a opção mais viável do ponto de vista da conformidade.

Perguntas frequentes

O que é a verificação KYC e por que razão a Anthropic a implementa neste momento?

KYC é a sigla de «conheça o seu cliente», um procedimento padrão de conformidade para plataformas financeiras e tecnológicas verificarem a identidade real dos utilizadores. A implantação em grande escala desta vez, por um lado, responde às exigências de responsabilidade de conformidade que as agências reguladoras dos EUA e internacionais colocam sobre fornecedores de serviços de IA; por outro lado, reflecte necessidades internas de gestão para impedir que a plataforma seja abusada (por exemplo, contas em massa, operações automatizadas).

Para utilizadores em regiões não suportadas, a conta é necessariamente bloqueada?

Não necessariamente. A activação da verificação KYC depende do mecanismo de gestão de risco da plataforma, e nem todas as contas em regiões não suportadas enfrentam imediatamente análise. No entanto, uma vez activado, e se o sistema determinar que a localização real de utilização da conta está numa região limitada, mesmo concluindo a verificação, existe o risco de a conta ser desactivada. Neste momento, a entidade oficial ainda não disponibilizou uma lista clara de isenções.

Que alternativas legais existem para utilizadores afectados?

Para utilizadores que não conseguem passar na verificação KYC do Claude, as alternativas legais a considerar incluem: outras plataformas de serviços de IA que disponibilizem suporte para o mercado local (por exemplo, serviços locais ou internacionais de IA que suportem o mercado da China continental), obter autorização de utilização através de canais de colaboração de API para empresas, ou avaliar serviços de modelos de linguagem de código aberto ou comerciais com capacidades equivalentes.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

A NEA explora a utilização de inteligência artificial na regulamentação nuclear

O Grupo de Trabalho da NEA sobre Novas Tecnologias reuniu-se para um workshop nos dias 25--26 de março, centrado em como a inteligência artificial pode ser aplicada à supervisão regulamentar e às operações internas no âmbito das autoridades nucleares. Resumo O workshop da NEA explorou aplicações reais de IA na regulamentação nuclear, com

Cryptonews1h atrás

A China vai testar 300+ robôs humanoides na meia-maratona de Pequim a 19 de abril

A segunda meia-maratona de robôs de Pequim conta com mais de 300 robôs humanoides de 70 equipas, competindo num percurso de 21 km. São destacados avanços no movimento autónomo, com 40% a operarem sem controlo. A China domina o mercado de robôs humanoides, apesar dos desafios de produção.

GateNews3h atrás

EUA procuram aumentar as importações de urânio da Namíbia para alimentar centrais nucleares orientadas por IA

Os EUA estão a considerar aumentar as importações de urânio da Namíbia para apoiar a energia nuclear para centros de dados de IA, enquanto a China domina o sector do urânio da Namíbia. O aumento dos preços do urânio está a reavivar o interesse pela mineração, apesar dos desafios no abastecimento de água na região árida.

GateNews3h atrás

Executivos da OpenAI Bill Peebles e Kevin Weil Saem numa Reestruturação de Liderança

Os executivos da OpenAI Bill Peebles e Kevin Weil anunciaram a sua saída, parte de uma série de mudanças de liderança à medida que a empresa descentraliza as suas operações. As suas partidas seguem-se a várias outras saídas de alto perfil e a uma mudança na estrutura da empresa.

GateNews4h atrás

A Zoom faz parceria com a World para adicionar deteção de deepfakes com reconhecimento facial

A Zoom fez parceria com o World, de Sam Altman, para lançar uma funcionalidade que deteta participantes reais em vez de deepfakes de IA durante chamadas de vídeo. O objetivo é combater a fraude por deepfakes em crescimento, com opções de verificação para anfitriões e participantes.

GateNews5h atrás

Relatórios de Bugs Gerados por IA Sobrecarregam a Equipa de Manutenção do cURL

Os relatórios de bugs gerados por IA estão a sobrecarregar o projecto cURL, com um aumento significativo nas submissões a causar tensão nos recursos. Os responsáveis estão a responder limitando o acesso a modelos de IA e a pausar os programas de recompensas por vulnerabilidades para gerir a vaga de entradas.

GateNews5h atrás
Comentar
0/400
Nenhum comentário