Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124

Antrópicoa empresa de pesquisa de inteligência artificial por trás do chatbot Claude, revelou um abrangente Política de escalonamento responsável (RSP) esta semana com o objetivo de mitigar os riscos previstos associados a sistemas de IA cada vez mais capazes.
Tomando emprestado os padrões de nível de biossegurança do governo dos EUA, o RSP introduz uma estrutura de Níveis de Segurança de IA (ASL). Este sistema estabelece padrões de segurança e operacionais correspondentes ao potencial de risco catastrófico de cada modelo. Padrões ASL mais elevados exigiriam demonstrações de segurança rigorosas, com o ASL-1 envolvendo sistemas sem risco catastrófico significativo, enquanto o ASL-4 e superiores abordariam sistemas distantes das capacidades atuais.
O sistema ASL destina-se a incentivar o progresso nas medidas de segurança, interrompendo temporariamente o treino de modelos mais poderosos se o escalonamento da IA ultrapassar os seus procedimentos de segurança. Esta abordagem ponderada alinha-se com o apelo internacional mais amplo para o desenvolvimento e uso responsável da IA, um sentimento ecoado pelo presidente dos EUA, Joe Biden, num comunicado. endereço recente às Nações Unidas.
O RSP da Anthropic busca garantir aos usuários existentes que essas medidas não prejudicarão a disponibilidade de seus produtos. Traçando paralelos com testes pré-comercialização e práticas de design de segurança nas indústrias automotiva e de aviação, eles visam estabelecer rigorosamente a segurança de um produto antes de seu lançamento.
Embora esta política tenha sido aprovada pelo conselho da Anthropic, quaisquer alterações deverão ser ratificadas pelo conselho após consultas com o Long Term Benefit Trust, que visa equilibrar os interesses públicos com os acionistas da Antrópico. O Trust é composto por cinco curadores com experiência em segurança de IA, segurança nacional, políticas públicas e empreendimentos sociais.
Ao longo de 2023, o discurso em torno da regulamentação da inteligência artificial (IA) foi significativamente ampliado em todo o mundo, sinalizando que a maioria das nações está apenas a começar a lidar com a questão. A regulamentação da IA foi trazida à tona durante uma audiência no Senado em maio, quando o CEO da OpenAI, Sam Altman chamado para uma maior supervisão governamental, paralelamente à regulamentação global das armas nucleares.
Fora dos EUA, o governo do Reino Unido propôs objectivos para a sua Cúpula de Segurança de IA em novembro, com o objetivo de construir um consenso internacional sobre a segurança da IA. Enquanto isso, na União Europeia, as empresas de tecnologia fizeram lobby para obter suporte de código aberto nas próximas regulamentações de IA da UE.
A China também iniciou sua primeira IA generativa do tipo regulamentos, estipulando que os serviços generativos de IA respeitem os valores do socialismo e estabeleçam salvaguardas adequadas. Estas tentativas regulamentares sublinham uma tendência mais ampla, sugerindo que as nações estão apenas a começar a compreender e a abordar as complexidades da regulação da IA.