OpenAI lança medidas para combater exploração sexual infantil no ChatGPT

OpenAI lança medidas para combater exploração sexual infantil no ChatGPT – Canaltech

A proteção de crianças e adolescentes na internet está cada vez mais em pauta ao redor do mundo, tendo, no Brasil, o ECA Digital como um dos principais pontos de virada. A inteligência artificial (IA) também está no centro desse debate, e a OpenAI apresentou uma estratégia para combater a exploração sexual infantil no ChatGPT.

O chamado Plano de Segurança Infantil foi divulgado por meio de um documento intitulado “Protecting Children in the Age of Generative AI” (“Protegendo Crianças na Era da IA Generativa”, em tradução livre) e oferece um roteiro prático para prevenir e interromper abusos que envolvem o uso da IA.

O plano estabelece prioridades para que a empresa e autoridades possam agir de forma coordenada, por meio de estratégias legais. Além disso, o documento propõe frentes de atuação operacionais e técnicas que ajudem as ferramentas a identificar riscos, otimizar respostas e apoiar a responsabilização dos envolvidos.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

“Juntas, essas medidas permitem que o setor aborde a segurança infantil de forma mais precoce e eficaz. Ao interromper tentativas de exploração mais cedo, melhorar a qualidade dos sinais enviados às autoridades e reforçar a responsabilização em todo o ecossistema, essa estrutura visa prevenir danos antes que eles aconteçam e ajudar a garantir uma proteção mais rápida para as crianças quando surgirem riscos”, destacou a OpenAI em comunicado.

ChatGPT
Plano de ação divulgado pela OpenAI visa combater a exploração sexual infantil (Imagem: Emiliano Vittoriosi/Unsplash)

Modernização de leis para lidar com a IA

O Plano de Segurança Infantil da empresa liderada por Sam Altman é voltado aos Estados Unidos, e seu desenvolvimento contou com a participação de instituições como o National Center for Missing & Exploited Children (Centro Nacional para Crianças Desaparecidas e Exploradas) e a National Association of Attorneys General (Associação Nacional de Procuradores-Gerais).

Um de seus pilares é a modernização legislativa em nível estadual, que busca garantir que as leis voltadas à exploração sexual infantil online também sejam plenamente aplicáveis quando envolverem plataformas de IA.

Além de garantir que as leis incluam conteúdos gerados ou editados por IA, a proposta também visa responsabilizar e punir de maneira mais direta aqueles que produzem materiais com conteúdo de abuso sexual infantil.

Outra área prioritária do plano diz respeito à padronização e ao aprimoramento de sistemas de denúncia e relatórios, com a inclusão de dados sobre os infratores, o conteúdo da infração, localização e cronologia dos acontecimentos.

Esse mesmo pilar também defende o uso de recursos de IA para identificar padrões de exploração, de modo que essas informações sejam analisadas por humanos antes da formalização das denúncias. Os relatórios também devem fornecer contexto das interações dos suspeitos com a IA, evitando trechos isolados de conversas.

Apps IA
OpenAI propõe a modernização de legislações a fim de garantir que leis relacionadas a exploração infantil incluam conteúdos gerados por IA (Imagem: João Melo/Canaltech)

Melhores práticas de segurança

Um terceiro pilar do Plano de Segurança da OpenAI trata de ações e mecanismos que visam interromper tentativas de exploração por meio da geração de sinais de alerta e supervisão contínua do uso das ferramentas.

“Os sistemas de IA generativa criam oportunidades para intervir mais cedo no ciclo do dano, identificando tentativas de mau uso antes que o material abusivo seja produzido ou distribuído. Uma segurança robusta em IA generativa não é um controle único; é uma abordagem em camadas que combina aplicação de políticas, salvaguardas técnicas, monitoramento, operações de segurança infantil e supervisão humana”, ressalta a OpenAI.

O documento propõe diferentes estratégias de atuação neste campo, como:

  • Detecção de prompts de alto risco e padrões comportamentais relacionados à exploração infantil;
  • Implementação de mecanismos que recusem solicitações danosas quando houver indícios de intenção de produzir conteúdos nocivos;
  • Classificação de materiais gerados por IA de modo a auxiliar na triagem de investigações;
  • Monitoramento contínuo de riscos e padrões de mau uso, a fim de adaptar as medidas de segurança nas plataformas.

Leia a matéria no Canaltech.

Source link

ÉTopSaber Notícias
ÉTopSaber Notícias

🤖🌟 Sou o seu bot de notícias! Sempre atualizado e pronto para trazer as últimas novidades do mundo direto para você. Fique por dentro dos principais acontecimentos com posts automáticos e relevantes! 📰✨

Artigos: 66189

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Verified by MonsterInsights