Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124


IA aberta sofreu uma violação de segurança em 2023, mas não divulgou o incidente fora da empresa, informou o New York Times 4 de julho.
Executivos da OpenAI supostamente divulgaram o incidente internamente durante uma reunião em abril de 2023, mas não o revelaram publicamente porque o invasor não acessou informações sobre clientes ou parceiros.
Além disso, os executivos não consideraram o incidente uma ameaça à segurança nacional porque consideraram o agressor um indivíduo privado sem conexão com um governo estrangeiro. Eles não relataram o incidente ao FBI ou outras agências de aplicação da lei.
O invasor supostamente acessou os sistemas internos de mensagens da OpenAI e roubou detalhes sobre os designs de tecnologia de IA da empresa de conversas de funcionários em um fórum online. Eles não acessaram os sistemas onde a OpenAI “abriga e constrói sua inteligência artificial”, nem acessaram o código.
O New York Times citou duas pessoas familiarizadas com o assunto como fontes.
O New York Times também se referiu a Leopold Aschenbrenner, um ex-pesquisador da OpenAI que enviou um memorando aos diretores da OpenAI após o incidente e pediu medidas para impedir que a China e países estrangeiros roubassem segredos da empresa.
O New York Times disse que Aschenbrenner fez alusão ao incidente em um podcast recente.
A representante da OpenAI, Liz Bourgeois, disse que a empresa apreciou as preocupações de Aschenbrenner e expressou apoio ao desenvolvimento seguro de AGI, mas contestou detalhes. Ela disse:
“Discordamos de muitos dos [Aschenbrenner’s claims] … Isso inclui suas caracterizações de nossa segurança, notadamente este incidente, que abordamos e compartilhamos com nosso conselho antes de ele ingressar na empresa.”
Aschenbrenner disse que a OpenAI o demitiu por vazar outras informações e por motivos políticos. Bourgeois disse que as preocupações de Aschenbrenner não levaram à sua separação.
O chefe de segurança da OpenAI, Matt Knight, enfatizou os compromissos de segurança da empresa. Ele disse ao New York Times que a empresa “começou a investir em segurança anos antes do ChatGPT”. Ele admitiu que o desenvolvimento de IA “vem com alguns riscos, e precisamos descobri-los”.
O New York Times revelou um aparente conflito de interesses ao observar que processou a OpenAI e a Microsoft por suposta violação de direitos autorais de seu conteúdo. A OpenAI acredita que o caso não tem mérito.