A OpenAI terá que dar garantias à americana FTC no que diz respeito à política de processamento de dados de seu chatbot dopado com aprendizado de máquina.
De acordo com um relatório de posto de Washington detectado por nossos colegas de 01Neta Federal Trade Commission, principal órgão regulador do comércio dos Estados Unidos, acaba deabrir uma investigação sobre o gigante da inteligência artificial OpenAI. A agência analisará o caso do ChatGPT, o chatbot essencial aprimorado por IA. Em particular, procurará determinar se representa um risco em termos de proteção de dados pessoais.
Isso representa uma ameaça bastante significativa para o modelo de negócios da empresa. Este último baseia-se diretamente na coletando e processando enormes conjuntos de dados. Dependendo de suas descobertas, a agência pode exigir que a OpenAI modifique significativamente sua política de processamento de dados.
No passado, a FTC já sancionou grandes nomes do Vale do Silício por esse tipo de violação. Grandes nomes como Meta ou Amazon já foram identificados pelo regulador. De acordo com o Washington Post, a FTC também lembrou recentemente que As leis americanas de proteção ao consumidor se aplicam à IA da mesma forma que às redes sociais. A OpenAI terá, portanto, de mostrar as suas credenciais.
” A FTC incentiva a inovação, mas ser inovador não permite que você seja imprudente disse Samuel Levine, diretor do Departamento de Proteção ao Consumidor da FTC, citado pelo Washington Post. ” Estamos prontos para usar todas as ferramentas à nossa disposição para conter as práticas nocivas nesta área. “.
Essas preocupações ecoam as dos reguladores europeus, que também questionaram como o OpenAI funciona. Por exemplo, a Itália bloqueou temporariamente o acesso ao ChatGPT em abril passado, citando preocupações sobre o processamento de dados pessoais. O Parlamento Europeu está também a trabalhar numa legislação que em breve deverá regular a utilização de dados pessoais na aprendizagem automática em toda a União.
O que a FTC está esperando?
Primeiro, os investigadores da FTC esperam um “ descrição detalhada “como a empresa responde aos relatórios que se relacionam com as informações” falso, enganoso, depreciativo ou prejudicial às vezes oferecido pelo ChatGPT.
Ela também pediu detalhes sobre uma violação de segurança ocorrida em março passado. Por algumas horas, os assinantes puderam acessar os históricos de bate-papo de outros usuários. As informações relativas aos pagamentos deste último também eram visíveis. A OpenAI foi tranquilizadora, mas a FTC quer saber como a empresa lidou com esse caso espinhoso. Ela também está investigando como a OpenAI vai garantir que isso não aconteça novamente.
O histórico do usuário do ChatGPT vazou devido a um bug
De forma mais ampla, a agência também quer conhecer os procedimentos usados pela OpenAI para verifique seu produto antes do lançamento de cada nova versão. Em particular, ela pede que a empresa lhe apresente um lista de casos em que teria adiado uma implantação devido a questões de segurança. Uma forma de mostrar que a empresa realmente leva esse assunto a sério.
Mas, acima de tudo, a FTC também exige que a OpenAI faça um verdadeiro tour guiado de seu produto. Ela quer que a empresa forneça uma descrição detalhada de seu processo de treinamento. Em particular, ela quer saber como a OpenAI coleta e usa as informações necessárias para esse treinamento.
OpenAI colabora, apesar das reservas sobre o formulário
Sam Altman, por sua vez, garantiu no Twitter que sua empresa estava indo “ claro » Colaborar com a FTC. ” É muito importante para nós que nossa tecnologia seja segura e amigável ao consumidor, e estamos confiantes de que cumpriremos a lei. “.
somos transparentes sobre as limitações de nossa tecnologia, especialmente quando falhamos. e nossa estrutura de lucros limitados significa que não somos incentivados a obter retornos ilimitados.
—Sam Altman (@sama) 13 de julho de 2023
Mas ele não deixou de mostrar seu ” desapontamento no texto usado pela FTC. Em particular, ele lamenta que o pedido “ começa com um vazamento, o que não ajuda a construir confiança com o público “.
” Construímos o GPT-4 com base em anos de pesquisa de segurança e passamos 6 meses após o treinamento inicial para tornar o modelo mais seguro ele explica. ” Protegemos a privacidade do usuário e projetamos nosso sistema para aprender sobre o mundo, não sobre indivíduos particulares. Somos transparentes sobre os limites de nossa tecnologia “.
Portanto, será necessário acompanhar a investigação da FTC com muita atenção. Pode condicionar muitas coisas, a começar pela forma como o CHatGPT funciona. Mas não se trata apenas do OpenAI. Independentemente das conclusões da agência, outras empresas que trabalham em sistemas comparáveis também devem tomar nota . Pensa-se em particular no Bard, o equivalente ao ChatGPT produzido pelo Google. Seu lançamento europeu foi adiado por falta de clareza na política de processamento de dados.