Os aspiradores Roomba usados para fins de treinamento capturaram fotos sensíveis de voluntários que posteriormente chegaram às mídias sociais.
Roomba aspiradores de pó coletaram imagens sensíveis, como uma que mostrava uma mulher sentada em um vaso sanitário, e elas foram compartilhadas entre pessoas encarregadas de treinar o sistema robótico de limpeza. Aqui está a parte relativa. A Amazon desembolsou US$ 1,7 bilhão em agosto de 2022 para comprar a iRobot. Agora, o registro da Amazon com privacidade é bastante incompleto por conta própria. Algumas investigações que surgiram há pouco mais de um ano revelaram que a Amazon lida com dados confidenciais de clientes de maneira bastante irresponsável.
De acordo com documentos vistos por Revisão de Tecnologia do MIT, as imagens tiradas pelos aspiradores robóticos Roomba foram compartilhadas entre os contratados encarregados de rotulá-los, no Discord e no Facebook, entre outros lugares. A iRobot afirma que as imagens vazadas foram capturadas usando hardware de teste, para o qual os voluntários concordaram em contribuir com dados audiovisuais. Esses dados de treinamento capturados pelas câmeras integradas do robô de limpeza foram coletados pela iRobot e enviados para uma startup chamada Scale AI, que emprega trabalhadores contratados para rotulá-los para que a IA entenda.
Cuidado com o seu limpador Robo amigável
O processo de anotação de dados para uma IA geralmente é terceirizado para trabalhadores de baixa renda na Ásia e na África por meio de contratados. Notavelmente, nada disso era hardware de nível de consumidor vendido comercialmente. A iRobot diz que, ao permitir a divulgação de mídia sensível, a Scale AI violou sua política de privacidade e que as duas empresas estão cortando seus laços profissionais após o incidente. A Scale AI também admitiu que seus funcionários de rotulagem de dados quebraram seu código de conduta.
A futura empresa Amazon também afirma que esses “robôs de desenvolvimento especiais com modificações de hardware e software” também vêm com acordos para voluntários, que diziam explicitamente que seus dados estavam sendo enviados para fins de treinamento. Além disso, eles foram aconselhados a evitar assuntos sensíveis e crianças de áreas onde os robôs se movem para capturar fotos, vídeos e clipes de áudio. O que é alarmante é que 95 por cento dos dados da iRobot são coletados de casas reais, com a maioria dos voluntários sendo funcionários ou casas pagas recrutadas por empreiteiros. Apenas uma pequena parte desses dados de treinamento de IA é coletada de casas artificiais criadas como modelos em um conjunto de teste.
As imagens vazadas, das quais Revisão de Tecnologia do MIT vi 15, foram coletados em 2020 em residências nos Estados Unidos, Japão, França e Alemanha, entre outros países. A iRobot afirma que todas as informações de identificação de uma pessoa são removidas dos dados de treinamento. Ele exclui automaticamente todo o log se alguma das imagens parecer ser de natureza sensível, como aquelas que retratam momentos privados ou qualquer estado de nudez. No entanto, não está claro se essas imagens são excluídas automaticamente ou se um moderador humano as vê primeiro e depois decide tomar as medidas necessárias.
Uma conclusão bastante preocupante da saga iRobot é que esses vazamentos ocorreram durante a fase de teste de um robô de limpeza em desenvolvimento, onde os voluntários são informados sobre o que estão fazendo. Para dispositivos disponíveis comercialmente, como o Roombaa maioria das pessoas nem se preocupa em ler os termos de coleta de dados em detalhes e pode acabar entregando involuntariamente uma tonelada de dados de identificação pessoal para corporações com medidas de segurança de dados negligentes.
Fonte: Revisão de Tecnologia do MIT