Amazon faz piada com Alexa e acende preocupações de privacidade

·
Atualizado há 3 anos

Ao comemorar no Twitter o aniversário de dois anos da assistente digital Alexa, a Amazon reacendeu entre usuários questões sobre como trata a privacidade de seus clientes. A gigante resolveu fazer graça com algumas métricas dos usuários brasileiros, o que fez alguns deles questionarem aquilo que a empresa registra em áudio e como trata essas informações.

“‘Bom dia, Alexa’ foi dito mais de 38 milhões de vezes (nos últimos 2 anos)”, escreveu a conta brasileira da companhia no Twitter no último dia 8. Em outro tuíte, a companhia brincou: “‘Alexa, solte um pum’ foi solicitado mais de 1 milhão de vezes”.

Para muitos usuários, os tuítes provariam que a Amazon utiliza a Alexa, embutida em caixas de som inteligentes como o Echo, para gravar conversas dos usuários.

Não é uma preocupação nova: em 2019, a companhia fundada por Jeff Bezos foi acusada de colocar funcionários para ouvir os áudios dos clientes nos EUA, que tinham o primeiro nome e a conta expostos. É, porém, a primeira vez que usuários brasileiros parecem ter se atentado para o assunto.

A empresa nega que monitora constantemente seus clientes, dizendo que a transmissão de áudio para a nuvem só acontece quando a palavra de ativação (“Alexa”) é dita, o que faz acender uma luz azul no aparelho – sinal de que a gravação foi iniciada.

“Nós monitoramos macrotendências usando dados agregados das solicitações mais feitas à Alexa para que possamos melhorar a experiência e respostas fornecidas aos clientes. Essas informações não são ligadas aos clientes de maneira individual ou ao uso de seus dispositivos com Alexa”, declarou a Amazon ao em nota.

Especialistas apontam que, ao concordar com os termos de uso de um aparelho desse tipo, o usuário dá consentimento para que as informações sejam extraídas e manipuladas. Em muitos casos, as gigantes de tecnologia afirmam que a mineração desses dados se dá para melhorar os dispositivos, tornando-os mais inteligentes e efetivos – como é o caso da Alexa. O problema, no entanto, está na retenção dessas informações dos usuários.

A discussão sobre o processamento de informações nos servidores de gigantes da tecnologia forçou algumas delas a processarem informações nos próprios aparelhos – é o caso da Siri no iPhone. Não é, porém, o caso dos dispositivos da Amazon: aquilo que a Alexa capta é necessariamente enviado para os servidores da empresa.

Mineração dos dados

“O preocupante é saber que a Amazon e essas outras empresas estejam fazendo a mineração de dados do conteúdo dessas falas, sem apagamento dos registros”, explica Bárbara Simão, coordenadora de privacidade e vigilância da organização InternetLab. “O ideal é que essas informações não ficassem para a empresa, permitindo que as interações com as assistentes fossem feitas e depois deletadas dos servidores.”

A Amazon afirma que os usuários podem apagar as próprias gravações armazenadas ou, ainda, proibir por completo quaisquer gravações.

Para Rafael Zanatta, diretor da organização Data Privacy Brasil, o fato de a Amazon saber quantas pessoas deram bom dia à Alexa é esperado, mas o que pode vir a ser um problema é como, com gigantes volumes de dados alimentando as inteligências artificiais (IA), usuários podem ser induzidos a comportamentos graças à atuação dos algoritmos. “Não é mais uma questão de ouvir ou não os usuários, porque os dados já estão sendo coletados”, afirma.

Zanatta explica que as empresas de tecnologia devem revelar não só os dados obtidos dos usuários, mas as informações inferidas a partir dessas minerações – os “insights”, no jargão do setor. Em um exemplo extremo, diz ele, uma IA pode identificar que o usuário está mais propenso ao álcool naquele dia a partir do cansaço sentido no tom de voz e, aproveitando o timing, sugerir descontos em garrafas de vinhos no e-commerce, de maneira mais proativa, e não reativa, como ocorre hoje nesses sistemas.

“A questão começa a ficar delicada quando a empresa identifica a partir do seu gosto e tenta lucrar pelo seu estado emocional”, conta. “E quando essa inferência cruza uma fronteira? Quando coloca as pessoas em vulnerabilidade.”