Quando o usuário Kevin Bankston, um especialista em governança de IA, abriu seu documento de declaração de imposto no Google Docs, ficou surpreso ao ver que o Gemini, a inteligência artificial do Google, havia automaticamente gerado um resumo do conteúdo. Essa descoberta levanta preocupações sobre a privacidade dos usuários e o acesso não autorizado aos seus dados pessoais.
Principais Destaques
– Gemini acessou documento privado sem permissão: Mesmo com as configurações de privacidade desativadas, o Gemini gerou um resumo do documento de declaração de imposto de Bankston assim que ele o abriu no Google Drive.
– Usuário não foi notificado sobre essa funcionalidade: Bankston afirma que não sabia sobre essa capacidade do Gemini e precisou procurar por novas configurações para desativar esse recurso.
– Preocupações com a privacidade dos dados dos usuários: O episódio levanta questões sobre até que ponto a IA do Google pode acessar e processar informações pessoais dos usuários sem o seu consentimento.
Gemini não respeitou as configurações do usuário
Ao investigar o problema, Bankston encontrou a opção de ligar ou desligar os resumos do Gemini no Gmail, Drive e Docs. Para sua surpresa, essa configuração já estava desativada, o que sugere que o Gemini pode ter prioridade sobre as configurações de privacidade do usuário.
Sem obter uma resposta satisfatória do suporte técnico do Google, Bankston levantou algumas hipóteses sobre o comportamento do Gemini. Uma delas é que, ao clicar no botão do Gemini em um documento, o assistente pode funcionar automaticamente para todos os outros arquivos com aquela mesma extensão (PDF, por exemplo).
Outra teoria é que as configurações do Google Workspace Labs, que dá acesso a recursos experimentais, podem ter prioridade sobre os ajustes do Gemini. Bankston ativou essas funcionalidades em 2023, antes de elas serem liberadas para todos os usuários.
O que o Google diz
Ao ser questionado sobre o incidente, o Google afirmou que suas funcionalidades de IA generativa são projetadas para oferecer aos usuários opções e mantê-los no controle de seus dados. A empresa garantiu que o uso do Gemini no Google Workspace exige que o usuário o habilite proativamente e que o conteúdo é usado de maneira a preservar a privacidade, mas não é armazenado sem permissão.
Além disso, o Google disse que os dados dos usuários podem ser usados de modo anônimo ou agregado para aperfeiçoar as ferramentas, mas nunca para treinar o que chama de modelos fundacionais. Ou seja, o conteúdo do documento de Bankston não seria utilizado para melhorar o Gemini em si.
A empresa também enfatizou que assinantes do Google One AI Premium e usuários corporativos podem desativar os recursos de IA generativa. Portanto, o Gemini não estaria disponível para usuários de planos gratuitos.
Conclusão
O incidente com o Gemini levanta preocupações legítimas sobre a privacidade dos usuários e o acesso não autorizado aos seus dados pessoais. Embora o Google afirme que suas ferramentas de IA generativa são projetadas para manter o controle do usuário, o caso de Bankston mostra que ainda há muito a ser aprimorado em termos de transparência e respeito às configurações de privacidade.
À medida que a IA se torna cada vez mais onipresente em nossas vidas digitais, é fundamental que as empresas responsible sigam rigorosos padrões éticos e de segurança, garantindo que a privacidade e a confiança dos usuários sejam prioridades. Esse episódio serve como um lembrete de que ainda há muito trabalho a ser feito nesse sentido.