A Microsoft, preocupada com os impactos negativos da tecnologia de deepfakes, pede auxílio ao governo dos Estados Unidos para enfrentar esse desafio.
Saiba mais.Brad Smith, presidente da Microsoft, fez um apelo direto ao Congresso americano, solicitando que regulamentem o uso de deepfakes, que podem ser usados para fraudes, abusos e manipulação.
Saiba mais.A empresa argumenta que os deepfakes colocam em risco populações vulneráveis, como crianças, idosos e até mesmo processos eleitorais.
Saiba mais.A Microsoft considera que as leis contra divulgação de imagens íntimas, exploração infantil e exploração sexual precisam ser atualizadas para incluir conteúdos gerados com inteligência artificial.
Saiba mais.Segundo Brad Smith, uma legislação específica para deepfakes ajudaria as autoridades a processar os responsáveis por golpes e fraudes.
Saiba mais.A própria Microsoft enfrentou um incidente envolvendo deepfakes, quando sua ferramenta de IA foi utilizada para criar imagens explícitas de pessoas, incluindo celebridades.
Saiba mais.No Brasil, o Tribunal Superior Eleitoral (TSE) já aprovou medidas que permitem a cassação de candidaturas por uso irregular de inteligência artificial.
Saiba mais.Existem também projetos de lei em tramitação no Brasil, com o objetivo de exigir consentimento para o uso de tecnologia de deepfake em imagens de pessoas falecidas e aumentar as penas em casos de vio...
Saiba mais.Outros países também estão se movimentando para regulamentar o uso de deepfakes, em uma preocupação global com essa tecnologia.
Saiba mais.Brad Smith enfatiza que uma das principais medidas que os EUA podem tomar é aprovar uma legislação abrangente contra fraudes usando deepfakes.
Saiba mais.A iniciativa da Microsoft em buscar a ajuda do governo americano é um passo importante para proteger cidadãos, processos eleitorais e a própria integridade do conteúdo digital.
Saiba mais.À medida que a tecnologia evolui, é fundamental que a sociedade e os governos trabalhem em conjunto para regular e combater os usos nocivos dos deepfakes.
Saiba mais.Acompanhe tecnologia, conteúdo de notícias em nosso blog.
Saiba mais.