A Lingo Telecom fez uso de tecnologia de inteligência artificial para transmitir uma chamada automática que imitou a voz do presidente dos EUA Joe Biden no país.
A chamada telefônica ocorreu em janeiro de 2024, e tinha o objetivo de desestimular os eleitores a comparecerem às primárias democratas em New Hampshire.
A Comissão Federal de Comunicações (FCC) tomou conhecimento da situação e decidiu intervir, resultando em um acordo onde a Lingo Telecom concordou em pagar US$ 1 milhão pelos danos.
Aqui, estamos diante de mais um exemplo sobre a necessidade de regulamentação do uso de tecnologias emergentes, em nome do combate às fraudes e desinformação.
O que muda diante desse episódio
O consultor político Steve Kramer foi identificado como o responsável por criar e disseminar as chamadas de IA generativa com conteúdo falso e manipulativo.
A FCC já havia proposto uma multa de US$ 6 milhões para Kramer, como uma forma de responsabilizar indivíduos e empresas que utilizam tecnologias de deepfake de maneira enganosa.
Como parte do acordo, a Lingo Telecom deverá seguir regras rigorosas de autenticação de chamadas, incluindo os princípios de “conheça seu cliente”.
Isso significa que a empresa terá que implementar medidas mais eficazes para verificar a identidade dos clientes e a precisão das informações que recebem de provedores upstream.
Jessica Rosenworcel, presidente da FCC, enfatizou a importância da transparência nas comunicações, afirmando que os consumidores têm o direito de saber se estão interagindo com uma voz real ou uma imitação gerada por IA.
Em resposta ao aumento do uso de deepfakes, a FCC implementou uma proibição sobre o uso de vozes geradas por IA em chamadas automáticas sem o consentimento dos destinatários.
A FCC também está propondo novos requisitos para que anunciantes políticos divulguem o uso de IA generativa em suas campanhas publicitárias, tanto no rádio quanto na televisão.
Todas as iniciativas propõem um aumento de transparência e responsabilidade nas comunicações políticas, garantindo que os eleitores sejam informados sobre a natureza das mensagens que recebem.
As mudanças vão impactar nas eleições dos EUA?
É um jogo de gato e rato.
A decisão cria um precedente interessante para penalizar eventuais infratores, mas não deve coibir as mentes maliciosas em seguir disseminando a desinformação.
O que chama a atenção neste caso é o uso da engenharia social com a voz de Joe Biden como parte do mecanismo de deepfake, mostrando o quão avançada está essa tecnologia neste momento.
E tem aqueles que afirmam que não há a necessidade de regulamentar o uso das ferramentas de Inteligência Artificial.
Ou que abominam criminalizar quem usa dessas tecnologias para mentir a manipular o coletivo.
Que fiquemos atentos à essas pessoas, pois as intenções tendem a ser as piores.
Via The Verge