Grok, IA e Deepfakes
Após ler uma matéria que relata que o Grok está sendo usado para criar imagens falsas de mulheres sem roupas ou com roupas curtas, além de gerar imagens sexuais de menores, começo a refletir se esse tipo de tecnologia não poderia simplesmente deixar de existir, pelo menos para essa funcionalidade.
Em casos assim, muitos argumentam que a tecnologia pode ser usada para o bem ou para o mal. E como toda nova tecnologia, isso tem um risco. Por exemplo, facas são úteis para cortar alimentos, mas também podem machucar e matar pessoas.
Mas será que esse é o caso da IA? Bom, sou leigo para definir isso, mas será que é realmente tão difícil exigir que ela simplesmente não altere imagens, substitua rostos e, como no caso, altere o corpo das mulheres?
Ou seja, desde que ela foi lançada ela já veio com essa funcionalidade, correto? Ou alguém conseguiu alterar seu código e fazer com que ela fizesse isso, sem consentimento da empresa responsável? Não acho que é o caso.
Em outras palavras, imagens e vídeos fake é uma funcionalidade intrínseca. E foi disponibilizada propositadamente para poder fazer isso.
Se quiser ser avisado quando sair novos posts, acesse a página Inscreva-se. Obrigado :)
Até o próximo post!
Comentários
Postar um comentário