De Sāo Paulo, SP.
A Inteligência Artificial é perigosa? De acordo com Elon Musk, Sam Altman e muitos outros, deixada a sua própria sorte a IA será uma ameaça para humanidade.
Pode ser, mas isso não é consenso hoje entre a vasta maioria dos programadores dos modelos por trás dos softwares de IA.
Ainda não temos sequer um carro totalmente autônomo, que possa dirigir legalmente nas ruas e estradas sem causar acidentes, imagine tomar conta da humanidade.
Porém, isso não significa que a IA não seja perigosa. Ela tem potencial para ser uma das maiores ferramentas de depravação humana que jamais tivemos a chance de inventar.
E não, nāo estou falando de alguns apps baseados em AI e VR que vem surgindo.
Nota 1: Para alegria da saúde sexual das novas gerações já existe um app que depois de 8 semanas de treinamento fornece uma (digamos, interessante) experiência com brinquedos sexuais inteligentes, tipo, vibradores “vestíveis” conectados por bluetooh e funcionando a distância, comandados por um parceiro no outro lado mundo ou na falta dele, ao som de áudios sincronizados ou ainda, com uma interface de realidade virtual.
Nota 2: O objetivo desse artigo não é esse mas, como sexo é saúde, quem quiser saber o que vem pela frente nessa área pode ler esse relatório aqui e para os curiosos vão algumas das “soluções” rolando por aí: Vibease; Myhixel; Bloom Audio Erotica; Satisfyer Connect.
Voltando ao assunto, os perigos da IA são crimes sofisticados e como combatê-los, a exemplo do roubo real de dezenas de milhões de dólares, que aconteceu com uma empresa baseada em Hong Kong.
Abaixo, deepfake do Joe Biden, o “Sloppy Joe”, que viralizou no Twitter em 2020.
O roubo: como aconteceu?
Bem, tudo começou com um e-mail. Um CFO desconhecido recebeu um e-mail suspeito, alegando ser do CFO de sua matriz, no Reino Unido, pedindo para realizar uma transação reservada.
O CFO de Hong Kong que não era nenhum bobão, imediatamente identificou ser uma tentativa de phishing. Porém, quem quer que tenha enviado o e-mail queria fazer uma reunião por Zoom com toda a equipe.
Quando o CFO de Hong Kong entrou na reunião virtual, ele viu e ouviu vários colegas e reconheceu a equipe do departamento financeiro da matriz.
Com suas preocupações afastadas, ele começou a organizar a operação e transferiu $ 25.600.000 em 15 transações separadas, para as contas especificadas pelo CFO contraparte, no Reino Unido.
Ninguém tinha a menor ideia do que havia acontecido, até que um empregado foi checar com a matriz Britânica e descobriu que o escritório do Reino Unido não havia requisitado nenhuma transação, nem recebido nenhum dinheiro das transferências.
Imagine a cara do CFO de Hong Kong e o que ele sentiu nesse momento ...
Bem, acontece que a única pessoa real naquela reunião virtual por Zoom era o CF de Hong Kong. Todos os demais eram deepfake, criados por IA com base em dados disponíveis publicamente sobre o CFO do Reino Unido e sobre os outros empregados da empresa participando do call.
Tendo nada além de uns poucos dados, um programa básico de IA, junto com uma mente do mal engenhosa, os golpistas conseguiram surrupiar dinheiro suficiente para comprar mais o que um mega iate!
Antes de você zombar do CFO e considerá-lo um “panaca”, achando que deepfakes são fáceis de detectar, sugiro que leia as estatísticas que discordam da sua opinião.
Um estudo recente descobriu que as pessoas não conseguem identificar facilmente uma deepfake e aquelas que tentam estão apenas chutando, sem nenhum embasamento confiável para sua opinião.
Ainda mais preocupante, esse mesmo estudo também mostrou que as pessoas tendem a confundir com mais frequência as deepfakes criadas por IA do que os vídeos autênticos.
Em outras palavras, a IA é hoje extremamente boa em te enganar. Considere a qualidade de uma reunião virtual intercontinental feita por Zoom, cuja baixa velocidade de streaming é capaz de esconder qualquer falha de áudio ou vídeo que pudesse denunciar a trama e você vai entender como o CFO foi enganado.
Abaixo, deepfake criado pelo Museu do Salvador Dali em 2019.
Como seu fundo de pensão pode se proteger?
Se as deepfakes já conseguem nos enganar nessa escala monumental, como podemos revidar? Bem, existem duas maneiras para lutar contra isso.
Primeiramente, você pode “envenenar” a IA.
É necessária uma quantidade enorme de dados para criar uma deepfake convincente. O criador da deepfake vai precisar de todas as fotos que ele puder encontrar, um monte de vídeos mostrando como a pessoa move o rosto e bastante arquivo de áudio, com som claro, da pessoa falando.
A maioria dos criadores de deepfake obtém esses dados de fontes publicamente acessíveis, como postagens nas mídias sociais pessoais ou mesmo em vídeos e artigos abertos ao publico nos canais de marketing da empresa onde a pessoa trabalha.
No entanto, existem programas por aí como o Nightshade e o PhotoGuard que podem modificar digitalmente esses arquivos, sem que possamos detectar, mas que ferram com os algoritmos de IA.
O Nightshade, por exemplo, engana a IA fazendo-a a pensar que está vendo apenas um rosto numa foto e esse erro de identificação faz descarrilhar os modelos de machine learning por trás das deepfakes.
Usar esses programas em todas as fotos e vídeos que você ou seu empregador postam online sobre você, podem protegê-lo de ser clonado pelos programas que criam as deepfakes.
Entretanto, isso está longe de ser infalível. Os programas de IA estão numa briga de gato-e-rato na qual a IA se torna capaz de “enxergar” os arquivos modificados e os programas que enganam as deepfakes precisam desenvolver novos meios e maneiras de enganá-las.
A segunda maneira de se proteger contra os golpes das deepfakes, provavelmente a mais robusta, é não depender de uma única fonte de verificação de identidade.
O CFO de Hong Kong se baseou no vídeo call por Zoom como forma de verificação e nem se deu ao trabalho de telefonar para a matriz no Reino Unido ou para qualquer outra pessoa como um segundo estágio de verificação da autenticidade da operação.
Existem até programas que usam chaves privadas criptografadas para verificar online a autenticidade da identidade de uma pessoa. Adotar vários passos para autenticação, como esses, torna praticamente impossível realizar golpes assim e é algo que todos os fundos de pensão deveriam adotar imediatamente.
Portanto, na próxima vez que você estiver participando de uma reunião virtual – por Zoom, Teams ou qualquer outra plataforma digital – na próxima vez que você atender um telefonema de um colega de trabalho (um familiar ou um amigo), lembre-se de que a pessoa do outro lado pode não ser quem ela diz ser.
Ainda mais se ela pedir para você transferir reservadamente $ 25.600.000 para 15 contas bancárias sobre as quais você nunca ouviu falar antes.
Verificar a identifidade em mais de uma fonte pode parecer algo óbvio, mas você ficaria surpreso se soubesse a quantidade de pessoas que usa apps no celular sem habilitar a identificação em dois fatores ...
Grande abraço,
Eder.
Fonte: “The AI That Stole $25,000,000”, escrito por Will Lockett.
Nenhum comentário:
Postar um comentário