segunda-feira, 5 de agosto de 2019

Uma guerra assimétrica: Eles sabem como você vai se comportar. Porque não usam isso para fazer você poupar?



















Sao Paulo, SP.

Durante décadas ela ficou meio esquecida. Restrita aos círculos sociais e familiares, era abordada com ênfase apenas nos meios religioso e profissional.

Para chamar a atenção e virar assunto em nível nacional, a falta dela tinha que ser algo muito, muito severo. 

Não mais! O medo de se perder de vez a privacidade, com o avanço da tecnologia, colocou-a no centro das atenções.  

Se por um lado questões sobre ética aparecem frequentemente nos tweets e posts publicados nas mídias sociais, por outro, raramente isso se deve às próprias plataformas que são usadas como meio para transmitir as narrativas.

Esses quadros-de-aviso modernos oferecem uma oportunidade para expressão de todo tipo de personalidade. Servem de cobertura para os socialmente desajustados e através delas podemos soltar nossos demônios (frequentemente) sem freios, despreocupados com quais olhos e almas lerão nossos desabafos. Um campo fértil para discursos de ódio, que parecem não ter fim. Está até ficando cansativo assistir neuroses, inseguranças e mi-mi-mi políticos jogados diariamente nas telas, mas isso faz parte da Vida 1.0 e o problema não esta propriamente aí.

A questão em debate são os algoritmos tóxicos por trás das mídias sociais. Esses algoritmos são criados, intencionalmente, para “fisgar” as pessoas e as manter permanentemente conectadas. Um funcionamento que faz parte do modelo de negócios dessas plataformas.

“Fico triste por que isso não esta acontecendo por acidente, mas por desenho, o modelo de negócios é manter as pessoas engajadas, em outras palavras, essa audiência é sobre tecnologia de persuasão e persuasão tem a ver com uma invisível assimetria de poder", disse Tristan Harris no dia 25 de junho passado, durante uma sessão com empresas de tecnologia conduzida pelo Senador John Thune no congresso americano, para discutir o uso dos algoritmos e como estes afetam aquilo que as pessoas veem online.

Harris foi o Especialista em Ética do Google, integrou a equipe responsável pelo desenho desses algoritmos e apos ter deixado a gigante de tecnologia, esta ajudando a trazer a tona essa horripilante realidade. 

A corrida para prever comportamentos

Harris usou a magica, que aprendeu quando criança, para explicar o que esta acontecendo. As ilusões, disse ele, só funcionam quando você não esta prestando muita atenção, do contrario os truques seriam rapidamente percebidos. As plataformas tecnológicas usam uma assimetria semelhante e as pessoas não estão percebendo o que esta acontecendo. 

As empresas de mídia social precisam, cada vez mais, atrair sua atenção para gerar lucros. Na corrida por atenção, essas empresas estão se tornando mais e mais agressivas. 

Primeiro foi o “like” e “dislike” que transformaram os consumidores em participantes ativos, fazendo-os ter a sensação de que controlam a plataforma. De certa forma até controlam, porque é o próprio usuário que alimenta o algoritmo, que vai aprendendo seus hábitos e passando a ser capaz de prever seu comportamento. 

A grande preocupação, então, passou a ser com a IA – Inteligência Artificial que pode levar essa questão para um outro patamar.

A IA já mostrou ser capaz de prever nosso comportamento melhor do que nós mesmos. Consegue adivinhar nossa inclinação politica com 80 por cento de precisão, descobrir se você é homossexual antes mesmo que você saiba e começar a sugerir carrinhos de nenê muito tempo antes que seu teste de gravidez resulte positivo. 

Previsão é parte integrante da nossa biologia. Os morcegos precisam prever onde se encontram os obstáculos para poderem se desviar, em um ambiente noturno onde a visão não serve para muita coisa. O ser humano — assim como todas as formas de vida biológica — também encontra seu caminho no meio ambiente prevendo e se antecipando aos perigos e recompensas. 

O problema é que desde a Revolução Industrial, criamos ambientes relativamente seguros para habitar. Por não precisarmos mais prestar atenção a arbustos que se mexem e predadores a espreita, transferimos toda a nossa atenção para os celulares que carregamos constantemente em nossas mãos.

Nosso senso de alerta diminuiu, mas em plena era da tecnologia, permanecemos animais Paleolíticos, com forte necessidade de nos reunirmos em tribos. 

Na briga por atenção, as empresas exploram nossa necessidade de validação social e usam nossos instintos básicos em seu proveito. Pegam carona em um sistema de alerta enfraquecido, o que torna ainda mais fácil influenciar nosso comportamento.

Em um tempo em que nossa atenção não está mais voltada para sobreviver, mas sim focada nas mídias sociais, emerge uma forma de narcisismo em massa: tudo é sobre o “eu”. O mundo encolhe e o ego se expande. 

Os problemas com os algoritmos nem são tão difíceis de detectar. No Youtube, por exemplo, 70% do tempo que as pessoas passam assistindo  vídeos se deve às recomendações feitas pela plataforma.

Vamos nos acostumando ao que vemos e passamos a querer cada vez mais. Segundo escreveu o jornalista Eric Schlosser sobre a evolução da pornografia: a nudez parcial se torna light e aquilo que antes era considerado escandaloso é incorporado aos costumes, vamos nos acostumando, porque queremos ver mais.  

O Youtube cria uma espiral movida a dopamina, confrontando preferencias politicas de esquerda e de direita que se tornam uma jornada. Uma vez validada, você fará qualquer coisa para manter aquela sensação viva. 

Os algoritmos, atrás de uma tela, influenciam o mundo que você carrega na sua cabeça e eles não tem nenhum senso de altruísmo ou compaixão.

Como um punhado de empresas de tecnologia controlam bilhões de mentes todos os dias 

Aquele sentimento de ofensa, causado por validação, vale ouro para as empresas de tecnologia. Conforme dito pelo Tristan Harris, a corrida por prever nossos comportamento ocorre a cada click. 

"O Facebook tem um negócio chamado previsão de lealdade, que realmente consegue prever e informar um anunciante quando você esta prestes a se tornar desleal aquela marca. Se você é uma mãe e usa a fralda Pampers, eles conseguem dizer para a Pampers: 'Ei, esse usuário vai se tornar desleal à vocês'. Em outras palavras, eles conseguem antecipar coisas sobre nosso comportamento que nem nós mesmos sabemos".

Não é só ele que esta preocupado com essa corrida. Arthur Holland Michel que escreve sobre tecnologia, abordou recentemente uma tendência tao preocupante, senão ainda pior, protagonizada pela Amazon que fica na encruzilhada entre previsão e privacidade. 

"A Amazon patenteou um sistema que analisa as cenas de vídeo de propriedades privadas, coletadas pelos drones que usam para fazer suas entregas. Essas imagens alimentam, então, algoritmos que recomendam produtos para você. Você compra uma capa para seu Ipad e vem um drone fazer a entrega. Enquanto está fazendo a entrega o sistema de visão do drone percebe que as arvores do seu quintal estão com as folhas amareladas. Isso alimenta o sistema e então, você recebe no celular ou e-mail a recomendação de um fertilizante para folhas"

Tristan Harris comparou essa pratica das empresas de tecnologia com um padre vendendo penitencias para dispensar suas confissões. A diferença é que as plataformas usadas pelas mídias sociais tem bilhões de penitencias para te vender e uma vez que elas aprendem o que você esta confessando, fica fácil prever qual será sua próxima confissão. Com base nessa informação, eles podem te vender as penitencias antes mesmo de você ter pecado. 

Nossa identidade como indivíduos sempre foi uma questão filosófica, mas uma coisa é certa: ninguém esta imune a ser influenciado e a ética não foi embutida nos algoritmos das mídias sociais, dos quais dependemos agora. 

Se não a incluirmos conscientemente — aqui é onde o governo precisa entrar, porque que a ideia de auto-regulação das empresas não passa de piada — qualquer nível de poder assimétrico passará a ser possível. Continuaremos espantados com aquelas pombinhas brancas saindo do chapéu daquele homem sorridente (o magico), parecendo que surgiram do nada. 

Seria tão bom se usassem para o bem todo esse conhecimento de psicologia social e neurociência! Poderiam ajudar as pessoas a pouparem para a aposentadoria, sem nem elas saberem que estão poupando. Usar o comportamento humano em beneficio das pessoas seria o máximo!

Grande abraço,
Eder.

Fonte: Adaptado do artigo “The race to predict our behavior: Tristan Harris testifies before Congress”, escrito por Derek Beres.

Nenhum comentário:

Related Posts Plugin for WordPress, Blogger...

Cuidados na Portabilidade

Hora no Mundo?

--------------------------------------------------------------------------

Direitos autorais das informações deste blog

Licença Creative Commons
A obra Blog do Eder de Eder Carvalhaes da Costa e Silva foi licenciada com uma Licença Creative Commons - Atribuição - Uso Não-Comercial - Obras Derivadas Proibidas 3.0 Não Adaptada.
Com base na obra disponível em nkl2.blogspot.com.
Podem estar disponíveis permissões adicionais ao âmbito desta licença em http://nkl2.blogspot.com/.

Autorizações


As informações publicadas nesse blog estão acessíveis a qualquer usuário, mas não podem ser copiadas, baixadas ou reutilizadas para uso comercial. O uso, reprodução, modificação, distribuição, transmissão, exibição ou mera referência às informações aqui apresentadas para uso não-comercial, porém, sem a devida remissão à fonte e ao autor são proibidos e sujeitas as penalidades legais cabíveis. Autorizações para distribuição dessas informações poderão ser obtidas através de mensagem enviada para "eder@nkl2.com.br".



Código de Conduta

Com relação aos artigos (posts) do blog:
1. O espaço do blog é um espaço aberto a diálogos honestos
2. Artigos poderão ser corrigidos e a correção será marcada de maneira explícita
3. Não se discutirão finanças empresariais, segredos industriais, condições contratuais com parceiros, clientes ou fornecedores
4. Toda informação proveniente de terceiros será fornecida sem infração de direitos autorais e citando as fontes
5. Artigos e respostas deverão ser escritos de maneira respeitosa e cordial

Com relação aos comentários:
1. Comentários serão revisados depois de publicados - moderação a posteriori - no mais curto prazo possível
2. Conflitos de interese devem ser explicitados
3. Comentários devem ser escritos de maneira respeitosa e cordial. Não serão aceitos comentários que sejam spam, não apropriados ao contexto da dicussão, difamatórios, obscenos ou com qualquer violação dos termos de uso do blog
4. Críticas construtivas são bem vindas.




KISSMETRICS

 
Licença Creative Commons
This work is licensed under a Creative Commons Atribuição-Uso não-comercial-Vedada a criação de obras derivadas 3.0 Brasil License.