terça-feira, 10 de janeiro de 2023

A HISTÓRIA DA INTELIGÊNCIA ARTIFICIAL: "ARS LONGA, VITA BREVIS"– PARTE 2

 


De São Paulo, SP.

________________________

TLDR – a impossibilidade de reproduzir o pensamento, portanto, a inteligência humana, com programas de computador, sofreu uma guinada em 1988 com o Projeto Candide da IBM que encontrou outro caminho para avançar, um caminho baseado na mineração de dados.

________________________

O que a aerodinâmica e o túnel de vento foram para a aviação, o computador é para o estudo do funcionamento da mente. O caos que acontece velozmente em nosso inconsciente, dentro do cérebro, pode ser desacelerado, rebobinado, pausado e até editado em um computador, diz Douglas Hofstadter.

No seu entendimento, essa é a grande oportunidade para o estudo da inteligência artificial. Partes de um programa podem ser isolados seletivamente, para se ver como funcionam fora do computador; os parâmetros podem ser alterados para se ver como a performance melhora ou piora.

Quando o computador nos surpreende – seja por ter feito algo extremamente criativo ou estúpido – podemos ver exatamente qual foi a razão.

“Sempre achei que a única forma do ser humano jamais conseguir entender integralmente a complexidade da nossa mente”, escreveu Hofstadter, “é modelando processos mentais no computador e aprendendo com esses modelos”, com suas falhas inevitáveis.

Daniel Dannet, que escreveu o livro The Mind em coautoria com Douglas Hofstadter diz que Hofstadter está sempre tentando ativamente construir uma teoria sobre o que realmente acontece no cérebro, por trás do pensamento.

A busca pela verdadeira inteligência artificial

Com um orçamento anual de meros US$ 100 mil, Hofstadter e seu pequeno grupo de cientistas tentam, diz ele, “primeiro, descobrir os segredos da criatividade e segundo, os segredos do inconsciente”.

Numa velha casa na Avenida North Fess, na cidade de Bloomington - Indiana, EUA, onde desenvolvem pesquisas, um aluno dedicado de mestrado leva de cinco a nove anos para transformar um processo mental, identificado e catalogado, em um programa de computador.

Todos os programas desenvolvidos têm a mesma estrutura básica – um conjunto de componentes e o estilo de um programa que Hofstadter escreveu em 1982, chamado Jumbo.

Jumbo foi criado para resolver aqueles quebra cabeças de palavras (caça-palavras) que vinham na seção de quadrinhos dos jornais e revistas impressas.

Hofstadter levou dois anos para desenvolvê-lo. Um programa para resolver caça-palavras é trivial, um bom programador leva uns cinco minutos para escrever, mas Hofstadter não estava interessado em resolver os quebra cabeças e sim em descobrir o que acontece quando o programa está resolvendo o desafio.

“Posso sentir na minha cabeça as letras sozinhas pulando de lá para cá, se aglomerando, formando pequenos grupos, sendo descartadas, trocando de lugar, formando novos grupos”, explica ele.

Hofstadter não trabalha com uma computação comum, mas sim com um tipo distinto, fluido, cuja arquitetura, logica e mecânica de programação são descritos em detalhe no livro “Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought”.

Quem lê o livro acha que Hofstadter ficou famoso com o livro errado – ele ganhou o Pulitzer em 1980 com Gödel, Escher, Bach: An Eternal Golden Braid (GED). Um comentário no The New York Times de 1995 diz: “O leitor de Fluid Concepts & Creative Analogies não pode deixar de suspeitar que aquele grupo da Universidade de Indiana está desenvolvendo algo grandioso”

Porém, poucas pessoas e mesmo admiradores de GED sabem desse outro livro ou dos programas que descreve. Talvez porque os programas criados por Hofstadter e sua equipe não tenham, quase que ostensivamente, nenhuma aplicação prática. Eles operam em um pequeno “micro domínio” e não há nenhuma tarefa que eles desempenhem melhor do que os humanos.  

O ponto de inflexão na busca das máquinas “inteligentes”

A era de progresso constante e sucesso comercial da inteligência artificial começou nos primórdios dos anos 90 e continua até nossos dias. Esse período sucedeu uma época em que o campo da IA quase foi morto.

A inteligência artificial se encontrava diante de um dilema.

Por um lado, o software que sabemos escrever é muito estruturado, os programas de computador são organizados como um exército bem administrado, com camadas de comando, cada camada transmitindo instruções para a próxima e subrotinas, que acionam subrotinas, que acionam subrotinas.

Por outro, o software que queremos escrever precisaria ser adaptável – uma hierarquia de regras como a dos softwares atuais parece simplesmente a ideia errada. Hofstadter certa vez resumiu a situação escrevendo: “Todo o esforço da inteligência artificial é, essencialmente, uma luta contra a rigidez dos computadores”.

A IA estava perdendo a batalha da mídia nos anos 80, com menos $$$ para pesquisas, influência decrescente, menos seminários e congressos, poucos artigos científicos e diminuição de espaço na mídia.  

Os sistemas especializados de computador, que deram impulso inicial ao setor na década de 80, estavam decepcionando por sua fragilidade, construídos em cima de uma abordagem limitada.

Veja o exemplo do que foi considerado na época, a busca pelo santo graal da IA: a tradução de uma língua para outra por máquinas. A abordagem padrão para atacar o problema foi colocar linguistas e tradutores numa sala e tentar converter toda aquela expertise em regras que seriam programadas em um software.

Esse caminho falhou por razões que qualquer estudante do ensino médio sabe bem: nenhum conjunto de regras jamais será capaz de descrever a língua humana. A linguagem humana escrita e falada é muito ampla, multiforme e fluida, para cada regra a ser obedecida, há uma exceção.     

Se a tradução de línguas por computadores - e a própria inteligência artificial - quisesse sobreviver como negócio comercial, teria que encontrar outro caminho ou melhor ainda, teria que encontrar um atalho .... e encontrou.

Em 1988 um projeto de tradução de línguas por máquinas da IBM, chamado Projeto Candide, começou admitindo que a abordagem baseada na identificação de regras demandaria um conhecimento profundo de como a linguagem é produzida, como a semântica, a sintaxe e a morfologia funcionam, como as palavras se juntam para formar sentenças e depois se combinam em parágrafos – sem falar que as palavras são meros condutores da linguagem.

Então, a IBM jogou no lixo essa abordagem e o que os desenvolvedores fizeram foi brilhante, mas tão simples que você mal acreditaria.

A técnica é chamada de “machine learning” – quem já não ouviu falar, né mesmo? O objetivo era fazer um dispositivo que partisse com o input de uma frase em inglês e “cuspisse” como output (saída) uma frase em francês – o ponto todo era: como fazer isso evitando a complexidade da mente humana?

Começaram com uma máquina bem simples, que apenas cuspia palavras em francês quando era alimentada aleatoriamente (sem nenhuma ordem) com uma palavra em inglês.

Imagine uma máquina com milhares de botões, alguns controlam configurações de caráter geral: dada uma palavra em inglês, quantas palavras em francês, em média, deveriam resultar (uma, duas, ...)? Os outros botões controlam configurações especificas: partindo da palavra jump (salto), qual a probabilidade da próxima palavra ser shot (tiro)?

A pergunta é: apenas girando esses botões de ajuste, será que você consegue fazer sua máquina converter inglês que faz sentido em francês que faz sentido?

Acontece que você consegue! Como se faz isso? Você alimenta a máquina com sentenças em inglês cujas traduções para o francês você já sabe – por exemplo, a Candide da IBM usou 2,2 milhões de pares de sentenças (um par tem uma sentença em inglês e sua sentença equivalente em francês), a maioria tirada de debates reais ocorridos no bilíngue parlamento Canadense.

Você entra na máquina com um par de cada vez. Primeiro entra com a parte em inglês e vê o que sai na parte em francês. Se a sentença em francês é diferente do que era esperado – i.e., diferente da tradução correta conhecida para o francês – a máquina precisa de calibração. Então você gira os botões e tenta novamente. Após um número suficiente de tentativas, alimentando, olhando o resultado, ajustando, alimentando de novo, olhando o resultado, ajustando, você terá uma ideia da sensibilidade dos botões de ajuste e será capaz de produzir a sentença correta em francês a partir da sua sentença em inglês.

Repetindo esse processo com milhões de pares de sentença, a máquina vai sendo gradualmente calibrada até o ponto em que você entra com uma sentença cuja tradução você não sabe e obtém um resultado razoável. A beleza da coisa é que você nunca precisou programar a máquina explicitamente, você nunca precisou saber por que os botões deveriam ser girados para um lado ou para o outro.

O Projeto Candide não inventou o machine learning, um conceito que remonta a década de 1960, mas nenhum teste com tradução por computadores havia sido bem-sucedido até então, ainda mais com um software tão simples funcionando adequadamente.

Como Adam Berger, um membro do projeto em seu relatório, escreveu: “... amplamente considerado um dos mais difíceis problemas no processamento de linguagem natural e em inteligência artificial em geral, porque a tradução perfeita parece ser impossível sem a compreensão do texto a ser traduzido”.

O fato de um programa como o Candide ter sido capaz de funcionar em paralelo com uma tradução perfeita, mostrou que a tradução de línguas por máquinas não requer compreensão – tudo que requer é um montão de textos bilíngues.

Isso se tornou a prova de conceito para a abordagem que conquistou a inteligência artificial

A base da era moderna de inteligência artificial: dados, dados, dados

O que a abordagem do Candide faz - e faz com espetacular eficiência - é converter um processo complexo num problema mais simples, o de encontrar milhares e milhares de exemplos daquele processo em ação.

Esse problema, diferente de imitar o processo real de funcionamento do cérebro e do pensamento, foi se tornando cada vez mais fácil de resolver, particularmente no final dos anos 80 e começo dos anos 90 quando a Internet explodiu e se tornou abrigo para físicos e nerds da computação.     

Não foi coincidência o ressurgimento da IA na década de 90 e não é à toa, também, que o Google é a maior empresa da Web. Nas palavras de Peter Norvig – Diretor de Pesquisas do Google – eles são o “maior sistema de IA do mundo”.

A inteligência artificial, nas palavras de Norvig, que escreveu AI: A Modern Approach junto com Stuart Russel, a inteligência artificial moderna é sobre “dados, dados, dados”, algo que o Google tem mais do que qualquer um no mundo.


Josh Estelle, um engenheiro de softwares do Google Translate que se baseia nos mesmos princípios do Candide e hoje é líder em sistemas de tradução de línguas por máquinas – explica: “o meio acadêmico desistiu daqueles algoritmos simples de machine learning que você aprende nas primeiras aulas de IA, porque não os considerava úteis, mas quando você sai do treinamento de 10.000 exemplos para o treinamento de 10 bilhões de exemplos, a coisa começa funcionar. Dados superam qualquer coisa”.

“Engenharia (de softwares) é o que conta num mundo em que a tradução é um exercício de mineração de dados em escala massiva”, ensina Josh.

O que faz a abordagem de machine learning tão espetacular é que ela varre do mapa o problema de primeira ordem, substituindo o desafio de entender o pensamento por engenharia, porcas e parafusos. Apesar do Google Translate capturar, em certo sentido, o produto da inteligencia humana, não é por si mesmo inteligente. É como uma enorme pedra de Rosetta, os hieróglifos calcificados de mentes que um dia viveram.

“Quando construímos o Watson, paramos e tentamos modelar a cognição humana”? Dave Ferruci, Líder da Equipe que construiu o computador Watson da IBM, faz uma pausa e responde enfaticamente: “Absolutamente, não”.

Watson é a plataforma de serviços cognitivos da IBM para negócios. A cognição consiste no processo que a mente humana utiliza para adquirir conhecimento a partir de informações recebidas.     

Para Ferruci a definição de inteligência em IA é simples: é aquilo que um programa consegue fazer. Deep Blue era inteligente porque conseguiu vencer Garry Kasparov. Candide é inteligente porque consegue traduzir línguas. “É inteligência artificial, certo? É quase o mesmo que dizer que é inteligência não-humana. Por que você deveria esperar que a ciência da inteligência artificial produzisse inteligência humana?”, pondera ele.

O futuro da inteligência artificial

Ferruci não é cego para a diferença. Ele costuma falar que enquanto Watson precisa de um espaço enorme, repleto de processadores e 20 toneladas de equipamentos de ar-condicionado, seu oponente (o cérebro humano) cabe numa caixa de sapato e roda por horas com um simples sanduiche de atum.

Quando termina de trabalhar, Watson precisa dissipar o calor e é mantido sem vida, num estágio burro, enquanto a outra “máquina” se levanta, bate um papo, toma um café, dança e pensa.  

“As realizações que esses sistemas estão alcançando, não passam de sombras – nem mesmo sombras – do que eles procuram imitar”, diz Ferruci. “Nós constantemente subestimamos o que acontece na mente humana – fizemos isso com a IA dos anos 50 e continuamos fazendo isso hoje”.

A pergunta que Hofstadter gostaria de fazer para Ferruci e para todo mundo que desenvolve IA atualmente é: Então porque vocês não vêm estudar (a mente humana)?

Ferruci responde: “Você consegue fazer um número limitado de coisas na sua vida. O trabalho de Hofstadter é inspirador, mas onde eu conseguiria chegar com ele? O que eu realmente gostaria de fazer é construir sistemas de computador que façam alguma coisa e não acho que o caminho mais curto para isso esteja nas teorias da cognição”.

Quase que como um eco, Peter Norvig do Google respondeu: “Eu acho que ele (Hofstadter) está atacando um problema extremamente difícil e eu optei por resolver um problema mais simples.

É insidioso, a maneira que você enxerga o sucesso pode te sufocar. Na medida que as máquinas vão ingerindo mais e mais dados, vamos nos permitindo ficar mais ignorantes. Ao invés de lutarmos de modo sincero contra nossos problemas mais difíceis, apenas nos plugamos a bilhões de exemplos deles.  

É mais ou menos como usar uma calculadora financeira para fazer o dever de casa no ensino médio – funciona que é uma maravilha, até o dia que você precisa realmente entender de cálculo e anuidades na faculdade.

Parece improvável que alimentar o Google Translator com 1 trilhão de documentos, ao invés de 10 bilhões, de repente vai fazer com que funcione no mesmo nível que um ser humano traduz. Isso vale para buscas, reconhecimento de imagem, planejar, ler, escrever ou desenhar ou qualquer outro problema para o qual seja preferível ter uma inteligência humana ao invés da inteligência de uma máquina.

Esse é um fato que Dave Ferruci, Josh Estelle e praticamente todo mundo que trabalha comercialmente com inteligência artificial, parece ter ciência, senão um ligeiro medo.

“Podemos traçar uma curva: na medida em que obtemos mais dados, quanto melhor fica o nosso sistema?”, pondera Peter Norvig. “E a resposta é, ainda está melhorando – mas estamos chegando no ponto em que obteremos menos benefícios (de ter mais dados) do que no passado”.   

Para James Marshall, ex-aluno de mestrado de Hofstadter, a coisa é simples: “No final, o caminho mais difícil será o único que te levará até o fim”

Ars longa, vita brevis”, Hofstadter gosta de dizer. Ele não se importa com reconhecimento, apenas segue persistente em seu trabalho.

Vita brevis, ars longa (a vida é curta, a arte é longa) é um aforismo em latim atribuído ao filosofo grego Hipócrates, mas que foi popularizado pelo poeta romano Sêneca

Hofstadter menciona Einstein, diz que hipótese da teoria quântica da luz foi formulada em 1905, mas ninguém a aceitou até 1923.

“Nem uma vivalma”, conta Hofstadter. “Por 18 anos Einstein esteve completamente sozinho em sua crença sobre a existência de partículas de luz – ele deve ter se sentido muito solitário”.

O poder é solitário, dizem, mas a história da IA nos ensina que a sabedoria pode ser ainda mais.


Grande abraço,

Éder.


 

Fonte: The Man Who Would Teach Machines to Think, escrito por James Somers


Nenhum comentário:

Related Posts Plugin for WordPress, Blogger...

Cuidados na Portabilidade

Hora no Mundo?

--------------------------------------------------------------------------

Direitos autorais das informações deste blog

Licença Creative Commons
A obra Blog do Eder de Eder Carvalhaes da Costa e Silva foi licenciada com uma Licença Creative Commons - Atribuição - Uso Não-Comercial - Obras Derivadas Proibidas 3.0 Não Adaptada.
Com base na obra disponível em nkl2.blogspot.com.
Podem estar disponíveis permissões adicionais ao âmbito desta licença em http://nkl2.blogspot.com/.

Autorizações


As informações publicadas nesse blog estão acessíveis a qualquer usuário, mas não podem ser copiadas, baixadas ou reutilizadas para uso comercial. O uso, reprodução, modificação, distribuição, transmissão, exibição ou mera referência às informações aqui apresentadas para uso não-comercial, porém, sem a devida remissão à fonte e ao autor são proibidos e sujeitas as penalidades legais cabíveis. Autorizações para distribuição dessas informações poderão ser obtidas através de mensagem enviada para "eder@nkl2.com.br".



Código de Conduta

Com relação aos artigos (posts) do blog:
1. O espaço do blog é um espaço aberto a diálogos honestos
2. Artigos poderão ser corrigidos e a correção será marcada de maneira explícita
3. Não se discutirão finanças empresariais, segredos industriais, condições contratuais com parceiros, clientes ou fornecedores
4. Toda informação proveniente de terceiros será fornecida sem infração de direitos autorais e citando as fontes
5. Artigos e respostas deverão ser escritos de maneira respeitosa e cordial

Com relação aos comentários:
1. Comentários serão revisados depois de publicados - moderação a posteriori - no mais curto prazo possível
2. Conflitos de interese devem ser explicitados
3. Comentários devem ser escritos de maneira respeitosa e cordial. Não serão aceitos comentários que sejam spam, não apropriados ao contexto da dicussão, difamatórios, obscenos ou com qualquer violação dos termos de uso do blog
4. Críticas construtivas são bem vindas.




KISSMETRICS

 
Licença Creative Commons
This work is licensed under a Creative Commons Atribuição-Uso não-comercial-Vedada a criação de obras derivadas 3.0 Brasil License.