A inteligência artificial no tempo

Por Fábio Martins – Prof. Doutorando em Computação – Coordenador de Governança de TIC – TJBA

Salvador, 23/01/2024 – A concepção de uma inteligência não humana capaz de pensar autonomamente não é um fenômeno recente; na verdade, remonta à Grécia Antiga. Aristóteles, mentor de Alexandre, o Grande, já contemplava a ideia de libertar os escravos de suas tarefas. Em uma época em que os escravos eram socialmente desconsiderados, Aristóteles questionava se objetos, como uma vassoura, poderiam ter vontade própria e estabelecer sistemas de arrumação, eliminando assim a necessidade de mão de obra escrava.

Os filósofos da antiguidade exploravam questões intrigantes, como a capacidade de um escravo, dotado de informações inatas, aprender matemática. Suas reflexões antecipavam, de certa forma, os princípios da ciência cognitiva, que se dedica ao estudo da aprendizagem humana.

Alan Turing, considerado o “pai da computação”, foi uma mente brilhante cujo impacto no progresso tecnológico e científico é incontestável. Sua visão visionária sobre máquinas capazes de resolver qualquer problema estabeleceu os alicerces para a Inteligência Artificial (IA), antecipando, na década de 1950, a revolucionária ideia de computadores pensantes.

O legado duradouro de Turing vai além da teoria; ele formulou a “Máquina de Turing”, uma máquina teórica que se tornou a base conceitual para os computadores modernos. Numa época em que a computação era vista como execução de instruções fixas, Turing introduziu a ideia inovadora de aprendizado de máquina, propondo máquinas inteligentes capazes de ajustar suas próprias instruções com base na análise de dados.

Durante a Segunda Guerra Mundial, Turing aplicou sua genialidade ao decifrar o código Enigma nazista, liderando o desenvolvimento da “Bombe”, precursora dos computadores digitais programáveis. Além de encurtar a guerra na Europa, sua contribuição salvou milhões de vidas, destacando o potencial da tecnologia para resolver problemas complexos em grande escala.

A máquina de Turing estabeleceu a base para os computadores modernos, fundamentais para a IA contemporânea. Apesar dos avanços notáveis, o legado de Turing exige uma análise crítica em relação às questões éticas que cercam a IA. Sua visão de máquinas inteligentes que aprendem com a experiência levanta preocupações sobre transparência, responsabilidade e controle humano.

Embora Turing tenha contribuído significativamente para a base conceitual da IA, é crucial reconhecer que o campo evoluiu para além de suas previsões iniciais. A responsabilidade ética na implementação da IA deve ser priorizada, considerando seu potencial impacto em diversas esferas da sociedade. O legado de Turing é um apelo à responsabilidade na busca por avanços tecnológicos que respeitem os valores humanos fundamentais.

Em 1943, Warren McCulloch e Walter Pitts apresentaram um marco ao introduzirem um artigo que discutia pela primeira vez as redes neurais. Estas eram estruturas de raciocínio artificial, representadas por modelos matemáticos, que buscavam imitar o funcionamento do sistema nervoso humano. Um trabalho relevante da mesma época foi a contribuição de Claude Shannon em 1950, no qual abordava a programação de máquinas para jogar xadrez, utilizando cálculos de posição simples, porém eficazes.

O surgimento da inteligência artificial (IA) experimentou um impulso significativo na década de 50, considerada a era dourada da IA. Nesse período, a corrente psicológica behaviorista tratava a ciência como o resultado do comportamento humano, simplificando-a. No entanto, a ciência cognitiva, que busca compreender o processamento de informações, emerge como uma abordagem mais abrangente.

O termo “inteligência artificial” foi formalmente adotado durante um congresso realizado pelo professor John McCarthy, da Universidade Stanford, na década de 50. Esse evento reuniu especialistas de diversas disciplinas, como engenharia, matemática, psicologia e neurociência, para explorar a interseção entre a imaginação humana e a ciência da computação.

O professor McCarthy, contribuiu para avanços notáveis em seu laboratório dedicado ao desenvolvimento de inteligência artificial. Embora a promessa de computadores tão inteligentes quanto humanos ainda não tenha se concretizado, o crescimento exponencial na capacidade e funcionalidade eletrônica ao longo dos anos continua a impulsionar pesquisas e inovações na área.

Em 1951, viu-se o surgimento do SNARC, uma calculadora dedicada a operações matemáticas que simulava sinapses, as conexões entre neurônios. Este avanço foi liderado por Marvin Minsky, um aluno que emergiu do contexto do pioneiro artigo sobre redes neurais. No ano seguinte, em 1952, Arthur Samuel desenvolveu um jogo de damas no IBM 701, notável por sua capacidade de aprimoramento autônomo, transformando-se em um desafio à altura de jogadores amadores.

Em 1957, Frank Rosenblatt apresentou o perceptron, um algoritmo com nome de personagem de Transformers. Essa inovação, inicialmente implantada na máquina denominada Mark 1, configura-se como uma rede neural de camada única destinada à classificação de resultados.

No ano subsequente, 1958, marca o surgimento da linguagem de programação Lisp, que se estabeleceu como padrão em sistemas de inteligência artificial e continua a influenciar uma extensa família de linguagens.

A expressão “machine learning” foi cunhada pela primeira vez em 1959, descrevendo um sistema que concede aos computadores a habilidade de aprender funções sem programação direta, mediante o fornecimento de dados para que a máquina adquira a capacidade de executar tarefas automaticamente.

Em 1964, testemunhamos a criação do primeiro chatbot do mundo, denominado ELIZA, que interagia automaticamente imitando uma psicanalista, utilizando respostas baseadas em palavras-chave e estrutura sintática. Em 1969, o Shakey foi apresentado como o primeiro robô a combinar mobilidade, fala e certa autonomia de ação, apesar de sua lentidão e algumas falhas.

O campo do processamento natural de linguagem, focado na compreensão da fala humana, emergiu como uma área promissora com diversas aplicações, incluindo tradutores, geração de linguagem em texto, reconhecimento de fala e processamento de voz.

Entretanto, do meio dos anos 70 até o início dos anos 80, o campo enfrentou um período desafiador conhecido como “inverno da inteligência artificial”, caracterizado por escassas inovações, redução de investimentos e baixa atenção para o setor.

Para superar esse período difícil, um dos domínios que contribuiu para a reinvenção da inteligência artificial foi o de sistemas especialistas, apresentado por Edward Feigenbaum no início dos anos 80. Esses softwares desempenham atividades complexas e específicas em domínios particulares, simulando funções humanas, mas com raciocínio mais veloz e uma base de conhecimento mais ampla. Esses sistemas aproximaram a inteligência artificial do mundo corporativo, onde diversas indústrias reconheceram a utilidade de programas de computador inteligentes e focados.

Na década de 90, o robô Alice, que serviu de inspiração para o filme “Her” e foi por sua vez inspirado em Eliza, ganhou reforço do Processamento de Linguagem Natural (NLP). Esse programa crucial se comunica com humanos, aplicando regras algorítmicas de correspondência de padrões para permitir que as conversas fluam de maneira mais natural. Também nessa década, uma histórica batalha ocorreu entre o russo Garry Kasparov e o Deep Blue, um computador de última geração montado pela IBM, especialmente para derrotar o campeão de xadrez. Esse episódio de comparações extremas entre humano e máquina foi anunciado como uma luta definitiva. A revista Newsweek, dos Estados Unidos, estampou uma capa com a chamada “The brain’s last stand” (“A última defesa do cérebro”). A partida representou uma revanche após a vitória do campeão mundial sobre o computador por 4 x 2 em 1996. Em 1997, entretanto, o Deep Blue venceu por 3,5 x 2,5, e o movimento decisivo, conforme revelado no documentário The Verge (2014), foi causado por um bug no sistema do computador. Esse bug confundiu completamente a previsão de jogo do humano.

A partir de 2010, testemunhamos a proliferação do aprendizado profundo e avanços notáveis em áreas como visão computacional, processamento de linguagem natural e reconhecimento de voz. A transição para a próxima década foi marcada pela introdução do GPT-3 no início de maio de 2020, representando uma verdadeira revolução na automação. Durante o mesmo período, observamos uma crescente aplicação da inteligência artificial em diversos setores, incluindo saúde, finanças e transporte. Além disso, houve uma expansão significativa das pesquisas em campos como ética em IA e responsabilidade social.

Na última década, testemunhamos a popularização do aprendizado profundo, resultando em avanços significativos em áreas como visão computacional, processamento de linguagem natural e reconhecimento de voz. O surgimento de modelos como o GPT-3, com sua capacidade de gerar texto natural, exemplifica o potencial transformador da IA na automação e interação humano-máquina.

Além das conquistas técnicas, a IA contemporânea enfrenta desafios éticos, como viés algorítmico, privacidade e questões relacionadas à responsabilidade. A discussão sobre IA ética e seu impacto na sociedade tornou-se tão crucial quanto os avanços tecnológicos.

À medida que a IA continua a evoluir, o futuro reserva promessas empolgantes e dilemas complexos. O desenvolvimento de sistemas mais inteligentes, capazes de aprender e adaptar-se de maneira autônoma, redefine constantemente as fronteiras do que é possível. A sociedade está diante não apenas de uma revolução tecnológica, mas também de questionamentos sobre como direcionar o potencial da IA para beneficiar a humanidade de maneira ética e responsável.

Referências:
1.Crevier Daniel (1993). AI: The Tumultuous Search for Artificial Intelligence. New York, NY: Basic Books. ISBN 0-465-02997-3.McCorduck, Pamela (2004),
2.Machines Who Think (2nd ed.), Natick, MA: A. K. Peters, Ltd. ISBN 1-56881-205-1, OCLC 52197627.
3.McCarthy, John; Minsky, Marvin; Rochester, Nathan; Shannon, Claude (31 August 1955), A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
4.Russell Stuart; Norvig, Peter (2003). Artificial Intelligence: A Modern Approach. London, England: Pearson Education. ISBN 0-137-90395-2.

Últimas notícias