Os meandros da Inteligência Artificial: conceitos-chave para leigos

Os meandros da Inteligência Artificial: conceitos-chave para leigos

A Inteligência Artificial, provavelmente, é a tecnologia mais disruptiva da história da humanidade. Ao que tudo indica, nas próximas décadas teremos máquinas inteligentes autônomas – a chamada “Superinteligência”.

Estado da Arte

01 Fevereiro 2018 | 18h22

por Dora Kaufman

No início do século XXI, nossa relação com os computadores se transformou; com os smartphones passamos a transportá-los em nossos bolsos e a conversa migrou de hardware para aplicativos e serviços. Seja numa reunião de trabalho ou num jantar social, há sempre o ritual de colocar os celulares sobre a mesa, inclusive as marcas e os modelos são atributos de status. Estamos conectados todo o tempo, dependentes de aplicativos para nos indicar os caminhos (Waze), encontrar informações (Google), a música e o filme que gostamos (Spotify, Netflix), e até mesmo qual o parceiro “perfeito” para um “date” ou uma relação amorosa (Tinder, Happn). Temos também os assistentes digitais inteligentes – Siri da Apple, Google Now, Cortana da Microsoft, Alexa da Amazon – que nos ajudam a localizar informações úteis com acesso por meio de voz. Por trás de tudo isso, estão os Algoritmos de Inteligência Artificial.

Algoritmo é um conjunto de instruções matemáticas, uma sequência de tarefas para alcançar um resultado esperado em um tempo limitado. Os Algoritmos antecedem os computadores – o termo remonta ao século IX ligado ao matemático al-Khwãrizmi, cujo livro ensinava técnicas matemáticas a serem equacionadas manualmente. “Algorismus” era originalmente o processo de calcular algarismos hindo-arábicos. Ed Finn (“What Algorithms Want”, 2017) define um Algoritmo como “instruções matemáticas para manipular dados ou raciocínio por meio de um problema”. Brian Christian e Tom Griffiths (“Algorithms to Live By”, 2016) extrapolam o conceito para além do âmbito da matemática:

Quando você cozinha pão a partir de uma receita, você está seguindo um algoritmo, o mesmo quando você tricota uma peça com base num determinado padrão. Algoritmo faz parte da tecnologia humana desde a Idade da Pedra.

De forma mais pragmática, o Google define Algoritmo como “processos e fórmulas computacionais que levam suas perguntas e as convertem em respostas” (Algorithms – Inside Search – Google). Seja como for, o Algoritmo é hoje um conceito fundamental na ciência da computação (e em nossas vidas).

O Algoritmo é a matemática da Inteligência Artificial. Ao combinar múltiplas formas de cálculos estatísticos na análise de dados, permite desde compreender o comportamento dos usuários das redes sociais, ou até mesmo identificar “suspeitos” a serem eliminados por Drones militares, passando por determinar o grau de periculosidade de criminosos e consequentemente a pena do condenado (Compas – Correctional Offender Management Profiling for Alternative Sanctions). Os Algoritmos de Inteligência Artificial interferem nos processos de contratação de empréstimo bancário e de profissionais, nos diagnósticos médicos, e estão substituindo os humanos em inúmeras tarefas, mecânicas e cognitivas.

Algoritmo, então, é matemática, especificamente estatística; mas o que vem a ser Inteligência Artificial?

Cunhado em 1956 por John McCarthy, o termo “Inteligência Artificial” (IA) deu início a um campo de conhecimento associado à linguagem e inteligência, raciocínio, aprendizagem e resolução de problemas. Tema de pesquisa em diversas áreas – computação, linguística, filosofia, matemática, neurociência, entre outras –, a diversidade de subcampos e experimentações dificulta descrever o “estado-da-arte” atual da IA; os estágios de desenvolvimento bem como as expectativas variam entre os campos.

Existem inúmeras definições de Inteligência Artificial, reflexo das especificidades intrínsecas a cada campo de conhecimento. Dentre as definições generalistas, destacamos a de John McCarthy, “a ciência e a engenharia de fazer máquinas inteligentes” e a de Russell e Norvig, autores do livro de referência nas universidades americanas, “o estudo e concepção de agentes inteligentes, onde um agente inteligente é um sistema que percebe seu ambiente e realiza ações que maximizam suas chances de sucesso”.

A Inteligência Artificial propicia a simbiose entre o humano e a máquina ao acoplar sistemas inteligentes artificiais ao corpo humano (prótese cerebral, braço biônico, células artificiais, joelho inteligente e similares), e a interação entre homem e máquina como duas “espécies” distintas conectadas (homem-aplicativos, homem-algoritmos). O avanço recente da Inteligência Artificial, particularmente o processo de aprendizado profundo (Deep Learning), permite às máquinas executar tarefas tradicionalmente desempenhadas pelos seres humanos (reconhecimento visual, tomada de decisão, reconhecimento de voz, tradução) e outras que superam a capacidade humana (manipular e processar grandes bases de dados, denominado em inglês de “Big Data”).

A rede social Facebook, por exemplo, utiliza algoritmos de IA no gerenciamento do que deve ou não ser mostrado na timeline de seus usuários. São disponibilizados diariamente cerca de 2 mil itens para cada usuário (mensagens, imagens, vídeos etc.). Dentre esse conjunto de informações, os algoritmos do Facebook identificam – com base nos gostos, interesses, relações, aspirações e objetivos de vida – e selecionam de 100 a 150 itens, com a intenção de facilitar a experiência do usuário. A seleção assertiva de “conteúdos relevantes” é processada por meio dos algoritmos de IA. A principal crítica a esse sistema inteligente do Facebook (ou qualquer rede social digital) é a formação de “bolhas”, ao promover relações sociais homogêneas mantendo os usuários em círculos sociais fechados formados por iguais. Duas ponderações: é da natureza humana viver em tribos (entre “iguais”) e os algoritmos, seja do Facebook ou do Google, com suas seleções assertivas, buscam atender o desejo de seus usuários (clientes).

A Inteligência Artificial, provavelmente, é a tecnologia mais disruptiva da história da humanidade. Tudo indica, a continuar o ritmo dos avanços atuais, que a vida no século XXI será bem distinta do que experimentamos até aqui. É premente nos prepararmos, começando por nos familiarizar com seus meandros.

Máquinas inteligentes versus Cérebro

As chamadas máquinas inteligentes não reproduzem o funcionamento do cérebro, cuja complexidade, e ainda relativamente pouco entendimento, inviabiliza qualquer tentativa nessa direção. É mais correto dizer que a construção das máquinas de IA é inspirada no cérebro humano. A parte do córtex do cérebro, espécie de “capacete” que reveste o cérebro, é onde está a inteligência humana. O cérebro é composto de neurônios, que por sua vez são formados por dendritos que se conectam por meio de sinapses: cada vez que os dendritos dos neurônios se encontram provocam uma sinapse (conexão). Essa configuração, por analogia, é a chamada Redes Neurais, ou “Conexionismo”, em que o equivalente aos neurônios no computador são as unidades, ou seja, cada unidade do computador equivale a um neurônio no cérebro humano. Se temos 100 “sinapses” num computador, significa que temos 100 informações chegando e se conectando. As novas unidades, localizadas num novo layer (“camada”), recebem as informações, processam e “cospem” o output para as unidades de uma nova camada.

No processo de visão, por exemplo, a retina, um censor de luz, representa a primeira camada. A retina é impactada por feixes de luz, que são primeiras informações vindas do exterior. O mesmo se passa no ouvido com relação ao som, no olfato com relação ao cheiro, e no tato com relação à sensibilidade. São informações elétricas e químicas, posteriormente enviadas para o cérebro. O aparelho perceptivo da visão é o único dos sentidos em que a primeira camada contém neurônios (logo, já é “cérebro”). Não por coincidência é o mais sofisticado, correspondendo a 1/3 do cérebro, ou seja, esta parcela do cérebro é dedicada à visão – a segunda atividade predominante no cérebro são os movimentos. A luz inicialmente encontra o censor da retina, que é a primeira camada, em seguida segue para uma nova camada, neste caso localizada na parte de trás do cérebro, chamada de V1, continua se deslocando entre várias camadas, até retornar para a parte frontal do cérebro (vision path way). O cérebro tem 10 áreas, e cada área cerca de 140 milhões de neurônios.

O computador criado pela Microsoft há dois anos, considerado o mais avançado na tarefa de reconhecimento de imagem (Image ResNet), tem 152 camadas, ou seja, as unidades vão se conectando e transmitindo informação a outras unidades ao longo de 152 layers.

Fazendo um paralelo entre a visão humana e a câmara fotográfica, a nossa retina corresponde ao sensor de imagem. Em ambos, o que desencadeia o processo é a incidência de luz. O input da luz se transforma num número. Como isso é possível? A luz é composta de fótons, então importa calcular quantos fótons “caíram” na minha retina por unidade de tempo. Simplificando, o que permite diferenciar um objeto de outro é o exatamente o numero de fótons que sensibilizam a retina. Se todos os inputs viram números, temos um conjunto de números no primeiro layer. O processo é semelhante no cérebro e nas máquinas inteligentes. Cada unidade (unit), que corresponde ao neurônio humano, tem a decisão em relação ao que ela envia (ou não envia) adiante para outro layer, observando-se que o que sai não necessariamente é igual ao que entrou no layer anterior, significando certo grau de autonomia.

Cada unidade recebe informações (inputs) de muitas unidades do layer anterior. No estado de evolução atual da Inteligência Artificial, o operador humano arbitra o número de layers. No futuro, existe forte indicação neste sentido, as máquinas vão construir outras máquinas inteligentes (sem arbitragem humana). O que define uma máquina inteligente são dois componentes: o valor de cada conexão e a arquitetura, traduzido no número de layers. A figura abaixo ilustra uma arquitetura típica, com a delimitação de responsabilidades entre duas CPUs (Central Processing Unit):

Fonte: 4824-imagenet-classification-with-deep-convolutional-neural-networks, p.5. 

Aprendizado de Máquina

Este subcampo da Inteligência Artificial dá aos computadores a capacidade de aprender sem serem explicitamente programados. Arthur Lee Samuel, um pioneiro norte-americano no campo de jogos de computador e inteligência artificial, cunhou o termo “Machine Learning” em 1959 (enquanto funcionário da IBM). Evoluindo a partir do estudo do reconhecimento de padrões e da teoria de aprendizagem computacional na Inteligência Artificial, o Machine Learning explora o estudo e a construção de algoritmos que podem aprender e fazer previsões sobre dados – esses algoritmos seguem instruções estritamente estáticas ao fazer previsões ou decisões baseadas em dados, através da construção de um modelo a partir de entradas de amostra. O aprendizado de máquina é empregado em uma variedade de tarefas de computação, onde o projeto e programação de algoritmos explícitos com bom desempenho é difícil ou inviável.

A técnica não ensina as máquinas a, por exemplo, jogar um jogo, mas ensina como aprender a jogar um jogo. O processo é distinto da tradicional “programação”. Para fazer uma máquina “aprender” algo, é possível utilizar diversas técnicas baseadas em princípios lógicos e matemáticos, mais ou menos complexos. O objetivo é fazer com que um sistema apreenda informações dadas e execute uma tarefa visando o melhor resultado, sem depender de interferência humana. É um método usado para conceber modelos e algoritmos complexos que se prestam à previsão. Esses modelos analíticos permitem que pesquisadores, cientistas de dados, engenheiros e analistas produzam decisões e resultados confiáveis e replicáveis, e revelem “ideias ocultas” através da aprendizagem de relacionamentos históricos e tendências nos dados.

Aprendizado Profundo

Na década de 1980, inspirados no cérebro humano, cientistas da computação criaram um subcampo da Machine Learning propondo um processo de aprendizado baseado nas redes neurais, com resultados mais concretos nesta década. O pioneiro foi Geoffrey Hinton, com a ideia de “Neural Networks” em artigo publicado na Revista Nature de 1986. Começou a florescer na década de 1990, em função (a) da crescente disponibilidade de grande quantidade de dados (Big Data), (b) da maior capacidade computacional e (c) da evolução dos algoritmos. O foco são problemas solucionáveis de natureza prática, relacionados a uma tarefa concreta. O treinamento de uma rede neuronal artificial consiste em mostrar exemplos e ajustar gradualmente os parâmetros da rede até obter os resultados requeridos (tentativa e erro), denominado “aprendizagem supervisionada”: são fornecidos os resultados desejados (output) e por “tentativa e erro” (processo das máquinas não inteiramente conhecido/dominado pelos humanos) chega-se ao resultado, à meta.

A rede geralmente tem entre 10 a 30 camadas (layers) empilhadas de neurônios artificiais. Num reconhecimento de imagem, por exemplo, a primeira camada procura bordas ou cantos; as camadas intermediárias interpretam as características básicas para procurar formas ou componentes gerais; e as últimas camadas envolvem interpretações completas. Na identificação de fotos nas redes sociais, a máquina percebe padrões e “aprende” a identificar rostos, tal como alguém que olha o álbum de fotos de uma família desconhecida e, depois de uma série de fotos, reconhece o fotografado. O reconhecimento de voz, que junto com a visão computacional está entre as aplicações mais bem-sucedidas, já permite a comunicação entre humanos e máquinas, mesmo que ainda precária (Siri, Alexa, Google Now). Na cognição, onde estão os sistemas de resolução de problemas, ocorreram igualmente importantes avanços.

No senso comum, a Inteligência Artificial está associada aos filmes de ficção científica com os robôs, em geral, ameaçando a espécie humana. A robótica, contudo, é apenas um dos campos de aplicação da Inteligência Artificial, e já estão disponíveis no mercado “robôs do bem”. Na maior conferência de tecnologia da Ásia, Rise, realizada em julho último em Hong Kong, a Ubtech Robotics apresentou o Alpha 2 como o primeiro humanoide para a família, capaz de lembrar compromissos, fazer pequenos reparos, cozinhar, configurar alarmes, lembrar horários de medicamentos, fazer ligações telefônicas, checar mensagens de voz, ler e enviar textos e emails. Seu antecessor, o Alpha 1 pode ser comprado na Internet por R$ 1.541,45. Quem não conhece, procure pela Sophia, robô produzido pela Hanson Robotics, que incorpora a beleza clássica de Audrey Hepburn e foi capa de revista feminina, cantou em concerto, debateu em fóruns de negócios e participou como palestrante na Rise sobre o tema “o papel dos robôs no futuro da humanidade”.

Estamos nos primórdios da Inteligência Artificial, não sabemos como será sua evolução, mas se as pesquisas continuarem no ritmo atual, tudo indica, teremos máquinas inteligentes autônomas – a chamada “Superinteligência” – em algum momento nos próximos cinquenta anos. Quando isso acontecer, estará superada a histórica soberania humana como a espécie mais inteligente (ou como alguns acreditam, a única inteligente).

Dora Kaufman é doutora pela USP e pós doutoranda no TIDD PUC/SP com foco nos impactos sociais da Inteligência Artificial e pesquisadora do Atopos ECA/USP. Pós-Doutora no Programa de Engenharia de Produção COPPE/UFRJ. Pesquisadora visitante no Computer Science Department, Courant Institute of Mathematical Sciences, New York University, USA (2009, 2010) e Pesquisadora visitante no Alexander von Humboldt Institute for Internet and Society, Berlim, Alemanha (2015).

Mais conteúdo sobre:

inteligência artificial