.
A inteligência artificial é aqui. É exagerado, mal compreendido e falho, mas já é essencial para nossas vidas – e só vai ampliar seu alcance.
A IA alimenta a pesquisa de carros sem motorista, detecta sinais de doenças invisíveis em imagens médicas, encontra uma resposta quando você faz uma pergunta a Alexa e permite que você desbloqueie seu telefone com o rosto para falar com amigos como um cocô animado no iPhone X usando o Animoji da Apple . Essas são apenas algumas maneiras pelas quais a IA já toca nossas vidas, e ainda há muito trabalho a ser feito. Mas não se preocupe, algoritmos superinteligentes não vão acabar com todos os empregos ou acabar com a humanidade.
O boom atual em tudo relacionado à IA foi catalisado por avanços em uma área conhecida como aprendizado de máquina. Envolve “treinar” computadores para executar tarefas com base em exemplos, em vez de depender da programação de um humano. Uma técnica chamada aprendizagem profunda tornou essa abordagem muito mais poderosa. Basta perguntar a Lee Sedol, detentor de 18 títulos internacionais no complexo jogo de Go. Ele foi derrotado por um software chamado AlphaGo em 2016.
Há evidências de que a IA pode nos tornar mais felizes e saudáveis. Mas também há motivos para cautela. Incidentes em que algoritmos captam ou amplificam preconceitos sociais em torno de raça ou gênero mostram que um futuro aprimorado por IA não será automaticamente melhor.
Os Primórdios da Inteligência Artificial
A inteligência artificial como a conhecemos começou como um projeto de férias. O professor de Dartmouth, John McCarthy, cunhou o termo no verão de 1956, quando convidou um pequeno grupo para passar algumas semanas refletindo sobre como fazer as máquinas fazerem coisas como usar a linguagem.
Ele tinha grandes esperanças de um avanço na direção de máquinas de nível humano. “Achamos que um avanço significativo pode ser feito”, escreveu ele com seus co-organizadores, “se um grupo cuidadosamente selecionado de cientistas trabalhar juntos durante um verão”.
Essas esperanças não foram atendidas e McCarthy mais tarde admitiu que estava excessivamente otimista. Mas o workshop ajudou os pesquisadores que sonham com máquinas inteligentes a se fundirem em um campo acadêmico reconhecido.
Os primeiros trabalhos frequentemente se concentravam na resolução de problemas bastante abstratos em matemática e lógica. Mas não demorou muito para que a IA começasse a mostrar resultados promissores em tarefas mais humanas. No final dos anos 1950, Arthur Samuel criou programas que aprendiam a jogar damas. Em 1962, um conquistou uma vitória sobre um mestre no jogo. Em 1967, um programa chamado Dendral mostrou que poderia replicar a maneira como os químicos interpretavam dados de espectrometria de massa na composição de amostras químicas.
À medida que o campo da IA se desenvolveu, também surgiram diferentes estratégias para criar máquinas mais inteligentes. Alguns pesquisadores tentaram destilar o conhecimento humano em código ou criar regras para tarefas específicas, como entender a linguagem. Outros foram inspirados pela importância de aprender a entender a inteligência humana e animal. Eles construíram sistemas que poderiam melhorar em uma tarefa ao longo do tempo, talvez simulando a evolução ou aprendendo com dados de exemplo. O campo atingiu marco após marco, à medida que os computadores dominavam tarefas que antes só podiam ser concluídas por pessoas.
O aprendizado profundo, o combustível do foguete do atual boom da IA, é um renascimento de uma das ideias mais antigas da IA. A técnica envolve a transmissão de dados através de teias de matemática vagamente inspiradas no funcionamento de células cerebrais conhecidas como redes neurais artificiais. À medida que uma rede processa dados de treinamento, as conexões entre as partes da rede se ajustam, criando uma capacidade de interpretar dados futuros.
As redes neurais artificiais tornaram-se uma ideia estabelecida em IA não muito depois do workshop de Dartmouth. O Perceptron Mark 1 de 1958, que ocupa uma sala, por exemplo, aprendeu a distinguir diferentes formas geométricas e foi escrito em O jornal New York Times como o “embrião de computador projetado para ler e ficar mais sábio”. Mas as redes neurais caíram em desgraça depois que um influente livro de 1969, de autoria de Marvin Minsky, do MIT, sugeriu que elas não poderiam ser muito poderosas.
Nem todos foram convencidos pelos céticos, no entanto, e alguns pesquisadores mantiveram a técnica viva ao longo das décadas. Eles foram justificados em 2012, quando uma série de experimentos mostrou que redes neurais alimentadas com grandes pilhas de dados poderiam dar às máquinas novos poderes de percepção. Processar tantos dados era difícil usando chips de computador tradicionais, mas uma mudança para placas gráficas precipitou uma explosão no poder de processamento.
.