Na semana passada, cientistas se movimentaram para assinar esta carta aberta. Basicamente, a proposta pede que a humanidade dedique uma porção da sua pesquisa em inteligência artificial para “alinhá-la aos interesses humanos”. Em outras palavras, vamos tentar não criar nós mesmos os Cavaleiros do Apocalipse, né pessoal?
>>> Stephen Hawking diz que inteligência artificial pode ser “maior erro na história”
Embora alguns cientistas revirem os olhos a qualquer menção a uma Singularidade, muitos especialistas e tecnólogos – como, digamos, Stephen Hawking e Elon Musk – vêm nos alertando sobre os perigos que a IA pode representar no futuro. Mas embora recomendem a busca por conhecimento na área com cautela, eles são um pouco menos claros sobre o que exatamente estão tentando alertar.
Felizmente, outros cientistas não fazem cerimônia na hora de pintar o cenário do caos. Aqui estão cinco das mais ameaçadoras profecias de destruição pela singularidade que nossas mentes mais brilhantes temem que possam acontecer.
As máquinas tomarão nossos empregos
De acordo com Stuart Armstrong, um filósofo e pesquisador no Instituto do Futuro da Humanidade, em Oxford:
O primeiro impacto da tecnologia [de inteligência artificial] é o desemprego quase total. Você poderia pegar uma IA inteligente no nível de um ser humano, copiá-la umas cem vezes, treiná-la em cem diferentes profissões, copiar essas mais uma centena de vezes e você teria dez mil funcionários altamente capacitados em cem profissões, tudo isso ao longo de uma semana. Ou você poderia copiá-las mais um pouco e ter milhões de funcionários… E se elas fossem na verdade super-humanas, você teria desempenho além do que eu acabei de descrever.
Humanos serão um obstáculo para as máquinas
Daniel Dewey, pesquisador no Instituto do Futuro da Humanidade, pega carona no pensamento de Armstrong na Aeon Magazine. Afinal, se e quando os humanos ficarem obsoletos, viraremos apenas pedras nos sapatos metafóricos dos robôs.
“A diferença na inteligência entre humanos e chimpanzés é mínima,” diz [Armstrong]. “Mas nessa diferença reside o contraste entre sete bilhões de habitantes e um lugar permanente na lista de espécies ameaçadas. Ou seja, é possível que uma vantagem intelectual relativamente pequena se agrave rapidamente e torne-se um fator decisivo.”
… “O problema básico é a forte percepção de que a maioria das motivações é incompatível com a existência humana,” diz Dewey. “Uma IA pode querer fazer certas coisas com a matéria para alcançar um objetivo, coisas como construir computadores gigantes, ou outros projetos de engenharia de larga escala. Essas coisas podem envolver etapas intermediárias, como dilacerar a Terra para construir enormes painéis solares. Uma super-inteligência pode não levar os nossos interesses em conta nessas situações, da mesma forma que não ligamos para sistemas de raízes e colônias de formigas quando vamos construir um prédio.”
Você poderia dar a ela uma meta benevolente – algo fofinho e utilitário, como maximizar a felicidade humana. Mas uma IA pode achar que a felicidade humana é um fenômeno bioquímico. Ela pode achar que inundar a nossa corrente sanguínea com doses não letais de heroína é a melhor forma de maximizar a nossa felicidade.
A inteligência artificial não será tão inteligente
A IA não precisa do intuito explícito de nos exterminar para ser assustadora. Como Mark Bishop, professor de computação cognitiva em Goldsmiths, Universidade de Londres, disse ao The Independent:
“Estou especialmente preocupado com o possível uso militar de sistemas de armas robóticas – sistemas que podem tomar a decisão de entrar em uma batalha sem intervenção humana –, precisamente porque a IA atual não é muito boa e pode facilmente piorar uma situação, com consequências potencialmente aterrorizantes,” disse o Professor Bishop.
“Então é fácil concordar que a IA talvez represente uma ‘ameaça existencial’ real à humanidade sem ter que imaginar que ela algum dia chegue ao nível de inteligência super humana,” disse. Devemos temer a IA, mas pelos motivos contrários aos dados pelo Professor Hawking, explicou.
A síndrome de Wall-E
Ou talvez veremos o fim chegando muito antes dele se completar. Exceto que, a essa altura, ainda seremos incompetentes o bastante para sobreviver e tentar desligar essa IA. Bill Joy, co-fundador e cientista-chefe da Syn Microsystems, escreve na Wired:
Nós notamos que a raça humana pode facilmente se permitir manter em uma posição de tamanha dependência das máquinas a ponto de não ter uma escolha prática que não a de aceitar todas as decisões das máquinas. Na medida em que a sociedade e os problemas que ela enfrenta se tornam mais e mais complexos – e as máquinas, mais e mais inteligentes – as pessoas deixarão que máquinas tomem as decisões por elas, simplesmente porque decisões feitas por máquinas trarão resultados melhores que as tomadas por humanos. Em certo ponto, talvez seja alcançado um estágio no qual as decisões necessárias para manter o sistema funcionando serão tão complexas que seres humanos serão incapazes de tomá-las de maneira inteligente. Nesse ponto, as máquinas estarão efetivamente no controle. As pessoas não conseguirão desligá-las, porque serão tão dependentes que o desligamento equivaleria ao suicídio.
Os robôs irão nos devorar
Existe um cenário “grey goo”, que basicamente postula que se robôs começarem a se reproduzir perpetuamente, nós seremos esmagados em meio à enorme expansão mecânica. E se eles precisarem de humanos para alimentar sua massa fora de controle – como a Discovery aponta – aí estaremos ferrados.
Se as máquinas da nanotecnologia – que podem ser cem mil vezes menores que o diâmetro de um fio de cabelo – descobrirem como se replicar espontaneamente, isso naturalmente traria implicações medonhas à humanidade [fonte: Levin]. Especialmente se a pesquisa financiada pelo Departamento de Defesa dos EUA sair de controle: os pesquisadores de lá estão tentando criar um Robô Tático Energicamente Autônomo (EATR, na sigla original) que se alimentaria de dejetos encontrados no campo de batalha, o que inclui cadáveres humanos [fonte: Lewinski].
Se a nanotecnologia desenvolver um apetite pode carne humana – ou alguma das outras coisas de que dependemos para sobreviver, como florestas ou máquinas –, ela poderia dizimar tudo no planeta em questão de dias. Esses minirrobôs famintos poderiam transformar o nosso lar azul e verde em uma bola cinzenta [a tal “grey goo”], um termo que descreve a partícula impossível de identificar que é deixada para trás depois que nanobichos comem prédios, paisagens e… bem, todo o resto.
Foto por Michael Cordedda/Flickr
O post Cinco especialistas explicam como a inteligência artificial pode acabar com a humanidade apareceu primeiro em Gizmodo Brasil.