X

Busque em mais de 20.000 artigos de nosso acervo.

Novidades pela net

Inteligência artificial não é a solução para prevenir desastres aéreos


Ainda tentamos compreender a tragédia da Germanwings. E mesmo assim algumas pessoassugerem que ela poderia ter sido evitada se um computador estivesse controlando o voo. Mas esta não é a solução. Conversamos com alguns especialistas para explicar por que um piloto de inteligência artificial (IA) abriria uma nova série de riscos e complicações para a aviação.

Para compreender este problema, recrutei o auxílio do Dr. Patrick Lin. Ele é diretor do Grupo de Estudos das Ciências da Ética + Emergência na Universidade Estadual Politécnica da Califórnia e co-autor do livro Robot Ethics: The Ethical and Social Implications of Robotics. Como ele me mostrou, pilotos IA podem eventualmente vir controlar a cabine de piloto sem nenhum envolvimento humano, mas este dia ainda está longe de chegar.

Tirando os humanos do controle

Como uma ideia, pilotos robóticos não são novidade. Mas este último desastre trouxe a mentalidade de que tirar o controle das mãos dos humanos é  uma questão urgente.

Quando falamos da falibilidade dos pilotos humanos, geralmente ela está ligada a coisas como fadiga e erro humano. A imprevisibilidade do estado psicológico de um piloto, em comparação, raramente é discutida — mas a queda do avião na última terça mostra que ela também merece consideração. Existe a possibilidade que Andreas Lubitz, copiloto da Germanwings escondesse uma condição médica, condição esta que pode, direta ou indiretamente, estar relacionada ao estado mental dele.

“Pilotos são propensos a erros porque humanos são propensos a erros”, Lin nos disse. “Algumas quedas de avião acontecem porque é pedido que os pilotos sentem e olhem para telas de computador por longas horas de uma vez, e humanos não foram feitos para esse tipo de trabalho. Pilotos de hoje também não têm mais tantas oportunidades de receber treinamento físico e mental para situações de emergência, desde que boa parte da arte de voar se tornou automatizada”.

É daí que vem o pedido para retirar o ponto fraco: humanos. Um sistema de inteligência artificial nunca se cansaria, ficaria deprimido ou cometeria erros.

Parece ótimo a princípio — mas, como diz Lin, o controle entre pilotos humanos e piloto automático é especialmente complicado.

“Mesmo que piloto IA sejam mais seguros que pilotos humanos, a maneira como um piloto IA poderia ter evitado a queda do avião da Germanwings e outros acidentes causados por erro humano não seria apenas detendo o controle de todo o voo — desde posicionar o avião na pista até a decolagem e o pouso — mas também trancando a cabine de piloto inteiramente, impedindo que uma só pessoa pudesse apertar um botão e ter controle completo da aeronave”, disse.

Lin relaciona isso à decisão do Google de remover o volante dos carros autônomos de baixa velocidade que a empresa está construindo, os chamados Koala Car. Semelhantemente, se o objetivo é prevenir desastres causados por humanos, as linhas aéreas terão de impedir que humanos interfiram no controle de IA. E isso não é um panorama muito convidativo.

Níveis de risco

Além disso, os riscos são muito mais presentes em aviões controlados por robôs do que de carros de baixa velocidade também controlados por inteligência artificial.

“O que faz sentido para o Google não faz necessariamente sentido para, digamos, a Lufthansa”, conta Lin. “A tecnologia falhará em algum momento — seja devido a um erro de programação nas milhares linhas de código que são necessárias para fazer uma carro operar de forma autônoma, ou um erro nos sensores, ou um evento inesperado — e importa se o erro ocorre no chão ou no ar. Enquanto o Google não precisa de um piloto de reserva, linhas aéreas precisam. E isso significa manter pelo menos um humano extra na cabine para possíveis emergências”.

b aNFtxh VM

Via RSS de Gizmodo Brasil

Leia em Gizmodo Brasil

Comente este artigo
Comente este artigo

Populares

Topo