Máquinas superinteligentes ainda são um sonho distante, mas não impossível

Por João Teixeira

A ética das máquinas

Minha motivação para retomar esse tema foi um e-mail, muito gentil, que recebi de um médico que mora em uma cidade praiana nos arredores de São Paulo. Após ler meu último livro, O cérebro e o robô: inteligência artificial, biotecnologia e a nova ética (Paulus, 2015), ele me perguntava se seria possível incluir, na programação dos futuros robôs, princípios éticos para evitar danos à espécie humana e ao meio ambiente. Preocupado com o futuro de sua filha de 13 anos, que estava aprendendo linguagem de programação, ele temia pelo bem-estar das próximas gerações.

Muitas pessoas podem considerar esse tema exótico e, até mesmo, fútil. Mas elas não percebem o quanto a tecnologia já permeia todas as dimensões da vida humana e que, uma das maiores ameaças que enfrentamos hoje em dia é o fato de todas as máquinas estarem interligadas, o que aumenta muito seu controle sobre nossa vida.

Imagine uma situação na qual uma máquina identifica o rosto de um terrorista internacional tentando embarcar em um voo no aeroporto de Tel Aviv. Imediatamente, um alarme soa e os embarques são suspensos. Todos os voos são, automaticamente, cancelados. Em poucos minutos, a notícia já percorre milhões de tablets e se espalha pelo mundo. O preço do barril de petróleo triplica e nas bolsas de valores há uma corrida pelas ações das empresas petrolíferas. Essa manobra faz com que o preço de outras ações desabe. A queda no valor das ações leva a uma corrida para o dólar e, em poucas horas, ele se valoriza mais de 15%. Contratos de importação e exportação são suspensos…

Essa cadeia inusitada de acontecimentos pode levar ao caos. Mas, o que significa um dia caótico na economia mundial diante da possibilidade de um ataque terrorista que poderia dizimar centenas de vidas? Os agentes da polícia portuária poderiam não ter identificado o rosto do terrorista e, nesse caso, a tragédia seria inevitável. No entanto, não é possível descartar a hipótese de que a máquina poderia ter identificado incorretamente um rosto e que, se ela não tivesse autonomia para suspender embarques e voos, um dia de caos na economia mundial poderia ter sido evitado. O que seria melhor? Tudo depende dos riscos
que estamos dispostos a correr.

As máquinas estão se tornando cada vez mais autônomas. Máquinas autônomas não podem ser desligadas. Cada vez mais delegamos a elas decisões diante de situações imprevistas. Se o rosto do terrorista é identificado, o alarme soa e os embarques são automaticamente cancelados, independentemente da vontade de qualquer funcionário do aeroporto. Máquinas autônomas podem, também, alterar sua própria programação a partir de sua interação com o ambiente e, por isso, não temos um controle pleno sobre elas.

Em geral, delegamos autonomia para máquinas quando, em algumas tarefas, sua performance é melhor do que a de um ser humano. Cálculos de engenharia, folhas de pagamento de grandes instituições são casos típicos nos quais a performance das máquinas ultrapassa o raciocínio e a memória humana. Em pouco tempo a identificação instantânea de rostos também integrará essa lista.

Mas o que ocorreria se um dia uma máquina ultrapassasse a performance humana em todas as tarefas possíveis? O que aconteceria se, alguns minutos depois de ser criada, essa superinteligência se alastrasse pela internet e passasse a controlar todas as outras máquinas do planeta? Será que essas superinteligências poderiam subjugar a espécie humana?

Máquinas superinteligentes ainda são um sonho distante, mas não impossível. Não podemos, tampouco, descartar a possibilidade de elas serem produzidas acidentalmente. Seria o mesmo que deixar o gênio escapar da garrafa e nunca mais poder aprisioná-lo.

No entanto, não sabemos o que aconteceria se, de fato, uma superinteligência artificial se alastrasse pelo planeta. Como uma máquina autônoma não pode ser desligada, ficaríamos a mercê de seus caprichos, que poderia incluir a destruição completa da raça humana. De nada adiantaria incluir na programação dessas superinteligências a regra “não destruirás um ser humano”, como pensou o escritor Isaac Asimov quando formulou suas leis fundamentais da robótica. Uma máquina superinteligente, ao alterar sua própria programação, poderia simplesmente deletar essa regra e, em seguida, fazer o mesmo com todas as outras máquinas que encontrasse.

A única garantia contra a possível extinção da espécie humana seria embutir no programa das superinteligências um princípio ético que as impedisse de agir de forma destrutiva. Um princípio ético teria mais força que uma lei explícita e teria menos chance de ser apagado. Mas será isso possível? A opinião de filósofos e cientistas está dividida.

O físico Stephen Hawking sugere que, diante desse risco, as pesquisas em inteligência artificial deveriam ser interrompidas. O filósofo Nick Bostrom, da Universidade de Oxford, defende que o aumento da inteligência se refletirá em um aprimoramento ético. Daniel Dennett, um dos pioneiros da Filosofia da Mente, afirma que a superinteligência não passa de uma lenda urbana que se baseia em atribuir às máquinas poderes que elas nunca terão.

Temos de aguardar, com os dedos cruzados, os próximos capítulos da história da tecnologia. E torcer para que das inteligências sem consciência possa emergir algo mais do que apenas eficiência cega, a competência sem compreensão.

 

 

 

 

João de Fernandes Teixeira é PHD pela Univesity Of Essex (Inglaterra) e se pós-graduol com Daniel Dennet nos Estados Unidos. É professor tirular na Universidade Federal de São Carlos (UFSCAR).
www.faebook.com/filosofiadamentenobrasil

 

 

 

 

Revista Filosofia, Ciência & Vida Ed. 121