domingo, 28 de julho de 2019

Futuro da Mente: Inteligência Artificial (IA)

Susan Schneider escreveu artigo para a Edge (Época, 27/06/2019). Reproduzo-o abaixo.

Penso na natureza fundamental da mente e na natureza do “eu”. Ultimamente, tenho refletido sobre essas questões tendo em vista tecnologias emergentes. Tenho pensado sobre o futuro da mente e, mais especificamente, sobre como a tecnologia de inteligência artificial (IA) pode remodelar a mente humana e criar mentes sintéticas. À medida que a IA fica mais sofisticada, uma coisa que me interessa bastante é saber se os seres que talvez consigamos criar poderão ter experiências conscientes.

A experiência consciente é o aspecto sensorial de sua vida mental. Quando você vê os exuberantes tons de um pôr do sol ou sente o aroma de café pela manhã, você está tendo uma experiência consciente. Ela lhe é bastante familiar. Inclusive, não há um momento de sua vida em que você não seja um ser consciente.

O que quero saber é, se tivermos uma inteligência artificial geral — capaz de conectar ideias de maneira flexível através de diferentes domínios e de talvez ter algo similar a uma experiência sensorial —, seria ela consciente ou tudo estaria sendo computado no escuro — envolvendo coisas como tarefas de reconhecimento visual de uma perspectiva computacional e pensamentos sofisticados, mas sem ser verdadeiramente conscientes?

Ao contrário de muitos filósofos, especialmente aqueles na mídia e transumanistas, costumo ter uma abordagem de “esperar para ver” em relação à consciência das máquinas. Primeiro porque rejeito a linha totalmente cética. Existiram filósofos muito conhecidos no passado que não acreditavam na possibilidade de consciência das máquinas — notoriamente John Searle —, mas creio que seja cedo demais para falar. Haverá muitas variáveis que determinarão se máquinas conscientes existirão.

Em segundo lugar, temos de nos perguntar se a criação de máquinas conscientes é ao menos compatível com as leis da natureza. Não sabemos se a consciência pode ser implementada em outros substratos. Não sabemos qual será o microchip mais rápido, portanto não sabemos de que material uma inteligência artificial geral será feita. Então, até este momento, é muito difícil dizer que algo altamente inteligente será consciente.

Seria provavelmente mais seguro agora colocar uma barreira conceitual entre a ideia de inteligência sofisticada, de um lado, e a consciência, de outro. O que devemos fazer é manter a mente aberta e suspeitar que, talvez, com tudo que sabemos no momento, a mais sofisticada das inteligências não será consciente. Há muitas questões, e não apenas as que envolvem substratos, que determinarão se máquinas conscientes serão possíveis. Imagine, por um minuto, que é concebível, ao menos em tese, construir uma inteligência artificial consciente. Quem ia querer fazer isso? Pense nas discussões que estão ocorrendo agora sobre os direitos dos androides, por exemplo.

Imagine que todos esses androides japoneses, criados para cuidar dos mais velhos e da casa das pessoas, acabem se tornando conscientes. Não haveria preocupações quanto a forçar criaturas a trabalhar para outras sendo elas seres conscientes? Não seria parecido com escravidão? Não creio que produzir esses seres seja uma vantagem para as companhias de IA. Na verdade, elas podem decidir retirar-lhes a consciência. Claro, não somos capazes de dizer se a consciência pode ser incluída ou retirada de uma máquina. Até onde sabemos, poderia ser uma consequência inevitável de um cálculo sofisticado, e então teríamos de nos preocupar com os direitos de androides e de outras IAs.

Caso as máquinas se mostrem conscientes, não vamos apenas aprender sobre suas mentes, mas também sobre as nossas. Poderíamos descobrir mais sobre a natureza da experiência consciente, o que nos levaria a refletir, como cultura, sobre o que é ser um ser consciente. Humanos deixariam de ser especiais, no que tange a sua capacidade de ter pensamentos intelectuais. Estaríamos compartilhando essa posição com seres sintéticos que não são feitos das mesmas coisas que nós. Essa seria uma lição de humildade para os humanos.

Conforme as civilizações ficam mais inteligentes, elas podem se tornar pós-biológicas. Então, a inteligência sintética acabaria sendo um resultado natural de civilizações tecnológicas bem-sucedidas. Num espaço de tempo relativamente curto, conseguimos criar inteligências artificiais interessantes e sofisticadas. Agora estamos direcionando essa inteligência para dentro, em termos de construção de próteses neurais para melhorar o cérebro humano. Já vemos gurus da tecnologia, como Ray Kurzweil e Elon Musk, falando sobre aperfeiçoar a inteligência humana com chips cerebrais — não apenas para auxiliar quem tem distúrbios neurológicos, mas para ajudar as pessoas a viver mais e de maneira mais inteligente. Pode ser que civilizações ao longo do universo tenham se tornado pós-biológicas e melhorado sua inteligência para se transformar, elas próprias, em seres sintéticos.

De certa maneira, a IA poderia ser um resultado natural de uma civilização tecnológica bem-sucedida. Claro, não estamos dizendo que o Universo tenha uma abundância de vida. Talvez não tenha. Esse é um questionamento empírico, embora muitos de meus colegas na Nasa estejam otimistas. E não estamos sugerindo que, mesmo que outros planetas tenham vida, essa vida seria tecnológica. Ainda não sabemos quão provável é que a própria vida continue a progredir e existir além de sua maturidade tecnológica.

Comecei minha vida acadêmica como economista e em seguida topei com uma aula de Donald Davidson, o eminente filósofo. Descobri que gostava de filosofia anglo-americana e trabalhei com Jerry Fodor, famoso filósofo da mente e crítico das ideias que deram origem à aprendizagem profunda (modelo de aprendizado de computadores a partir de algoritmos que simulam redes neurais do cérebro ).

Fodor e eu passávamos horas discutindo sobre o escopo e os limites da inteligência artificial. Eu discordava dele quanto a essas visões iniciais sobre a aprendizagem profunda. Não achava que eram tão impossíveis como ele sugeria. Naquela época, elas eram chamadas de “visões conexionistas”. Ele alegava que o cérebro não é computacional e que a inteligência artificial provavelmente não prosperaria quando chegasse ao nível de inteligência artificial de domínio geral porque havia uma característica especial no cérebro humano não computacional. A saber, ele estava se referindo ao que chamava de “sistemas centrais”, áreas do cérebro que podemos classificar como sendo de domínio geral, indo além de funções mentais altamente compartimentalizadas — aquele material de primeira que dá origem à criatividade humana e à cognição.

Argumentei que o cérebro era computacional de cabo a rabo. Por exemplo, havia teorias bem-sucedidas de memória de trabalho e atenção que envolviam funções de domínio geral. Enquanto eu estava trabalhando com Fodor, li bastante sobre neurociência computacional. Insisti que o cérebro talvez seja um sistema híbrido que possa ser descrito nos termos da abordagem da rede neural discutida em neurociência computacional, mas no qual essas descrições de alto nível tratadas na psicologia cognitiva fazem referência à forma de pensar a que pessoas como Jerry Fodor recorrem — a linguagem do pensamento, que afirma que o cérebro é um dispositivo de processamento de símbolos que os manipula de acordo com regras.

Teria sido divertido conversar com Fodor sobre sistemas de aprendizagem profunda. Imagino que ele ainda estaria um tanto cético quanto à possibilidade de esses sistemas se desenvolverem ainda mais, tornando-se o que algumas pessoas chamariam de inteligência artificial geral. De forma alguma estou sugerindo que os recursos atuais poderiam originar algo tão sofisticado. Entretanto, acho que, com todo dinheiro que vem sendo investido em inteligência artificial, com todo sucesso com que a velocidade dos cálculos vem aumentando ano após ano, sempre encontrando microchips mais rápidos e melhores, com a possibilidade de computação quântica sendo desenvolvida de maneira séria — todas essas coisas militam fortemente pela inteligência artificial, que progressivamente se torna cada dia melhor. Enquanto isso, podemos observar recursos em diferentes áreas da neurociência, como a neurociência computacional, e aprender com o funcionamento do cérebro. Podemos fazer uma engenharia reversa de IA a partir do cérebro quando precisarmos.

À medida que comecei a pensar sobre as histórias de sucesso da Deep Mind — com sistemas de domínio específico, por exemplo —, passei a acreditar que, com toda ênfase em tecnologia de IA e tecnologias aperfeiçoadas disponíveis, mais IAs sofisticadas seriam criadas. Não apenas criaremos robôs inteligentes; também colocaremos a IA em nossa cabeça e mudaremos o molde da mente humana. Então comecei a me preocupar com a maneira como isso poderia transformar a sociedade.

Vejo muitos mal-entendidos nas discussões atuais sobre a natureza da mente, como a suposição de que, se criarmos IAs sofisticadas, elas inevitavelmente criarão uma consciência. Também existe essa ideia de que deveríamos “nos fundir com a IA” — que, para que humanos possam acompanhar os desenvolvimentos nesse campo e não sucumbir a IAs superinteligentes ou ao desemprego tecnológico causado por elas, precisamos melhorar nosso próprio cérebro com essa tecnologia.

Uma coisa que me preocupa nisso tudo é que eu não acho que empresas de IA deveriam estar resolvendo problemas referentes ao molde da mente. O futuro da mente deveria ser uma decisão cultural e uma decisão individual. Muitas das questões em jogo aqui envolvem problemas clássicos de filosofia que não têm soluções fáceis. Estou pensando, por exemplo, nas teorias metafísicas sobre a natureza de uma pessoa. Digamos que você implante, em si, um microchip para se integrar à internet e continue colocando melhorias após melhorias. Até que ponto você ainda vai ser você? Quando pensamos em aperfeiçoar o cérebro, a ideia é melhorar a vida — ficar mais inteligente ou mais feliz, talvez até viver mais ou ter um cérebro mais afiado à medida que envelhece —, mas e se todas essas melhorias nos alterassem de formas tão drásticas que já não fôssemos mais a mesma pessoa?

Há questões aprsentadas por filósofos como Hume, Locke, Nietzsche e Parfit que vêm sendo pensadas há anos no contexto de debates sobre a natureza humana. Agora que temos a oportunidade de, possivelmente, esculpir nossa própria mente, acredito que precisamos dialogar com essas posições filosóficas clássicas sobre a natureza do “eu”.

Preocupo-me profundamente com a obsessão com a tecnologia. Eu me considero uma tecnoprogressista, no sentido de que quero ver a tecnologia ser usada para melhorar a vida humana, mas precisamos ter cuidado com a aceitação inabalável dessa ideia de fundir-se com IAs ou até de ter uma internet das coisas a nosso redor o tempo todo.

O que precisamos fazer agora, conforme essas tecnologias de aprimoramento neurais estão sendo desenvolvidas, é ter um diálogo público sobre isso. Todas as partes interessadas precisam se envolver, dos pesquisadores dessas tecnologias aos legisladores e até pessoas comuns, especialmente os jovens, contanto que, à medida que tomem essas decisões quanto ao aperfeiçoamento do cérebro, eles sejam capazes de fazer isso com mais escrutínio. Aqui, as questões filosóficas clássicas sobre a natureza do “eu” e a natureza da consciência dão as caras.

Conselhos de ética de IA em grandes empresas são importantes, mas, de certa forma, é a raposa cuidando do galinheiro. A única maneira de termos um futuro positivo quando se trata do uso de tecnologias de IA para criar mentes sintéticas e melhorar a mente humana é trazer essas questões diretamente para o público, e é por isso que eu me importo bastante com o engajamento popular e com a garantia de que todas as partes interessadas estejam envolvidas.

Em um mês, serei a ilustre acadêmica da Livraria do Congresso para o próximo ano, então poderei levar essas questões à capital americana. Espero que, embora muitos líderes de tecnologia estejam ocupados demais para pensar seriamente sobre algumas das questões filosóficas subjacentes, o próprio público se dedique a esse tópico.

Como saberíamos se uma máquina é consciente? Eu sugeri que não podemos presumir que uma IA sofisticada será consciente. Além disso, pode ser que a consciência seja desenvolvida apenas em certos programas de IA ou com certos substratos, certos tipos de microchips e não em outros. Até onde sabemos, talvez sistemas de base de silício possam ser conscientes, mas sistemas que usem nanotubos de carbono não. Não sabemos. É um questionamento empírico. Então, seria útil fazer alguns testes.

A parte complicada é que, mesmo hoje em dia, não podemos dizer com exatidão o que sistemas de aprendizagem profunda estão fazendo. O problema da caixa-preta da IA questiona como podemos saber quais cálculos estão nos sistemas de aprendizagem profunda, inclusive no nível inicial de sofisticação em que se encontram hoje.

Em vez de olhar por baixo do capô da arquitetura da IA, a maneira mais eficaz de determinar a consciência em máquinas é fazer uma abordagem em duas partes. A primeira coisa a se fazer é um teste com base em comportamento, que desenvolvi no Instituto de Estudos Avançados com o astrofísico e prodígio dos exoplanetas Edwin Turner. É um teste simples. Uma das coisas que mais chamam a atenção na consciência humana é o fato de que temos a capacidade de compreender situações imaginárias que envolvam a mente. Quando você era criança, talvez tenha visto o filme Sexta-feira muito louca , em que mãe e filha trocam de corpo. Por que isso fez sentido para nós? Fez sentido porque conseguimos imaginar a mente deixando o corpo. Não estou dizendo que a mente de fato saia do corpo, mas conseguimos imaginar situações, pelo menos em linhas gerais, que envolvam uma vida após a morte, reencarnação, experimentos de pensamentos filosóficos.

O que precisamos fazer, então, é promover IAs capazes de imaginar esses tipos de situações. Há, porém, uma boa objeção a isso, que é o fato de podermos programar uma IA para agir como se fosse consciente. Hoje em dia, já existem IAs que conversam e agem como se tivessem vidas mentais. Pense em Sophia, da Hanson Robotics. Ela fala com você, e a imprensa até conversa com ela como se fosse um ser consciente. Creio que tenha sido oferecida a ela cidadania na Arábia Saudita, o que é interessante.

O que precisamos fazer para determinar se uma IA é consciente é confiná-la. Essa é uma estratégia usada na pesquisa de segurança de IAs para evitar que ganhem conhecimento sobre o mundo ou ajam nele durante o estágio de pesquisa e desenvolvimento, em que se aprende sobre as capacidades de um sistema. Nesse momento, se você não fornece à inteligência artificial conhecimento sobre neurociência e consciência humana e percebe comportamentos anômalos quando a examina à procura de experiência consciente, faça experimentos de pensamento e veja como ela reage. Pergunte, simplesmente: “Você consegue se imaginar existindo após a destruição de suas partes?”.

Turner e eu escrevemos várias perguntas, uma espécie de teste de Turing para consciência de máquinas, projetado para despertar comportamentos contanto que elas estejam confinadas apropriadamente, e isso serve para garantir que não tenhamos falsos positivos. Dito isso, não acho que o teste seja a única maneira de abordar essa questão. É o que filósofos chamam de “condição suficiente” para a consciência de máquinas. Então, se uma máquina passar no teste, temos motivo para acreditar que ela é consciente. Mas, se for reprovada, outros testes podem ainda assim determinar que ela é consciente. Talvez não seja devidamente linguística, talvez não tenha noção do “eu”, e por aí em diante.

 

PUBLICIDADE

Na série “Westworld” (2016), androides que vivem em um parque temático que simula o Velho Oeste adquirem consciência e se rebelam contra os humanos. Foto: Reprodução

Na série “Westworld” (2016), androides que vivem em um parque temático que simula o Velho Oeste adquirem consciência e se rebelam contra os humanos. Foto: Reprodução

Como mencionei, ofereço uma abordagem de duas partes. Deixe-me falar sobre a segunda maneira de determinar se máquinas podem ser conscientes, porque esse é um caminho sensível devido aos desenvolvimentos recentes em chips cerebrais. Conforme usamos neuropróteses ou chips em partes do cérebro que fundamentam a experiência consciente em humanos, se esses chips forem bem-sucedidos e se não notarmos déficit de consciência, então temos motivo para crer que aquele microchip feito de um substrato em particular — digamos, silício — possa proporcionar consciência quando está no ambiente arquitetônico certo.

 

Isso seria importante se determinássemos que outro substrato, quando inserido no cérebro humano, não muda a qualidade de nossa experiência consciente quando está em áreas do cérebro que acreditamos ser responsáveis pela consciência. Isso significaria que, em tese, poderíamos desenvolver uma consciência sintética. Talvez façamos isso simplesmente ao substituir de forma gradual o cérebro humano por componentes artificiais até que, no fim, tenhamos um ser que seja uma IA plena.

 

Eu amo a interseção entre filosofia e ciência ou a parte em que a ciência fica turva e precisa pensar sobre suas implicações. Exemplos disso seriam as teorias da emergência do espaço-tempo na física, nas quais é necessário observar teorias matemáticas e então tirar conclusões a partir delas sobre a natureza do tempo. Questões como essa envolvem um equilíbrio delicado entre considerações matemáticas ou empíricas e questões filosóficas. Este é o momento em que eu gosto de intervir e me envolver.

Estou bastante interessada no escopo e no limite do que podemos saber enquanto humanos. Somos seres humildes e talvez, conforme aperfeiçoemos nossos cérebros, encontraremos respostas para alguns dos clássicos problemas filosóficos. Quem sabe? Por enquanto, se desenvolvermos tecnologia de inteligência artificial sem ter o cuidado de pensar sobre questões envolvendo a natureza da consciência ou a natureza do “eu”, veremos que essas tecnologias talvez não façam aquilo que as pessoas que as desenvolveram queriam que fizessem: melhorar as nossas vidas e promover a prosperidade dos humanos.

Precisamos ter cuidado para nos assegurar de que saberemos se estamos criando seres conscientes e de que saberemos se melhorias radicais em nossos cérebros serão compatíveis com a sobrevivência da pessoa, senão essas tecnologias levarão à exploração e ao sofrimento de seres conscientes, em vez de melhorar as nossas vidas.

Gosto daquele lugar de humildade em que deparamos com uma parede epistemológica, porque isso nos ensina o escopo e os limites do que conseguimos compreender. Às vezes é importante lembrar, nos dias atuais, com as abundantes inovações tecnológicas, que sempre existirão questões para as quais não temos respostas definitivas. Um bom exemplo é o questionamento sobre cérebros em tonéis — se estamos ou não vivendo dentro de simulações de computador. Essas são questões epistemológicas, sobre a natureza do conhecimento, e que não apresentam respostas fáceis.

Futuro da Mente: Inteligência Artificial (IA) publicado primeiro em https://fernandonogueiracosta.wordpress.com



Nenhum comentário:

Postar um comentário