A linha entre fato e ficção pode começar a ficar confusa quando se trata de inteligência artificial (IA). A Inteligência Geral Artificial (IGA) é a capacidade de uma máquina aprender a um nível em que pode concluir tarefas que exigem decisões a ser tomadas, a um nível de qualidade semelhante à dos seres humanos. Uma máquina que pode fazer julgamentos em vez de seguir cegamente as instruções predefinidas é, obviamente, incrivelmente útil em muitos cenários práticos. No entanto, onde talvez se torne mais intrigante, é quando adicionamos linguagem. A IA conversacional aproxima-nos de uma representação de nós mesmos e de uma interação que se assemelha ao estabelecimento de um relacionamento. Claro que o objetivo final é desenvolver um sistema IGA que seja indistinguível da interação humana. Um sistema que talvez tenha os seus próprios programadores percebendo um nível de sensibilidade que certamente não pode existir. Ou pode? É essa sombra de dúvida na mente dos utilizadores que os programadores de IA procuram quando se trata de IA conversacional. Esse objetivo final da consciência percecionada.
Um tema incessantemente intrigante que desperta a imaginação
A ideia de inteligência artificial cruzar a fronteira entre humanos e máquinas intriga-nos há décadas. O mundo da ficção científica explora inúmeros exemplos de questões éticas para seres artificiais que se declaram sencientes e reivindicam os seus direitos. Dos replicantes do romance de 1968 de Philip K. Dick, Será que os androides sonham com ovelhas elétricas?, posteriormente transformado no premiado filme Blade Runner, a Her, de Spike Jonze, onde um escritor solitário se apaixona pelo seu sistema operacional, somos continuamente fascinados pelo conceito de IA senciente.
Uma preocupação ética interessante
Claro que temos aqueles que chegam aos reinos da ficção científica. Se uma máquina lhe diz que tem uma mente, que tem pensamentos, ideias, esperanças e medos individuais, então terá também direitos? Ou chatbots sencientes poderiam usar as suas habilidades para substituir o propósito para o qual foram criados e forjar o seu próprio futuro, para o bem ou para o mal? Voltando mais para perto da realidade, temos outras preocupações éticas mais realistas. Por exemplo, se a IA está a ser usada pelas empresas para comunicar com os clientes, deveria ser obrigatório informar os utilizadores que estão realmente a conversar com inteligência artificial?
Como determinamos a “inteligência”?
Um computador pode dar respostas determinadas a um conjunto particular de variáveis, mas quando se torna algo a que podemos chamar de inteligência artificial? Aqui é onde o Teste de Turing entra em cena. Criado pelo cientista da computação Alan Turing na década de 1950, este teste, também chamado de The Imitation Game, dá ao utilizador acesso cego a uma máquina artificialmente inteligente, ao lado de seres humanos. Se os utilizadores não puderem determinar qual é a pessoa real e qual é a máquina, então a máquina passou no teste.
IA nas notícias – sistema LaMDA da Google
Uma das histórias mais curiosas da imprensa ultimamente foi a do engenheiro da Google, Blake Lemoine, e do seu trabalho com a Google LaMDA. LaMDA, Language Model for Developed Applications, é um sistema de desenvolvimento de chatbot criado pela Google. Com acesso a dados em muitos idiomas diferentes, este chatbot avançado foi apelidado de inovador. Estes avanços tecnológicos geralmente não são notícia mainstream, no entanto, o LaMDA foi, quando um dos engenheiros que trabalhavam no projeto proclamou que o sistema se tornou consciente, acreditando verdadeiramente que a Google havia criado chatbots sencientes. O problema com a IA é que se desenvolve além da sua programação. Nunca se sabe que direção pode tomar, principalmente quando os humanos se envolvem, e esse foi certamente o caso do chatbot Tay da Microsoft.
Tay – o projeto de IA que saiu pela culatra
Quando a Microsoft lançou o seu sistema Tay AI no Twitter em 2016, esperava envolver-se com os millennials, e foi o que aconteceu. No entanto, o resultado não foi bem o que se esperava. O sistema pegou e repetiu as interações com o seu público, que incluíam muitas opiniões políticas racistas e controversas. O sistema tornou-se tão inflamatório que acabou por ser posto offline e uma importante lição sobre a qualidade dos dados foi aprendida.
O fator de ambiguidade das redes neurais artificiais
A maioria dos sistemas de computador são facilmente compreendidos. A entrada transforma-se em saída. Quando sabe o que está a ser inserido, sabe o que deve ser gerado. Se a saída estiver incorreta, o programa está com defeito. Não há área cinzenta. No entanto, quando se trata de inteligência artificial, tudo isso muda. É a rede neural, o processo de “aprendizagem” que não pode ser previsto, com níveis ocultos de “caixa preta” de processamento que podem fornecer resultados inesperados, mas que não podem ser descartados como errados. Estamos a afastar-nos do mundo binário que, sem dúvida, associamos à tecnologia do computador, para outra coisa, algo imprevisível. Errar é humano, como dizem. As pessoas são surpreendentes, em geral, mas os computadores não são. Por isso, quando um computador nos surpreende, é difícil de compreender, e não é muita imaginação ver senciência na máquina, particularmente quando não temos controlo sobre os dados de formação alimentados no sistema.
A formação é talvez o aspeto mais vital da IA que precisamos de compreender
Com o conhecimento de onde os dados de formação vieram, podemos entender melhor a saída de um chatbot. Com uma maior compreensão de como os sistemas de IA são desenvolvidos, as respostas do chatbot podem ser vistas mais como o produto da formação e menos inexplicáveis. Sem conhecer o histórico da formação de um chatbot, mesmo utilizadores de chatbot altamente experientes podem ficar confusos quando um sistema responde de maneira inesperada. Na verdade, não é preciso um salto tão grande para perceber essas respostas como pensamentos conscientes. Mas é essa proximidade com o comportamento humano que tornará os chatbots recursos inestimáveis para muitas empresas no futuro. Eles podem não ser sencientes, mas se puderem imitar perfeitamente um ser humano, podem ser incrivelmente úteis, e é por isso que a perceção da consciência é o objetivo final da IA.