Apesar de todo o tumulto recente sobre inteligência artificial, em parte alimentada por terríveis previsões feitas pelos gostos de Stephen Hawking e Elon Musk, houve poucos avanços nesse campo para justificar tal alarde. As redes neurais artificiais que têm causado tanta controvérsia são um produto dos anos 1950 e 60, e permanece relativamente inalterado desde então. Avanços foram feitos em áreas como o reconhecimento de voz devem muito para os conjuntos de dados melhorados, e hardware mais rápido do que a mudanças reais na metodologia de IA. Os problemas mais espinhosos, como computadores de ensino para fazer o processamento de linguagem natural e saltos de lógica permanecem quase tão intratável agora como eram há uma década.
Isso tudo pode estar prestes a mudar. Na semana passada, o sumo sacerdote britânico de inteligência artificial professor Geoffrey Hinton, que foi contratado pela Google há dois anos durante sua enorme aquisição de especialistas de IA, revelou que a sua entidade patronal pode ter encontrado um meio de romper o impasse da IA que tem persistido em áreas como processamento de linguagem natural.
A esperança vem sob a forma de um conceito chamado “vetores de pensamento.” Se você nunca ouviu falar de um vector de pensamento, não se preocupe, não é o único. O conceito é novo e controverso. A ideia subjacente é que, ao atribuir a cada palavra um conjunto de números (ou vetor), um computador pode ser treinado para entender o real significado dessas palavras.
Agora, você pode se perguntar, mas os computadores já não fazem isso? Quando digitar no Google a questão “Quem foi o primeiro presidente dos Estados Unidos?”, ele retorna um curto pedaço de texto contendo a resposta correta. Mas ele não entende o que estou dizendo? A resposta é não. O estado atual da arte ensinou computadores compreenderem a linguagem humana da mesma forma como um cão treinado entende quando tem que ficar de cócoras, em resposta ao comando “senta”. O cão não entende o real significado das palavras, só foi condicionado a dar uma resposta a certos estímulos. Se você fosse perguntar o cão, “sentar está para cadeira assim como lençol está para cama”, ele não teria nenhuma ideia de onde você quer chegar.
Pensando em um meio em como os vetores mudariam isso: na verdade, ensinando o computador a entender a linguagem da mesma forma que fazemos. A diferença entre os vetores de pensamento e os métodos anteriores utilizados no IA é em alguns aspectos meramente uma questão de grau. Enquanto um cão mapeia a palavra sentar-se a um único comportamento, usando vetores de pensamento, palavra que poderia ser mapeada para milhares de frases contendo “sentar-se”. O resultado seria o computador chegar a um significado para a palavra mais perto de como se assemelha ao nosso entendimento.
Enquanto isso soa um tanto “artificial”, na prática, as coisas vão ser mais difíceis. Por exemplo, há a questão de ironia, quando uma palavra está sendo usado em mais do que apenas seu sentido literal. Professor Hinton comentou: “A ironia vai ser difícil de se obter, você primeiramente precisa ser o mestre do sentido literal das palavras. Mas então, os americanos não atingir o nível de ironia. Os computadores estão evoluindo no sentido de atingir o nível dos norte-americanos antes de Brits.” Embora isso possa fornecer algum pequeno alívio para Hinton e seus compatriotas, independentemente de qual nacionalidade os computadores dominarão em primeiro lugar, com certeza será um tanto estranho o despertar, quando o laptop da cozinha começar a conversar com você, como se fosse um humano respondendo de volta.