

Agora conhecemos o modelo de IA que alimenta o futuro do Google Bard – PaLM 2.
No Google I/O de hoje (10 de maio), o CEO do Google, Sunda Pichai, anunciou o Pathways Language Model 2 (PaLM 2).
Será o modelo de linguagem ampla de IA (LLM) por trás de todo um conjunto de produtos de IA do Google, incluindo o chatbot Bard.
O PaLM 2 será um concorrente direto do modelo GPT-4 da OpenAI, que atualmente alimenta as versões pagas do ChatGPT e do Bing AI da Microsoft.
Esse modelo promete ser o alicerce dos produtos de IA do Google, servindo como um LLM geral massivo com recursos expandidos de raciocínio, linguagem e codificação.
Ele pode então ser ajustado em LLMs menores para desenvolver ferramentas de IA especializadas.
Isso é algo que já foi feito com o Med-PaLM 2, uma ferramenta de IA de diagnóstico médico, e o Sec-PaLM, uma ferramenta de IA de detecção de ameaças à segurança de TI.
O PaLM 2 possui quatro submodelos (do maior para o menor): Unicorn, Bison, Otter e Gecko.
Com isso, aqui está tudo o que sabemos até agora sobre o PaLM 2, o novo modelo de IA do Google.
PaLM 2: O que há de novo
O Google está configurando o PaLM 2 para ser o modelo fundamental de IA por trás de seus futuros produtos de IA.
De acordo com o Google, o PaLM 2 já está alimentando secretamente o Google Bard e tem muitas integrações futuras planejadas.
Embora o Google não tenha informado em quantos parâmetros o PaLM 2 é treinado – o PaLM foi treinado em 540 bilhões de parâmetros de linguagem – o Google promete que o PaLM 2 terá recursos aprimorados, além de desempenho mais rápido e eficiente.
A primeira melhoria é um grande aumento no idioma. O PaLM 2 é treinado em mais de 100 idiomas e é treinado não apenas para traduzir literalmente de um idioma para outro, mas também para aplicar o contexto possível e entender expressões idiomáticas, poemas e enigmas.
Tudo isso visa fornecer uma tradução mais precisa.
O PaLM 2 também aumentou as capacidades de raciocínio lógico em relação ao seu antecessor.
Ele foi treinado em expressões matemáticas e revistas científicas e agora pode resolver problemas lógicos avançados.
Ele pode até explicar as etapas e fornecer diagramas, o que significa que pode mostrar seu trabalho se o professor de matemática solicitar.
Finalmente, o PaLM 2 está recebendo uma atualização de codificação. O LLM foi treinado em mais de 20 linguagens de programação – incluindo algumas mais especializadas como Prolog e Fortran – para que possa escrever e depurar código para mais usuários.
De acordo com o Google, ele pode até fornecer documentação explicando o que fez em vários idiomas; portanto, para os programadores, isso pode ser uma melhoria real.
E este último modelo de IA pode eventualmente chegar aos telefones Android.
O Gecko é a versão mais leve do PaLM 2 e pode ser executado como um aplicativo interativo, processando 20 tokens por segundo nos telefones mais recentes.