Google e OpenAI estão envolvidos em uma competição acirrada para dominar o campo da inteligência artificial. Nos últimos meses temos testemunhado como estas empresas têm definido as suas estratégias para o conseguir. Embora os liderados por Sam Altman adoptassem uma foco mais próximolimitando o acesso dos investigadores às suas tecnologias mais recentes, a casa de Sundar Pichai ainda mantém certas dinâmicas do passado.
O gigante das buscas foi anunciado esta quarta-feira uma família de grandes modelos de linguagem cuja característica mais notável é serem apresentados como “abertos”. A empresa garante que esta alternativa se baseia nos avanços obtidos para a criação do Gemini, e que é produto do trabalho dos laboratórios DeepMind, bem como de outras equipes especializadas que atuam no Google. Vejamos mais alguns detalhes sobre Gemma.
Gemma, disponível em todo o mundo a partir de hoje
Quando o Google fala sobre uma família de modelos, pelo menos nesta fase inicial, refere-se a dois modelos: 2B e Gemma 7B. Estamos perante duas variantes, uma mais pequena e outra muito maior em termos de parâmetros de treino. De Mountain View asseguram que ambas as propostas “estabelecem um novo padrão de desempenho”Em comparação com concorrentes como Llama 2 de Meta e Mistral 7B. Embora, é claro, teremos que ver se esta promessa será cumprida além do papel.
O desempenho de Gemma, como podemos ver nos documentos publicados pelo Google (e na imagem), foi avaliado através de inúmeros benchmarks. Se focarmos no MMLU, benchmark projetado para medir a amplitude de conhecimento e capacidade de resolução de problemas do modelo, o Gema em suas versões 7B está um pouco acima do Mistral 7B, Llama 2 13B e Llama 2 7B. A Gema 2B, por sua vez, fica abaixo em todos os cenários.
Uma das chaves para a abordagem aberta dos modelos Gemma é que os desenvolvedores têm maior versatilidade para experimentá-los, embora deva ser observado que esta não é uma solução completamente aberta. Os modelos ainda Eles têm algumas restrições termos de uso estabelecidos pelo Google nos termos de licença. Em qualquer caso, o facto de poderem estar disponíveis ao público é uma boa notícia para o desenvolvimento desta tecnologia.
Como dizemos, os usuários têm a capacidade de modificar os modelos com treinamento adicional para atender a necessidades específicas. Dessa forma, ambas as propostas são distribuídas em suas versões Pré-treinado e Afinado com Instrução. Aqui entra em jogo a capacidade dos desenvolvedores de aproveitar ao máximo as capacidades do modelo, que é capaz de gerar texto, mas também de realizar tarefas específicas para as quais foi treinado com as ferramentas disponíveis.
Por fim, é importante ressaltar que o Gema pode ser acessado por diversos meios. A Google prefere que os interessados em utilizar esta solução o façam através da sua plataforma Google Nuvem, que permite realizar uma ampla gama de tarefas diretamente da nuvem e sem utilizar capacidade computacional local, embora pagando por uso. Também existe a possibilidade de baixá-los através da plataforma Kaggle para trabalhar em um computador.
Imagens do google
Em Xataka: O CEO da NVIDIA confessa que carreira seguiria e isso é uma péssima notícia para a computação