Gemini Embedding 2 do Google une texto e imagem para criar sistemas de IA mais precisos
O Google oficializou o lançamento do Gemini Embedding 2 como seu novo modelo de inteligência artificial focado em mudar a forma como dados complexos são processados e recuperados. Essa nova versão vem com suporte multimodal nativo, o que permite que sistemas de busca e recomendação compreendam as nuances entre texto e imagem.
Gemini Embedding 2: O novo salto do Google na inteligência artificial multimodal
De modo geral, essa melhor compreensão acontece dentro de um único espaço vetorial. Em resumo, esse é o primeiro modelo da plataforma que consegue transformar múltiplos tipos de dados em um único espaço de embeddings, o que possibilita comparar conteúdos diferentes de forma direta.
A partir disso, os sistemas de IA podem buscar imagens com uso de texto e encontrar vídeos relacionados a um documento. Não apenas isso, como também conseguem correlacionar áudio, texto e imagens em um mesmo banco de dados.
Clique aqui para ler mais
What did you think of this news? Leave a comment below and/or share it on your social media. This way, we can inform more people about the hottest things in technology, science, innovation, and gaming!
This news was originally published in:
Original source
