Expansão dos Modelos de IA da Google: Conheça o Gemma 3n
Durante a apresentação do Google I/O 2025, a Google revelou o Gemma 3n, uma nova adição à sua linha de modelos de inteligência artificial que promete operar com fluidez em dispositivos como smartphones, laptops e tablets. Desde o início da prévia na terça-feira, o Gemma 3n se destaca por sua capacidade de lidar com áudio, texto, imagens e vídeos.
Eficiência e Operação Offline
Nos últimos anos, a demanda por modelos que funcionem de forma eficiente offline tem aumentado na comunidade de inteligência artificial. Essas soluções não apenas oferecem um custo reduzido em comparação aos modelos maiores, mas também garantem maior privacidade ao eliminar a necessidade de transferir dados para servidores remotos.
Durante sua apresentação no I/O, Gus Martins, gerente de produto do Gemma, afirmou que o Gemma 3n é projetado para funcionar em dispositivos com menos de 2GB de RAM. “O Gemma 3n possui a mesma arquitetura do Gemini Nano e foi desenvolvido para oferecer um desempenho incrível,” comentou Martins.
Introduzindo o MedGemma: Foco em Saúde
Além do Gemma 3n, a Google apresentou o MedGemma por meio do programa Fundamentos de desenvolvedores de IA na saúde. Essa nova tecnologia é apresentada como o modelo de código aberto mais avançado para análise de textos e imagens relacionadas à saúde.
“MedGemma é nossa coleção de modelos abertos para a compreensão multimodal de texto e imagem na área da saúde,” disse Martins. “Esse modelo funciona de forma excelente em diversas aplicações, permitindo que os desenvolvedores personalizem para seus próprios aplicativos na área da saúde.”
O Futuro com o SignGemma: Traduzindo Linguagem de Sinais
Outra inovação que está a caminho é o SignGemma, um modelo desenvolvido para traduzir a linguagem de sinais em texto falado. A Google acredita que o SignGemma permitirá que desenvolvedores criem novos aplicativos e integrações voltadas para usuários surdos e com dificuldades auditivas.
“SignGemma é uma nova família de modelos treinados para traduzir linguagem de sinais em texto falado, com um foco especial na American Sign Language e no inglês,” destacou Martins. “Este é o modelo mais avançado de compreensão da linguagem de sinais que já existiu, e estamos ansiosos para que desenvolvedores e comunidades surdas e com dificuldades auditivas possam utilizar essa base e inovar com ela.”
Desafios e Críticas ao Gemma
Vale ressaltar que o Gemma enfrentou algumas críticas devido aos seus termos de licenciamento personalizados e não padronizados, que alguns desenvolvedores consideram um risco em projetos comerciais. No entanto, essa situação não impediu que os modelos do Gemma fossem baixados coletivamente milhões de vezes, mostrando a aceitação e a utilização em larga escala na comunidade de desenvolvedores.
Com essas novas adições, a Google continua a expandir seu portfólio de modelos abertos, preparando o terreno para inovações futuras e maior acessibilidade na área de inteligência artificial.



