- Em evento global realizado nesta quarta-feira (8), em Paris, a empresa anunciou uma série de novos recursos, entre eles o lançamento oficial do Multisearch para mais idiomas e países, incluindo o Brasil.
- Foram apresentados ainda mais detalhes sobre o Bard, serviço experimental de IA conversacional do Google, anunciado pela companhia na segunda-feira.
Após anunciar a chegada do Bard, seu serviço experimental de IA conversacional, o Google realizou nesta quarta-feira (08), em Paris, um evento global onde apresentou as últimas inovações em IA para Busca, Google Maps e Google Tradutor. Entre as principais novidades anunciadas pelos porta-vozes da empresa, está a expansão para mais países do Multisearch, experiência de busca que combina imagem e texto no aplicativo da Busca. A experiência já está disponível a partir de hoje no Brasil.
No Maps, o Google apresentou avanços em IA e Realidade Aumentada, entre eles a expansão da funcionalidade Live Indoor View, que inclui 1.000 novos aeroportos, estações de trem e shoppings em cidades ao redor do mundo, cidades ao redor do mundo, incluindo Londres, Paris, Berlim e São Paulo nos próximos meses.
Na ocasião, o Vice Presidente do Google, Prabhakar Raghavan, compartilhou mais detalhes sobre o Bard, novo serviço experimental de IA conversacional alimentado pelo LaMDA, e suas aplicações. Ele reforçou ainda a importância de desenvolver a tecnologia de forma ousada e responsável, com informação atual e de qualidade. O Bard está em período de testes de grupos externos e, após um período de feedbacks, deverá chegar ao público nas próximas semanas.
Conheça os principais anúncios a seguir:
Multisearch chegando ao Brasil: novas formas de “dar o Google”
As câmeras dos dispositivos móveis se tornaram uma maneira poderosa de explorar e entender o mundo ao nosso redor. Para se ter uma ideia, o aplicativo Lens é usado mais de 10 bilhões de vezes por mês, já que as pessoas pesquisam o que enxergam por meio das imagens de suas câmeras.
No ano passado, alcançamos um marco importante com o lançamento nos Estados Unidos do Multisearch, uma nova forma de pesquisar usando texto e imagens ao mesmo tempo. No aplicativo do Google, você pode usar o Lens para tirar uma foto ou usar uma captura de tela e adicionar texto à ela, da mesma forma que você pode apontar naturalmente para algo e fazer uma pergunta sobre isso. A ideia é poder apontar sua câmera naturalmente para algo e fazer uma pergunta sobre isso. A partir de hoje, a experiência começa a entrar no ar em dispositivos móveis em todos os idiomas e países onde o Lens está disponível, incluindo o Brasil. Leia mais no nosso blog post.
Recentemente, o Google também adicionou ao recurso de Multisearch a possibilidade de pesquisar localmente. Você pode tirar uma foto com o Lens e adicionar o “perto de mim” na pesquisa para encontrar o que precisa ou fazer a captura de tela de um prato ou um objeto e ver em qual restaurante ou loja mais próxima os itens estão disponíveis. Nos próximos meses, vamos oferecer o recurso para todos os idiomas e países onde o Lens está disponível, incluindo o Brasil.
Com o Lens, o objetivo do Google é conectar as pessoas às informações do mundo. Já é possível usar o Lens para pesquisar usando câmera ou fotos, diretamente na barra de Busca. Agora, será possível pesquisar sobre o que está na tela do seu celular.
Nos próximos meses, você poderá usar o Lens para “pesquisar tela” (Search screen, em inglês) diretamente no Android. Com essa tecnologia, você pode pesquisar o que vê em fotos ou vídeos em sites e utilidades que conhece, como aplicativos de mensagens e vídeos, sem precisar sair deles ou perder o momento.
Maps: Visualização imersiva e Live Indoor View em mais países
No ano passado, o Google compartilhou sua visão para o futuro do Google Maps: um mapa interativo e intuitivo que reinventa como você busca e navega, ajudando as pessoas a fazerem escolhas mais úteis e sustentáveis. No evento de hoje, a empresa mostrou como a IA está dando vida a essa missão, com atualizações para visualização imersiva e Live View, além de novos recursos para motoristas de veículos elétricos e pessoas que se locomovem por bicicleta ou transporte público.
Um dos recursos mais esperados, a Visualização Imersiva está disponível agora em mais cinco cidades, entre elas Londres, Los Angeles, Nova York, São Francisco e Tóquio e, nos próximos meses, em Florença, Veneza, Amsterdã e Dublin, e traz avanços em IA e visão computacional, com uma imersão que funde bilhões de imagens de Street View e panoramas aéreos para criar um modelo digital.
Digamos que você esteja planejando uma visita ao Rijksmuseum em Amsterdã. Você pode sobrevoar virtualmente o prédio e ver onde e como está a entrada. Com um controle deslizante de tempo, você pode ver ainda a aparência da área em diferentes momentos do dia e como estará o clima. Também é possível identificar onde tende a ficar mais lotado para ter todas as informações necessárias para decidir quando ir. Se estiver com fome, é possível descer até o nível da rua para explorar os restaurantes próximos e dar uma olhada no interior para entender rapidamente a animação de um lugar antes de fazer sua reserva.
O Google anunciou hoje também que vai expandir a funcionalidade do Live Indoor View para mais de 1.000 novos aeroportos, estações de trem e shoppings em cidades ao redor do mundo, incluindo São Paulo, Londres, Paris, Berlim, Madri, Barcelona, Praga, Frankfurt, Tóquio, Sydney, Melbourne, Cingapura e Taipei. Com o Live View, é possível apontar a câmera do celular dentro dos locais para encontrar lojas, caixas eletrônicos e restaurantes.
A partir de agora, no Maps, também será possível seguir a viagem com a visualização resumida da rota ou direto da tela de bloqueio. Já para os carros elétricos, a plataforma anuncia que nos próximos meses será possível visualizar os postos de recarga direto na Busca e no Maps. Motoristas poderão adicionar paradas obrigatórias de carregamento a viagens mais curtas e o aplicativo vai sugerir o melhor destino com base em fatores como tráfego atual, nível de carga do carro e consumo de energia esperado.
Novos lançamentos tornam o Tradutor mais acessível para os seus 1 bilhão de usuários
Para o Tradutor, o Google anunciou mudanças no design, que foi completamente redesenhado para os usuários do Android e ganhará uma nova interface para os usuários de iOS. A plataforma também oferecerá, nos próximos meses, traduções mais abrangentes e contextuais para palavras únicas, frases curtas e expressões com vários significados, ajudando você a entender melhor e encontrar a melhor tradução com base no contexto. Isso estará disponível em inglês, francês, alemão, japonês e espanhol nas próximas semanas e será expandido para mais idiomas nos próximos meses. Leia mais no blog post.
No Brasil e no mundo, também começam a funcionar as funções de tradução de realidade aumentada no Lens, que misturam perfeitamente o texto traduzido em imagens, tornando-as muito mais naturais.
Veja os detalhes de cada lançamento no blog do Google.
📱 Siga o Portal de Pinhal no Facebook, no Instagram e no Google Notícias.