Tags
O Google realizou na semana passada seu evento anual Search On. Nele, a companhia mostrou como está trazendo para seus produtos inovações em aprendizado de máquina e recursos para oferecer às pessoas novas formas de pesquisar e explorar informações além da caixa de pesquisa.
Quer ficar por dentro do mundo da tecnologia e ainda baixar gratuitamente nosso e-book Manual de Segurança na Internet? Clique aqui e assine a newsletter do 33Giga
“No Search On, mostramos hoje como os avanços na inteligência artificial estão nos permitindo transformar nossos produtos de informação mais uma vez”, disse Prabhakar Raghavan, vice-presidente sênior da Busca no blog da empresa. “Estamos indo muito além da caixa de pesquisa para criar experiências de pesquisa que funcionem mais como nossas mentes e que sejam tão multidimensionais quanto somos como pessoas.”
O recurso de Lens permite explorar o mundo ao redor usando a câmera do celular ou uma imagem de tela. (Atualmente, as pessoas usam o Lens para responder a mais de oito bilhões de perguntas por mês).
O Google está trabalhando para deixar as pesquisas visuais cada vez mais naturais, graças à introdução do multisearch – um marco importante que traz possibilidades totalmente novas para pesquisar informações.
Com a nova modalidade de busca, é possível tirar uma fotografia ou usar uma imagem (ou um screenshot) e acrescentar texto a essa foto – da mesma forma com que se aponta para alguma coisa quando quer fazer uma pergunta sobre o que está vendo.
O Multisearch já está disponível globalmente em inglês, e ao longo dos próximos meses será lançado em mais de 70 idiomas, incluindo em português-Brasil.
Como funciona: No aplicativo do Google, você pode tirar uma foto ou usar uma captura de tela e adicionar texto à imagem, assim como você pode apontar a câmera para algo e fazer uma pergunta sobre isso, de forma intuitiva e natural.
Outra funcionalidade de Multisearch anunciada no Search On foi o perto de mim. No aplicativo do Google, será possível tirar uma foto ou uma captura de tela e adicionar perto de mim para encontrar seu prato favorito ou um produto de fornecedores locais. O recurso estará disponível nos Estados Unidos ainda este ano.
Uma das características mais potentes de compreender o mundo visualmente é romper as barreiras dos idiomas. O Lens já ultrapassou a etapa de traduzir textos – e hoje é capaz de traduzir imagens. Todos os meses as pessoas usam o Google para traduzir mais de um bilhão de textos que estão sobrepostos a imagens, em mais de 100 línguas diferentes.
Grandes avanços na tecnologia de aprendizado de máquina permitem misturar textos traduzidos a imagens complexas, com um resultado tão natural que parece quase imperceptível.
Por meio do Tradutor com o Lens, ao invés de cobrir o texto original, ele passa a ser apagado. Os pixels são recriados sobre um fundo gerado por inteligência artificial (IA), e o texto traduzido é sobreposto à imagem.
O Google informou no Search On que otimizou os modelos de aprendizado de máquina e agora faz todo esse processo em apenas 100 milissegundos – menos que um piscar de olhos. Essa experiência aprimorada será lançada globalmente até o final do ano.
O recurso neighborhood vibe (atmosfera da vizinhança, em tradução livre) permite escolher um bairro e conhecer seus pontos mais populares, como se a pessoa estivesse lá, por meio de fotos e informações úteis compartilhadas no próprio mapa por integrantes da comunidade Google Maps.
Para fazer isso, o Google combinou a inteligência artificial aos conhecimentos locais de usuários do Maps que contribuem diariamente com mais de vinte milhões de avaliações, fotos e vídeos. Essa experiência visual começará a ser lançada globalmente para Android e iOS nos próximos meses
A plataforma está introduzindo novas experiências de pesquisa que refletem melhor como as pessoas exploram as informações naturalmente, começando por tornar mais fácil fazer perguntas.
No Search On, a empresa informou que, à medida que você começa a digitar na caixa de pesquisa, a Busca fornece opções de palavras-chave ou tópicos para ajudar a elaborar a pergunta. Se a pessoa estiver procurando um destino no México, a Busca o ajuda a especificar a pergunta – por exemplo, melhores cidades no México para famílias – para que a pessoa possa obter resultados os mais relevantes para ela. O lançamento do recurso será feito nos EUA, em inglês, nos próximos meses.
Agora ficou mais fácil explorar um assunto destacando as informações mais relevantes e úteis – incluindo conteúdo de criadores da internet. Para temas como cidades, será possível vídeos curtos de pessoas que já estiveram naquele lugar, além de dicas sobre como conhecer o local, atividades, como chegar lá e outras informações que ajudam na etapa de planejamento da viagem.
Tudo isso será lançado em inglês, nos Estados Unidos, ao longo dos próximos meses.
No Search On, o Google informou que aproveitou os recursos mais avançados de visão por computador e modelos preditivos para dar uma turbinada nos mapas 2D. Eles estão ainda mais visuais e imersivos, e permitem entrar nos lugares de forma multidimensional. Com isso, a gente se sente como se estivesse lá, mesmo não estando.
Confira 250 panoramas aéreos foto-realistas de grandes marcos globais, como a Torre de Tóquio ou a Acrópole grega, sem sair do Google Maps. Essa novidade é um grande avanço rumo a mapas cada vez mais imersivos, e está sendo lançada hoje em todo o mundo.
A visão imersiva ajuda as pessoas a se planejar com antecedência e entender a fundo várias cidades. Ela combina belíssimos panoramas aéreos a informações sobre tempo e temperatura, trânsito e lotação de pessoas em diferentes horários e dias da semana.
O novo recurso, anunciado no Search On, será lançado ao longo dos próximos meses em Los Angeles, Londres, Nova York, São Francisco e Tóquio.
O recurso Busca em Live View permite fazer pesquisas de um jeito totalmente inédito. Basta apontar a câmera do celular para encontrar lugares essenciais como lojas, caixas eletrônicos e restaurantes. Tudo isso enquanto você está em movimento.
A novidade será lançada ao longo dos próximos meses em Londres, Nova York, Paris, São Francisco e Tóquio.
No Search On, o Google anunciou novos produtos e ferramentas que vão facilitar ainda mais a vida de quem quer comprar o que precisa e descobrir produtos. Entre elas estão novos recursos visuais na Busca – que ajudam a inspirar o usuário –, além de ferramentas para tomar a melhor decisão no caso de compras complexas e atualizações que garantem uma experiência sob medida.