.
O Google está trazendo tecnologia de IA generativa para compras, com o objetivo de dar um salto em sites de comércio eletrônico como Amazon.com.
A empresa de propriedade da Alphabet anunciou na quarta-feira recursos destinados a ajudar as pessoas a entender como as roupas se encaixam nelas, independentemente do tamanho do corpo, e recursos adicionais para encontrar produtos usando sua tecnologia de busca e reconhecimento de imagem. Além disso, o Google introduziu novas maneiras de pesquisar destinos de viagem e mapear rotas usando IA generativa – tecnologia que pode criar texto, imagens ou até mesmo vídeo a partir de solicitações simples.
“Queremos fazer do Google o lugar para os consumidores fazerem compras, bem como o lugar para os comerciantes se conectarem com os consumidores”, disse Maria Renz, vice-presidente de comércio do Google, em entrevista antes do anúncio. “Sempre estivemos comprometidos com um ecossistema aberto e uma web saudável, e essa é uma maneira de trazer essa tecnologia para os comerciantes.”
O Google é o mecanismo de busca dominante no mundo, mas 46% dos entrevistados em uma pesquisa com consumidores norte-americanos realizada no ano passado disseram que ainda iniciaram suas buscas e pesquisas de produtos na Amazon, de acordo com a empresa de pesquisa CivicScience. O TikTok também está fazendo incursões, descobriu a pesquisa da CivicScience – 18% dos compradores online da Geração Z recorrem primeiro à plataforma. O Google está prestando atenção, com alguns de seus novos recursos de exploração de compras com inteligência artificial, destinados a atrair o público mais jovem.
Um novo recurso virtual de “experimentação”, lançado na quarta-feira, permitirá que as pessoas vejam como as roupas se ajustam em vários tipos de corpo, de tamanhos XXS a 4XL. O vestuário será sobreposto a imagens de diversos modelos que a empresa fotografou enquanto desenvolvia o recurso.
O Google disse que foi capaz de lançar tal serviço por causa de um novo modelo de IA baseado em imagem que desenvolveu internamente, e a empresa está lançando um novo trabalho de pesquisa detalhando seu trabalho junto com o anúncio. As representações das roupas levam em consideração a maneira como o tecido estica e enruga conforme é usado para produzir imagens realistas. O recurso de experimentação começará com tops femininos, em parceria com varejistas como Anthropologie e Everlane, seguido por roupas masculinas posteriormente.
A empresa também disse que começará a obter mais fontes de informação à medida que as pessoas testarem sua nova “experiência geradora de busca” – um serviço que o Google anunciou pela primeira vez em sua conferência de desenvolvedores de I/O no mês passado. Por enquanto, essa oferta está disponível apenas por meio do produto experimental Search Labs da empresa.
O Google anunciou anteriormente que estava usando uma variedade de fontes baseadas na web para exibir informações geradas por IA sobre, digamos, o melhor hotel para famílias em um determinado destino de férias ou o melhor alto-falante Bluetooth à prova d’água. Agora, também está adicionando análises de usuários para que seu modelo de IA também se baseie.
A empresa também está lançando novas adições aos recursos existentes no Google Maps. A visão imersiva, que usa IA para mostrar às pessoas passeios em 3D de pontos de referência, está sendo lançada em quatro novas cidades: Amsterdã e Dublin, bem como Florença e Veneza, na Itália. O Google está expandindo sua coleção de pontos de referência disponíveis em visualização imersiva para mais de 500 – nos aplicativos iOS e Android – adicionando destinos como a Sydney Harbour Bridge e o Castelo de Praga.
Direções visualizáveis, por sua vez, permitirão que as pessoas vejam instruções passo a passo para os modos de caminhada, ciclismo e direção nas telas de bloqueio do telefone. O Google disse que as pessoas também poderão ver os ETAs atualizados enquanto seguem suas rotas em tempo real. Esse recurso será lançado globalmente em junho.
Alguns recursos de IA no Google Lens – o aplicativo de reconhecimento de imagem que usa uma câmera de telefone para identificar objetos e texto – já existem há algum tempo, como descobrir o nome de um prato local tirando uma foto dele durante uma viagem. Mas na quarta-feira, o Google disse que está lançando a capacidade de os usuários procurarem condições de pele usando o aplicativo.
Depois que um usuário tira uma foto de uma erupção cutânea ou inchaço na pele, o Lens encontra correspondências visuais para a imagem que podem ajudar a informar as pesquisas das pessoas, disse a empresa. O recurso deve ser um ponto de partida para pesquisas, não para aconselhamento médico certificado, disse o Google.
© 2023 Bloomberg LP
.