Concrete Logo
Hamburger button

O Google está construindo o seu maior app, e você vai ajudá-lo!

  • Blog
  • 24 de Junho de 2015
Share

Como já falamos por aqui, há algumas semanas o Google realizou o Google I/O 2015, conferência na qual a empresa costuma apresentar as novidades e alguns resultados. O Rafael Toledo fez um resumo do que aconteceu aqui e o Rafael Auday falou sobre o evento no Brasil. Em geral, pudemos perceber que o I/O vem ganhando maturidade nos últimos anos. É notável a melhoria de qualidade nas apresentações de 2015 em relação aos anos anteriores.

Dentre os diversos anúncios do keynote de duas horas, o Google construiu uma narrativa bem interessante que joga luz sobre os objetivos que a empresa vai almejar nos próximos anos. A missão geral do Google permanece a mesma: “organizar as informações do mundo e torná-las mundialmente acessíveis e úteis”, mas enquanto a empresa é teimosa em manter o seu objetivo, ela costuma ser bem flexível nos detalhes para atingi-lo.

Google I/O 2015 - Foto de TechCrunch

Google I/O 2015 – Foto de TechCrunch

Uma das novidades anunciadas foi a expansão dos serviços relacionados ao Google Now. O Google sempre se posicionou no mercado (inclusive apareceu assim) considerando sua proeza no desenvolvimento de software. E não é qualquer tipo de software, como ferramentas de produtividade no ambiente de trabalho e o Microsoft Office por exemplo, mas softwares em categorias notoriamente complexas. Indexar semanticamente boa parte do conteúdo visível da internet não é uma tarefa simples de fazer. Lidar com petabytes de informações e manipulá-las de forma objetiva e rápida também não é um problema fácil de se resolver. Com o passar do tempo o Google conseguiu cooptar algumas das mentes mais brilhantes do mundo para conseguir atingir seu objetivo.

E tudo isso parece ter culminado, entre outras coisas, nas recentes atualizações do Google Now. Além de suportar mais línguas e conseguir responder perguntas cada vez mais complexas, também foi anunciado nesse I/O um novo conjunto APIs, chamado de Assist API. O objetivo principal dessas APIs é fazer com que um aplicativo possa fornecer informações de contexto para o Google Now. Vamos ver alguns exemplos:

1. Trocando mensagens com um amigo

googlenow-ft-1024x644

O caso de uso é: você recebe um SMS de um amigo te chamando para jantar. O amigo responde: “Que tal mexicano?” e você sugere: “Que tal o Reposado?”

Neste momento, ao chamar a assist API, o aplicativo de SMS alimentou o Google Now de informação contextual retirada das mensagens trocadas o suficiente: jantar, restaurante, comida mexicana, Reposado. Ao clicar e segurar o botão de home, a “bolinha” no centro da parte mais baixa da tela dos Androids mais recentes, o Google Now sugere indicações, telefones, reviews, deeplinks para o app do Yelp e integração com o OpenTable para fazer reservas, por exemplo.

cf94caf8a630c6b95b12f256c56cab66d196f1ae0bb4bae189a5af05e7cd510b2. Ouvindo música, você se pergunta: quem é o vocalista dessa banda mesmo?

spotify-final1-1024x651

De novo, o aplicativo do Spotify alimentou o Google Now de informação contextual sobre o artista, a faixa, o álbum e o estilo musical, o suficiente para que o aplicativo seja útil e entenda o que o usuário do Android está fazendo nesse momento.

Contexto, contexto, contexto… e muito aprendizado de máquina

A ideia é que o próximo problema de mobile seja relacionado a contexto. Eu entro no carro e tenho um compromisso na minha agenda em 30 minutos, cujo endereço está propriamente especificado. Por que é que eu tenho que abrir o Waze para juntar as peças? Por que o meu contexto não é subentendido e a melhor solução não é oferecida, como um bom assistente faria?

Contexto AndroidPIT

O Google tem falado muito sobre micro-moments e seu contexto, o mais expressivo no mundo mobile. O conceito é extremamente poderoso e sugere que as pessoas pensem em quais tipos de momentos, quando e como você engaja com o seu celular. Você abriu o seu celular para saber se uma compra vale a pena? Ou é em um momento no qual você quer saber como fazer alguma coisa? Ou você precisa de apoio para tomar uma decisão maior na sua vida?

Seguindo essa filosofia, o Google ampliou o Google Now por meio do “Now on Tap” para permitir que os aplicativos também consigam explicitar contexto enquanto são usados. Na prática, quem melhor para criar automaticamente uma playlist romântica do que o app do Spotify? Ou o Waze para sugerir uma parada em um café no caminho de casa para esperar o trânsito passar? Ou um app de futebol para me dizer quando é o próximo jogo do Corinthians? Todas as respostas para essas perguntas dependem de contexto, e os dados necessários para realmente construir um contexto geral do usuário não eram acessíveis pelo Google Now… até agora.

Now on Tap - Foto de Android Police

Now on Tap – Foto de Android Police

Nós, desenvolvedores de apps e usuários, alimentaremos o Google Now de informações contextuais porque: a) é extremamente útil, b) não possuímos individualmente a capacidade de processamento e aprendizado de máquina para atender essa necessidade.

Nesse sentido, o Google está a caminho de construir o “maior app” de todos os tempos. Quanto mais contexto um aplicativo de e-commerce oferecer ao Now on Tap, melhor vai ficar a resposta do Google Now quando eu perguntar “o que eu devo usar hoje à noite para essa festa?”. Ou quando ele me sugerir a comprar de novos sapatos porque o meu último par foi comprado há um ano. Um app para interligar todos os outros por meio de contexto, um app para sintetizar a experiência do usuário, um app para, talvez, acabar com todos os outros apps.

Multiplataforma? Ou a pergunta é “o que é a plataforma”?

Estamos em uma fase em que a interação com dispositivos, a internet e outras pessoas está mudando rapidamente. Estamos passando de desktops para smartphones com telas pequenas, para tablets e depois para smartphones com telas maiores e agora relógios, casas e carros. É muito provável que em poucos anos o Android se torne apenas uma camada de integração entre vários dispositivos, e nem todos eles vão usar touch-screen, teclado ou outras formas mais atuais de interações.

No contexto de uma casa automatizada, o comando por voz com certeza passa a ser uma ótima opção de interface com o usuário, bem como no contexto de um carro inteligente. Nesse sentido, conforme o Google corre para cada vez mais indexar as informações dentro do aplicativo, fica cada vez mais clara a estratégia da empresa.

No último Google I/O, a empresa ainda anunciou que vai disponibilizar para a plataforma iOS os seus serviços (que antes só existiam no Android), e disponibilizar o Google Photos gratuita e ilimitadamente para iOS e Android.

Fotos GizModo

Google Fotos – foto de GizModo

Além disso, tudo o que foi falado durante o evento posicionava o Google como uma empresa de Machine Learning, o que significa que cada vez mais seus serviços independem do hardware ou do sistema operacional em si. O Google vai disponibilizar alguma forma do “Now on Tap” para iOS. Mesmo que não seja nos próximos meses, ele eventualmente vai. A estratégia competitiva entre iOS e Android não é mais a mesma que há alguns anos: a Apple cada vez mais se personaliza e foca em uma experiência integrada, enquanto o Google cada vez mais se apropria, indexa e categoriza as informações do mundo e as suas.

São estratégias não conflitantes: o Google essencialmente está movendo a inovação em direção à nuvem e à camada de aprendizado de máquina, e a Apple continua mantendo o foco na personalização e na sua melhor experiência com o device.

deep_neural_network

Concorda, discorda? Deixe sua opinião abaixo!