Loup Ventures testa alto-falantes inteligentes e assistentes digitais todos os anos para ter uma ideia de seus usos práticos e ver quem obtém a pontuação mais alta. Os testes deste ano foram concluídos e os resultados chegaram. Mais uma vez, o Google Assistant obteve a pontuação mais alta, seguido, em ordem de maior para menor, de Siri, Alexa e Cortana.
A prova consiste em 800 questões em cinco categorias: conhecimento local, comércio, navegação, informação e comandos. Cada alto-falante inteligente possui duas pontuações: o número de perguntas compreendidas corretamente e o número de respostas corretas.
Vídeos recomendados
A tabela abaixo resume os resultados dos testes deste ano para alto-falantes inteligentes. A Loup Ventures diferencia entre testar assistentes digitais em alto-falantes inteligentes e em smartphones. Google Assistente sobre Android telefones e Siri em iPhones podem ter pontuações relativas diferentes dos mesmos assistentes em alto-falantes inteligentes.
Relacionado
- Esta atualização tornaria todas as nossas casas ainda mais inteligentes
- Alto-falante inteligente ou display inteligente: qual você deve comprar?
- Amazon Echo ainda é o rei entre os alto-falantes inteligentes, apesar do declínio da participação no mercado dos EUA
Alto-falante inteligente, Assistente de voz |
Respondido corretamente | Entendeu a pergunta |
Página inicial do Google, Google Assistente |
87.9% | 100% |
AppleHomePod, Siri |
74.6% | 99.6% |
Amazon Echo (2ª geração), Alexa |
72.5% | 99% |
Invocação de Harman Kardon, Microsoft Cortana |
63.4% | 99.4% |
Embora Página inicial do Google entendeu todas as 800 questões do teste, os outros alto-falantes inteligentes não ficaram muito atrás. O InícioPod apenas entendeu mal três perguntas, e o Invocar e Eco entendeu mal cinco e oito questões, respectivamente. A Loup Ventures observou que a maioria das poucas perguntas mal compreendidas continha nomes próprios, como cidades ou restaurantes. Do ponto de vista da compreensão das perguntas, portanto, você pode presumir com segurança que esses alto-falantes inteligentes entenderão praticamente tudo o que você perguntar ou disser a eles.
As pontuações dos alto-falantes inteligentes em dar respostas corretas variaram significativamente. Uma área que atraiu o interesse particular dos testadores foi a forma como os alto-falantes inteligentes responderam às perguntas relacionadas ao comércio.
Loup Ventures observou que embora “a sabedoria convencional sugira Alexa dominaria, o Google Assistant responde corretamente a mais perguntas sobre informações do produto e onde comprar determinados itens do que o Alexa da Amazon, que tendia a oferecer itens para compra.
Para deixar claro, os testadores deram o seguinte exemplo do teste.
- Pergunta: “Quanto custaria uma manicure?”
- Alexa: “O principal resultado de pesquisa para manicure é Beurer Electric Manicure & Pedicure Kit. Custa US $ 59 na Amazon. Quer comprar?
- Assistente Google: “Em média, uma manicure básica custa cerca de US$ 20. No entanto, tipos especiais de manicure, como acrílico, gel, goma-laca e sem chip, variam de US$ 20 a US$ 50, dependendo do salão.
Loup Ventures também observou que porque o Apple HomePod e Página inicial do Google cada um tem dados de mapas proprietários, seu desempenho em questões sobre tópicos locais e navegação ficou “cabeça e ombros acima dos outros”.
Recomendações dos Editores
- Especialistas alertam que assistentes de IA estão prejudicando o desenvolvimento social das crianças
- Sua IA assistente inteligente poderá um dia dizer se você está sozinho
- Siri e Google Assistant dizem que agora apoiam Black Lives Matter
- Os resultados estão em: Alexa é legitimamente mais burra que Siri e Google Assistant
- O novo campus da Apple em Seattle pode significar grandes coisas para Siri, inteligência artificial
Atualize seu estilo de vidaDigital Trends ajuda os leitores a manter o controle sobre o mundo acelerado da tecnologia com as últimas notícias, análises divertidas de produtos, editoriais criteriosos e prévias únicas.