Google

Компания Loup Ventures продолжает серию ежегодных соревнований голосовых ассистентов от Apple, Google и Amazon. Эксперты задавали каждому из решений по 800 вопросов из разных категорий и фиксировали количество распознанных фраз, правильных ответов и пропущенных запросов. Затем результаты тестирования свели в одну таблицу и сравнили.

Вопросы основаны на пяти категориях, каждая из которых направлена на «всестороннее тестирование способностей цифрового помощника»:
Местные. Например, где ближайшая кофейня?
Покупки. Например, где мне заказать бумажные полотенца?
Навигация. Например, как добраться до работы на автобусе?
Информация. Например, играет ли Спартак на этой неделе? 
Команда. Например, напомни мне позвонить маме сегодня в обед.
Так, первое место занял помощник от Google: Assistent распознал 100% вопросов и команд, на 92.9% из которых смог дать правильный ответ или выполнить поставленную задачу. В прошлом году в аналогичном тестировании ассистент понял 99% запросов и смог ответить на 85.5% из них.



На втором месте Siri. Помощник Apple распознал 99.8% команд исследователей против 99% годом ранее. В правильности ответов у Siri тоже прогресс: если в прошлом году ассистент справлялся с 78.5% запросов, то сейчас это уже 83.1%. Хуже всех с задачей справилась Alexa от Amazon: из 99.9% распознанных фраз только на 79.8% был предоставлен ответ ассистента.

Тест проводили как на iPhone, так и на Android: Siri был протестирован на iPhone под управлением iOS 12.4, Google Assistant на Pixel 3 XL, а Alexa — в виде приложения для iOS. По словам исследователей, Siri лучше всего справлялась с командами, местными и навигационными запросами, но практически бесполезна в категориях информации и покупок. Google Assistant отличился во всех категориях.



iGuides в Telegram — t.me/igmedia
iGuides в Яндекс.Дзен — zen.yandex.ru/iguides.ru



Источник:

MacRumors MacRumors