Steeds meer maken mensen gebruik van spraakgestuurde interactie met toestellen. Denk aan Siri en Google Now, maar ook aan de slimme luidsprekers zoals Amazon Echo en Google Home. Een interactie die ook bevelen uitvoert, zoals dingen bestellen, informatie opvragen, muziek beluisteren, enz. Steeds meer mediabedrijven en merken spelen al een tijdje hierop in en creëren functies die inhaken op de slimme assistenten die in de luidsprekers en smartphones zitten, met name Alexa van Amazon, Assistant van Google, Siri van Apple, Cortana van Windows.
Tot nu werd eigenlijk niet echt gemeten hoeveel van die interacties gebeurden. Adobe wil daar nu verandering in brengen en voegt Voice Analytics toe aan zijn Adobe Analytics Cloud. Daarbij maakt Adobe gebruik van Sensei, zijn eigen AI en machine learning dienst. Zo zal het trends kunnen opsporen in de massale datasets die heen en weer vliegen bij de digitale assistenten. Bedrijven die dan functies maken voor de assistenten (skills of vaardigheden genoemd) zullen dan zo een zicht krijgen van de performantie van hun skill op verschillende toestellen, platformen, en hoe dit vergeleken kan worden met andere interacties.
Een interessant achtergrondartikel hierover bij Adweek.
http://www.adweek.com/digital/adobe-is-launching-ai-powered- ...
|