Google lijkt van plan te zijn om iets speciaals te doen voor mensen die vanaf het homescherm van hun Pixel een liedje zoeken. Je kunt via de Google-widget bijvoorbeeld een nummer laten luisteren of zelf neuriën en dan kan Google als Shazam vertellen welk liedje het is. Nu gaat het er ook bij terugpraten.

Lees verder na de advertentie.
Pratende zoekresultaten
Dat is tenminste wat uit de code kan worden opgemaakt. De mensen van AndroidAuthority ontdekten dit. Het zou niet alleen voorkomen bij het zoeken van liedjes. Ook als je zelf een gewone zoekopdracht doet met je stem, dan lijkt het erop dat Google van plan is dan ook hardop terug te praten.
Lees verder na de advertentie.
In de 16.50.55.ve.arm64 betaversie van de Google-app werd gespot dat er duidelijk gewerkt wordt aan een Google die wat meer hardop terugkoppeling geeft. Als je nu een spraak-zoekopdracht doet, dan krijg je tekst terug, maar straks zou dat dus zomaar ook kunnen gebeuren in een computerstem die tegen je praat. Je ziet wel nog steeds de originele tekst in beeld als altijd, maar er wordt dan dus ook gesproken.
Google leest daarbij waarschijnlijk niet letterlijk de tekst op, maar kan dankzij AI een soort eigen analyse erop loslaten. Waarschijnlijk werkt het hetzelfde als bij de podcast die je kunt laten maken van je document in NotebookLM. Daar zien we ook dat de AI-stemmen op heel natuurlijke wijze een heel gesprek hebben over de content, en daar ook een soort eigen inbreng bij lijken te doen. Het is dus niet opgelezen, want daar zijn immers ook andere oplossingen voor binnen Android.
Lees verder na de advertentie.
Er schijnt bij deze functie ook een nieuwe soort zwevende laag te komen kijken waarmee de functie interactiever moet worden. Hoe dat echter in zijn werk gaat is nog afwachten, zeker omdat deze functie nog niet af is en dus mogelijk nog aan wijzigingen onderhevig is. Gebruik jij de spraakfuncties veel, of werk jij toch liever tekstgebaseerd?