Google vil bruke AI til å gi deg nyheter via smarthøyttaleren din

null

I gamle dager (før internett) var det vanlig for de aller fleste å oppdatere seg på nye begivenheter ved å stå opp og høre på radioen.

Dette hadde imidlertid noen ulemper. I tillegg til radiostasjonens forutinntatte oppfatninger, kunne du heller ikke velge hva slags nyheter du ville eksponeres for til daglig, og du var dessuten bundet opp av stasjonens tidsskjema.

Nå er morgennyhetene i ferd med å bli langt bedre tilpasset deg, i kjølvannet av kunngjøringen om at Google-styrte smarthøyttalere vil benytte seg av den «kunstige intellligensen til Google News» for å «gi deg en helt oppdatert spilleliste med nyheter, tilpasset deg».

Google har også sluppet en video i forbindelse med kunngjøringen, der de demonstrerer sine tanker om hvordan fremtiden for lydbaserte nyheter kan bli.

Søkegiganten samarbeider i denne sammenhengen med flere nyhetsleverandører over hele verden, blant andre The Associated Press, The Hollywood Reporter, The New York Times og The Washington Post, og har utviklet en åpent spesifisert prototype i forsøket på å kunne involvere flere nyhetsleverandører i prosjektet

Google håper at dette vil gi brukerne adgang til nyheter som er fullstendig individuelt skreddersydde.

«Det begynner med et sammendrag av de viktigste nyhetene, samt oppdateringer om emner du er interessert i, før sendingen utvides med mer dyptpløyende innhold», heter det i Googles offisielle kunngjøring. Videre står det at «du når som helst i løpet av dagen kan høre siste nytt som en god start på dagen, mens du reise til jobb, eller på joggetur. Da vil Google Assistant oppdatere deg på de siste hendelsene, samt følge opp dem du allerede har hørt på».

Ifølge kunngjøringen skal lytterne kunne styre sendingene ved bruk av stemmen, slik at de kan hoppe over nyhetsoppdateringer de ikke er interessert eller høre noen på nytt om de ønsker det. 

For øyeblikket planlegger man å gjøre Audio News tilgjengelig for enkelte engelsktalende Google Assistant-brukere i USA, og vi kan regne med at funksjonen blir rullet ut til flere på et senere tidspunkt. Det er imidlertid ikke kjent når dette vil bli tilgjengelig på norsk.