Live blogg: Google I/O 2018 leverer fremtiden til Android og mer
Google I/O 2018 starter om mindre enn en time.
Det er mye å se frem til i år, inkludert en oppdatering på Android P og forhåndsvisninger av det som kommer for Chrome, Google Assistant, Android Auto og mer. Det nylig ommerkede Wear OS kan også få trengt oppmerksomhet.
Google live-streaming sin store keynote, som starter klokken 10.00 Stillehavet. Hvis du ikke kan stille inn, følg vår liveblogg nedenfor for å holde deg oppdatert på alt som skjer i Mountain View.
Vi har allerede skissert fem store ting vi forventer av årets I/O -keynote - men det vil være mange overraskelser i vente. Og det er verdt å følge med selv om du ikke er fan av Android; tingene Google avduker i dag, kan forme fremtiden til smarttelefoner, wearables og mer!
Bli med oss i livebloggen nedenfor, slik at du ikke går glipp av det!
"Fortsett å bygge gode ting for alle," er Jen Fitzpatricks avskjedsord til hovedpersonen i Google I/O 2018.
Foreløpig melder vi oss av. Takk for at du ble med oss!
Det er imidlertid verdt å huske at I/O er et to-dagers arrangement. Selv om disse tingene ikke ble nevnt under keynoten, har Google planlagt hendelser for dem, så vi vil sannsynligvis høre om interessante nye utviklinger i løpet av de neste 48 timene.
Jeg er ikke sikker på hvordan jeg føler om det. Det var absolutt interessant, men mange store Google -plattformer fikk nesen presset ut.
Hva skjedde med Chrome OS?
Det handlet egentlig om AI og maskinlæring.
Det ble ikke nevnt Wear OS, Android Auto, Android Things eller mange andre ting som fansen forventet å se.
Og det er det for i år!
I/O tar slutt nå.
For de fleste av oss virker selvkjørende biler fortsatt som en futuristisk drøm som ikke vil bli en realitet på lenge. Men når du ser hva Google gjør med Waymo, ser det ut til at teknologien allerede er spikret perfekt.
Dolgov forklarer nå hvordan Waymo takler det under snøstormer når det er enda vanskeligere å oppdage gjenstander fra den virkelige verden.
Waymo kan til og med forutsi når biler kommer til å kjøre rødt lys ved å spore hastigheten når de nærmer seg et veikryss. Den kan deretter senke farten for å sikre at den ikke treffer bilen når du krysser den.
Denne tweeten oppsummerer absolutt I/O så langt:
Alex Kantrowitz
@Kantrowitz
Google #io2018 tl; dr: AI, AI, AI, AI, Machine Learning, AI, AI, AI, takk for at du kom!
12
2
Waymo oppdager gjenstander i den virkelige verden, som mennesker, trær og andre biler, uavhengig av form eller størrelse. Den kan identifisere mennesker som er hindret av andre gjenstander, og til og med de kledd i oppblåsbare dinosaurdrakter.
Vi hører om hvordan Waymo bruker kunstig intelligens for å gjøre selvkjøring trygg.
Dmitri Dolgov er opp til å snakke mer om Waymo.
Google planlegger å samarbeide "med mange forskjellige selskaper" for å gjøre sin selvkjørende bildrøm tilgjengelig for alle rundt om i verden.
Og uten søksmålene!
Det er i utgangspunktet Uber uten sjåfør.
Phoenix er første stopp for Waymos selvkjørende biltjeneste, som lanseres senere i år.
Det er bare noe ubehagelig med det tomme førersetet i alle disse Waymo -demo -videoene. Jeg antar vi blir vant til det. Etter hvert.
En av dem, for redd for å lære å kjøre bil etter å ha vært involvert i en alvorlig ulykke som barn, tar nå en Waymo på jobb hver dag.
I Arizona nyter folk allerede selvkjørende Waymo-biler som ikke krever noen i førersetet.
Krafcik snakker om hvordan Google jobber med å gjøre selvkjørende biler tryggere og mer tilgjengelige.
John Krafcik, administrerende direktør i Waymo, skal nå snakke om selvkjørende biler.
Alle disse funksjonene kommer til Lens "i løpet av de neste ukene."
Google jobber også med å få Lens til å fungere i sanntid. Så i stedet for å måtte ta et bilde av et element du vil identifisere, vil Lens gjøre det i sanntid mens du flytter kameraet rundt.
Pynter du leiligheten din eller prøver å sette sammen det perfekte antrekket? Pek linsen mot et objekt, som en lampe eller en genser, så finner du andre ting som matcher stilen.
Pek linsen på en restaurantmeny, trykk på rettene, og Google -assistenten vil fortelle deg hva disse rettene er.
Dette er vanvittige ting.
Du kan rette Lens mot et fysisk dokument og kopiere og lime inn tekst!
Linsen kan nå gjenkjenne og forstå ord.
Det får også nye funksjoner som gir deg "flere svar på flere spørsmål."
Google Lens blir integrert i kameraappen på Pixel og tredjeparts telefoner fra og med neste uke.
Dette er løftet om augmented reality som Tim Cook har kranglet om. Google får det til.
Google legger også til VPS - det visuelle posisjoneringssystemet - som bruker landemerker, butikkvinduer og andre funksjoner i miljøet for å hjelpe deg med å finne ut nøyaktig hvor du er.
Du kan nå holde telefonen opp mot verden foran deg, og Maps vil legge veibeskrivelser som gjør det lettere å finne rundt i nye byer.
OMG hvis de løser problemet "hvilken vei går jeg", er jeg solgt.
Aparna Chennaparagada er ved siden av for å snakke om hvordan Maps forbedres med kameraintegrasjon.
Med kart kan du også lage kortlister over steder du kan besøke ved å trykke lenge på søkeresultatene. Du kan deretter dele disse listene med venner, slik at du alle kan bestemme hvor du skal dra.
Google tilbyr til og med poeng for hver anbefaling ved å bruke maskinlæring for å gjenkjenne stedene du kommer til å like mest. Den nye Your Match hjelper deg med å forstå alle de 4,6-stjerners restaurantanmeldelsene. Hvis dette fungerer, er Yelp litt ødelagt.
En ny "For deg" -fanen forteller deg hva du trenger å vite, holder deg oppdatert om nye steder som åpnes, og tilbyr personlige anbefalinger på steder du besøker.
En oppdatert versjon av Google Maps holder deg oppdatert om hva som er nytt og endrer seg på områdene du bryr deg om.
Brukere ber om mer fra tjenesten. De vil også vite hva som skjer rundt dem, og hva lokalbefolkningen liker i nabolaget.
Akkurat nå har Google bare skrapet overflaten av hva Maps kan gjøre, legger Fitzpatrick til.
"Kart ble bygget for å hjelpe alle, uansett hvor de er i verden," sier Fizpatrick. Det har gitt milliarder av mennesker tillit til å reise verden rundt uten å bekymre seg for å gå seg vill.
Jen Fitzpatrick skal vise oss mer.
Google viser oss en video av hvordan Maps hjelper mennesker rundt om i verden. Mange av dem bruker Maps på en iPhone.
Vi går over til Google Maps nå.
Android P Beta er tilgjengelig på Google Pixel og utvalgte flaggskipsenheter fra syv tredjepartsprodusenter, inkludert OnePlus og Nokia. (Må suge hvis telefonen din er laget av noen hvis logo ikke er på den skjermen.)
For å prøve dem tidlig, kan du registrere deg for Android P Beta.
Disse funksjonene vil selvfølgelig være tilgjengelige på Google Pixel -enheter først. Andre Android -telefoner får dem... når produsentene bestemmer seg for å legge dem til. Hvis i det hele tatt.
Wind Down -modus er som en helt chill mann. Skjermen på Android-telefonen din blir grå, så det er ingen av den iøynefallende fargen som holder deg engasjert.
Android P legger også til "Stjernemerkede kontakter", som lar deg spesifisere hvilke personer som kan kontakte deg - med varsler - selv når Ikke forstyrr er aktivert.
Ikke forstyrr -modus får en ny gest kalt "Shush." Når du snur telefonen og legger den med forsiden ned, blir Ikke forstyrr aktivert automatisk.
Android P kan også gi deg kontroll over hvordan du bruker apper. For eksempel, hvis du bestemmer deg for at du bruker Facebook for mye, kan du angi hvor lang tid du vil bruke det til, og Android vil gi deg beskjed når du går tom.
Utviklere kan også bruke dette dashbordet til å vise deg hvordan du bruker funksjoner i appene sine.
Android P hjelper deg med å gjøre dette ved å vise deg hvordan du bruker telefonen. Dashbordet viser deg nøyaktig hvor mye tid du har brukt inne i hver app, hvor mye tid du har brukt på å bruke bestemte funksjoner og mer.
"Å hjelpe mennesker med sitt digitale velvære er viktigere for oss enn noensinne," sier Samat. Over 70 prosent av menneskene ønsker hjelp til å finne en balanse mellom å bruke telefonen og nyte det virkelige livet.
Sameer Samat skal nå fortelle oss mer om hvordan Android P håper å forbedre vårt digitale velvære.
Google forenkler også varsler.
Android P forenkler også volumkontrollene. De er vertikale nå, og de vises på siden av skjermen. Medievolumet kontrolleres som standard - over varselvolum - fordi det er det vi endrer oftere.
De nye bevegelsene ser faktisk litt ut som iPhone X -bevegelsene - men faktisk ser de litt bedre ut (eller i det minste mer involvert). Det er flere av dem, til å begynne med. Her kommer læringskurven for mangeårige Android -fans.
Det ligner mye på appbryteren på iPhone.
Sveipen kan brukes hvor som helst i Android-selv i tredjepartsapper-og du kan skyve knappen til siden for å bla gjennom de siste appene dine.
Som på iPhone X kan du sveipe opp for å se de siste appene. Android P tilbyr også snarveier til vanlige apper og en Google-søkefelt.
Android P får også en ny systemnavigasjon!
Google ønsker å gjøre maskinlæring enklere å implementere i tredjepartsapper, så det lanserer ML Kit. Dette er i utgangspunktet Googles versjon av Apples CoreML; det lar utviklere integrere maskinlæring i appene sine enklere enn noen gang før.
I motsetning til CoreML fungerer ML Kit på tvers av plattformer, slik at utviklere kan bruke det i både Android -appene og iOS -appene sine.
Med Google Assistant "Slices" ser du mer i søkeresultatene.
Så, i Android P, sammen med appspådommene du ser øverst i appskuffen, ser du handlinger som gjør mer. For eksempel kan du se en handling som lar deg bestille kinobilletter gjennom Fandango på bare noen få trykk.
Apphandlinger fungerer på tvers av første- og tredjepartsapper, og de kan enkelt støttes av utviklere, sier Burke.
Android P kan forutsi handlinger så vel som apper nå. De er basert på bruksmønstrene dine for å hjelpe deg med å gjøre det du vil raskere og enklere.
Android P klarer også automatisk lysstyrke bedre. Adaptive Brightness bruker maskinlæring for å ta hensyn til dine personlige preferanser og omgivende lyn rundt deg for å bestemme lysstyrken for deg.
En ny Android P-funksjon, Adaptive Battery, bruker maskinlæring på enheten for å maksimere batterilevetiden. Den forutsier hvilke apper og tjenester du vil bruke - og hvilke du ikke vil - for å redusere CPU -bruken dramatisk og spare strøm.
Android P bruker AI og maskinlæring for å gjøre livet ditt enklere.
Android P "er et viktig første skritt mot en visjon om AI i kjernen av operativsystemet."
Den har tre temaer: intelligens, enkelhet og digital velvære.
Android er nå mer enn bare et smarttelefonoperativsystem, bemerker Burke. Veksten de siste 10 årene har bidratt til å drive skiftet fra stasjonær til mobil.
Android er 10 år gammel nå, og det har milliarder av brukere rundt om i verden.
Det er riktig. Android har den største andelen av det globale smarttelefonmarkedet. iOS er ikke engang i nærheten av å ta igjen.
Og nå er det på tide å piske Android, som Google kaller "det mest populære operativsystemet i verden."
Dave Burke går på scenen for å snakke Android.
Den vil være tilgjengelig for alle neste uke, så dette er en gradvis utrulling.
Google Nyheter lanseres på Android, iOS og nettet i 127 land i dag !!
Abonner hos Google lar deg bruke Google -kontoen din til å få tilgang til betalt innhold på alle plattformer. Så når du abonnerer på en tjeneste som bruker en betalingsmur hos Google, får du tilgang til historiene deres i Google Nyheter app, så vel som på nettet og andre steder der innholdet kan være tilgjengelig - uten å måtte logge på igjen og igjen en gang til.
Kiosk er en utfordrer til Apple News -appen. Det trekker inn innhold fra aviser og blader. Hvis du abonnerer på en av dem, kan du se premiuminnholdet fordi du er logget på med Google -legitimasjonen din. Rulles ut i 127 land i dag!
I aviskioskdelen kan du finne kilder du liker, og nye du kan være interessert i. Her kan du følge publikasjonene du vil følge med på.
Alle ser det samme innholdet når de bruker Full dekning. Det er ikke personlig, så du går ikke glipp av noe som Google tror du kanskje ikke vil se.
Vanlige spørsmål er oppført med svar, så du trenger ikke å jakte rundt for å forstå hva som skjer.
Tweets, meninger, analyse, kommentarer... det er en stor mengde innhold relatert til den store nyhetshistorien du ser på. Alt ble vist i Google Nyheter -appen.
Overskrifter forteller deg nøyaktig hva som har skjedd, mens en tidslinje hjelper deg å holde oversikt over utviklingen siden nyheten kom.
Full dekning gir deg "et komplett bilde" av historien, og tar informasjon fra en hel haug med kilder for å gi deg alt du trenger å vite. Du trenger ikke å lete etter mer.
For historiene du bryr deg mest om, kan du hoppe inn og se "mange forskjellige perspektiver." Slik hjelper Google deg med å forstå hele historien.
Googles nye Newscasts -presentasjon serverer nuggetiserte nyheter - videoer, skrevne historier, etc., i kort. Ser egentlig ikke så revolusjonerende ut for meg.
Appen er bygget med Material Design for å være så ren og så enkel som mulig.
Men Googles viktigste rektor er å "la historiene tale for seg selv."
Nyheter inkluderer videoer fra YouTube og andre kilder på nettet.
Hvis du vil se hva som er mer interessant, kan du se de beste historiene rundt om i verden.
Nyheter vet allerede hva du er interessant, så du trenger ikke å fortelle hva slags historier du vil lese.
Litt bekymringsfullt.
Nyheter tråler på nettet for å finne ting du trenger å vite fra artikler, fora og til og med kommentarer.
Når du åpner de nye Google Nyhetene, ser du en orientering om nyhetene du trenger å vite akkurat nå.
Google Nyheter har tre mål: La brukerne holde tritt med nyheter, forstå hele historien og "nyte og støtte nyhetskildene du liker."
Pichais barndomsanekdote om å dele en avis med familiemedlemmene starter segmentet på Google Nyheter. I dagens vanvittige nyhetsmiljø er det mer å lese enn noen gang. Så, Google tenkte nytt på nyhetsproduktet sitt - ved å bruke AI for å gi leserne kvalitetsjournalistikk, "dypere innsikt og et fyldigere perspektiv på ethvert tema de er interessert i," sier han.
Du har hørt om FOMO ("frykt for å gå glipp av"). Google omfavner JOMO - gleden ved å gå glipp av. Selskapet ønsker å begrense måtene våre stadig mer påtrengende enheter påvirker livene våre negativt på. For eksempel ruller YouTube ut medfølgende varsler, så du blir avbrutt sjeldnere.
Assistant forstår folks spørsmål, reagerer på endringer, stiller relevante spørsmål og "håndterer interaksjonen grasiøst", sier Pichai. Tenk på alle de automatiserte telefonsamtalene som bedrifter må håndtere. Rulles ut de neste ukene ...
Demoene i Jerky Boys-stil høres helt menneskelige ut.
Assistant kan gjøre det samme når du bestiller bord på en restaurant.
Dette er vanvittige ting.
Google viser oss nå hvordan assistenten kan bestille avtaler ved å ha kontakt med ekte mennesker. For eksempel kan den snakke med resepsjonisten på din favorittsalong og bestille time, sjekke kalenderen for å avtale tid og dato når du er ledig.
Disse endringene gjør Google Assistant enda mer imponerende. Som Lewis nevner, gjør det enda vanskeligere å komme igjen for Apple og Siri.
Jeg håper Siri -teamet ser på dette. Og svetter voldsomt.
Disse oppdateringene kommer til Android i sommer, og iOS senere i år.
De smarte hjemmefunksjonene bakt inn i Assistant ser ganske glatte ut.
Google legger også til en bestilling og levering av mat. Det har slått seg sammen med slike som Domino's, Starbucks, Dunkin 'Donuts og andre.
Assistenten vil også gjøre bedre bruk av skjermen på smarttelefonen og andre enheter, og vise deg mer informasjon når du sender forespørsler eller stiller spørsmål.
Du kan også bruke Smart Display for videosamtaler, for å holde et øye med hjemmet ditt med smarte kameraer og for å bruke Google Maps.
Det er utrolig imponerende.
Det er i utgangspunktet en Google Home -høyttaler med en skjerm som du kan bruke til å se på bilder, se på videoer, lese oppskrifter og søkeresultater, og mye, mye mer!
Smart Display kan vise Google Foto, vise deg TV -programmer og YouTube -videoer med mer. Og det styres bare med stemmen din!
Google Smart Displays selges i juli, kunngjør Rincon.
Lilian Rincon er nå opp til å snakke mer om AI.
Google gjør også assistenten mer familievennlig-spesielt når det gjelder undervisning i oppførsel. Når du sier "vær så snill", anerkjenner det det og kommenterer høfligheten din.
Google har lært assistenten hvordan å gjenkjenne forskjellen mellom søk, inkludert ordet "og", og to forskjellige spørringer atskilt med ordet "og".
Så, assistenten vet forskjellen mellom "når begynner kampen med Warriors versus Pelicans?" og "sett en alarm for 9.00 og legg til en påminnelse om å hente melk."
Dette gir mulighet for en mer vanlig frem og tilbake-samtale. Google kaller dette "Fortsatt samtale", og du vil kunne aktivere det "i de kommende ukene."
Nå trenger du ikke si "Hei Google" hver gang du har et spørsmål; bare si det en gang, følg deretter opp med nye spørsmål eller kommandoer, og assistenten vil fortsette å lytte.
I tillegg til de nye stemmene, jobber Google med å få assistenten til å forstå den sosiale dynamikken i samtalene våre, slik at du ikke trenger å bruke klare kommandoer som "Hei Google."
Google kommer til å vise oss hvordan assistenten forbedrer seg for å bli enda mer nyttig.
Assistenten er nå tilgjengelig på mer enn 500 millioner enheter i dag, sier Huffman. Det fungerer også på mer enn 5000 tilkoblede enheter.
Nå skal Scott Huffman snakke om assistenten mer detaljert.
Google viser oss en video som viser alle måtene assistenten brukes på i dag.
Google vil sannsynligvis slå seg sammen med andre stjerner for å legge til stemmen til Assistant senere, men Legends er den eneste som er bekreftet foreløpig.
"Senere i år," sier Pichai.
John Legend er en annen stemme som kommer til Google Assistant!
Seks nye stemmer, som alle bruker Wavenet, blir lagt til assistenten senere i dag. Google demonstrerer hver enkelt, og de høres alle mer menneskelige ut enn noen annen virtuell assistent.
Google benytter seg av en teknologi som heter Wavenet for å gjøre Assistents stemme mer naturlig.
Voice er hvordan de fleste brukere samhandler med Google Assistant, sier Pichai.
"Vi vil at assistenten skal være noe som er naturlig og behagelig å snakke med," sier Pichai.
Vi går videre til Google Assistant, som kanskje er Googles mest imponerende AI -verktøy.
Pichai snakker nå om de nye væskekjølte prosessorene som Google bruker i sine datasentre, som gir mulighet for enda bedre AI enn noensinne.
De nye fotoredigeringsverktøyene kommer snart.
Den PDF -funksjonen ser fantastisk ut. Fargelegging av vintage -bilder ser litt mindre bra ut. Men så liker jeg svart og hvitt.
Pichai demonstrerer andre imponerende fotoredigeringer med ett trykk som drar fordel av AI, og tjener en "wooo!" fra mengden hver gang.
Bilder kan også konvertere bilder av et dokument til en PDF og få det til å se ut som om det er skannet.
Hver eneste dag blir over 5 milliarder bilder sett av Google -brukere. Så det bruker AI til å legge til en ny funksjon som heter Suggested Actions.
Som navnet antyder, foreslår det handlinger du kanskje vil utføre på et bilde, for eksempel å fikse lysstyrken, som kan fullføres med ett trykk.
Smart Compose ser milevis foran Siris auto-komplette, som i disse dager ser ut til å endre seg til FEIL stavemåte av ord oftere enn ikke (i hvert fall for meg).
Et annet produkt, bygget fra grunnen av ved hjelp av AI, er Google Foto. Det "fungerer fantastisk bra," sier Pichai.
Smart Compose kommer til alle Gmail -brukere denne måneden.
Smart Compose bruker maskinlæring til å foreslå setninger for deg mens du skriver. Bare trykk Tab (på stasjonære datamaskiner) for å autofullføre med Gmails ordforslag.
En ny Gmail -funksjon kalt Smart Compose ser ut som en bloggers drøm.
Et annet Google -produkt som forbedres med AI er Gmail.
Morsekodestøtte er tilgjengelig for alle i Gboard, i beta, senere i dag.
AI kan til og med forbedre en 200 år gammel teknologi, Morse-kode, for å forbedre livskvaliteten.
Den viser oss en video av Tania, en dame som bruker morsekode for å kommunisere med verden. Tania kan nå bruke Googles tastatur Gboard til å skrive inn tekst ved hjelp av morsekode.
"Du kan se hvordan vi kan få teknologien til å gjøre en daglig brukstilfelle dypt bedre," sier Pichai.
Pichai snakker om hvordan en maskinlæringsteknologi kalt "Looking to Listen" kan forbedre bildetekster for brukere med nedsatt hørsel.
AI kan også hjelpe til med tilgjengelighet, sier Pichai.
Google publiserer sin artikkel om hvordan AI endrer medisin senere i dag.
Selv der leger er tilgjengelige, kan maskinlæring fange opp ting som mennesker ikke gjør. Det kan også gi leger spådommer om medisinske hendelser.
Pichai snakker om hvordan Googles AI -innsats gjør store forbedringer på områder som helsetjenester, der teknologien bringer ekspertdiagnose til steder der det er knappe leger.
Google har et stort ansvar for å få AI riktig, sier Pichai.
"Vi føler en dyp ansvarsfølelse for å få dette riktig," sier Pichai.
Pichai snakker nå om hvordan Google har trent 25 millioner mennesker rundt om i verden, og håper å øke det til 60 millioner i løpet av de neste årene.
"Vi kan komme tilbake til virksomheten" nå, sier Pichai.
Google har også fikset øl -emojien sin.
Takk Gud!
Pichai vil ta opp noe før I/O kommer i gang: plasseringen av osten i Googles hamburger -emoji.
Du vil bli glad for å vite at det nå er "fikset" med osten plassert over burgerpatty.
Over 7000 mennesker deltar på I/O i år, og tusenvis av andre ser på livestreamen rundt om i verden.
Googles administrerende direktør Sundar Pichai er først på scenen.
Og til slutt er vi i gang!
La oss gå, Google!
Googles undersøkelse er over, og vi ser en funky video med søte terningkarakterer. Scenen er tom for nå.
Hovednoten er i gang!
Vi har bare tre minutter igjen å vente. Hvis du ikke allerede har det, sjekk ut vår samling av ting vi kan forvente av I/O i år.
Det ser ut til at Hugo Barra, tidligere visepresident for Android, som nå jobber med VR på Facebook, fortsatt blir invitert til I/O:
Hugo Barra
@hbarra
209
16
10 minutter igjen!
Vi har nå litt over 15 minutter å vente på I/O -keynoten!
Hvem er spent?