Live-Blog: Google I/O 2018 liefert die Zukunft von Android und mehr
Die Google I/O 2018 startet in weniger als einer Stunde.
Es gibt viel, auf das Sie sich in diesem Jahr freuen können, einschließlich eines Updates für Android P und Vorschauen auf Chrome, Google Assistant, Android Auto und mehr. Das kürzlich umbenannte Wear OS kann ebenfalls dringend benötigte Aufmerksamkeit erhalten.
Google überträgt seine große Keynote live, die um 10 Uhr Pazifik beginnt. Wenn Sie nicht einschalten können, folgen Sie unserem Live-Blog unten, um über alles, was in Mountain View passiert, auf dem Laufenden zu bleiben.
Wir haben bereits skizziert Fünf große Dinge, die wir von der diesjährigen I/O-Keynote erwarten – aber es wird viele Überraschungen geben. Und es lohnt sich, mitzumachen, auch wenn Sie kein Android-Fan sind. die Dinge, die Google heute enthüllt, könnten die Zukunft von Smartphones, Wearables und mehr prägen!
Besuchen Sie uns im Live-Blog unten, damit Sie nichts verpassen!
„Baue weiterhin gute Dinge für alle“, sind die Abschiedsworte von Jen Fitzpatrick an die Keynote-Crowd der Google I/O 2018.
Vorerst melden wir uns ab. Danke für den Beitritt zu uns!
Beachten Sie jedoch, dass I/O eine zweitägige Veranstaltung ist. Auch wenn diese Dinge während der Keynote nicht erwähnt wurden, hat Google dafür Veranstaltungen geplant, sodass wir in den nächsten 48 Stunden wahrscheinlich von interessanten neuen Entwicklungen erfahren werden.
Ich bin mir nicht sicher, wie ich das empfinde. Es war sicherlich interessant, aber vielen großen Google-Plattformen wurde die Nase rausgedrückt.
Was ist mit Chrome OS passiert?
Es drehte sich wirklich alles um KI und maschinelles Lernen.
Wear OS, Android Auto, Android Things oder viele andere Dinge, die Fans erwartet hatten, wurden nicht erwähnt.
Und das war's für dieses Jahr!
I/O wird jetzt abgeschlossen.
Für die meisten von uns erscheinen selbstfahrende Autos immer noch wie ein futuristischer Traum, der noch lange nicht in Erfüllung gehen wird. Aber wenn man sieht, was Google mit Waymo macht, scheint die Technologie bereits perfekt genagelt zu sein.
Dolgov erklärt jetzt, wie Waymo mit Schneestürmen umgeht, wenn es noch schwieriger ist, reale Objekte zu erkennen.
Waymo kann sogar vorhersagen, wann Autos eine rote Ampel überfahren, indem es ihre Geschwindigkeit verfolgt, wenn sie sich einer Kreuzung nähern. Es kann dann verlangsamen, um sicherzustellen, dass es beim Überqueren nicht mit dem Auto zusammenstößt.
Dieser Tweet fasst sicherlich die bisherige I/O zusammen:
Alex Kantrowitz
@Kantrowitz
Google #io2018 tl; dr: AI, AI, AI, AI, Machine Learning, AI, AI, AI, Danke für Ihr Kommen!
12
2
Waymo erkennt Objekte in der realen Welt, wie Menschen, Bäume und andere Autos, unabhängig von ihrer Form oder Größe. Es kann Personen identifizieren, die von anderen Objekten behindert werden, und sogar solche, die aufblasbare Dinosaurierkostüme tragen.
Wir hören, wie Waymo künstliche Intelligenz einsetzt, um selbstfahrendes Fahren sicher zu machen.
Dmitri Dolgov will mehr über Waymo sprechen.
Google plant, „mit vielen verschiedenen Unternehmen“ zusammenzuarbeiten, um seinen Traum vom selbstfahrenden Auto für alle auf der ganzen Welt zugänglich zu machen.
Und ohne die Klagen!
Es ist im Grunde Uber ohne Fahrer.
Phoenix ist die erste Station für Waymos selbstfahrenden Autoservice, der noch in diesem Jahr auf den Markt kommt.
Der leere Fahrersitz in all diesen Waymo-Demovideos hat einfach etwas Beunruhigendes. Ich denke, wir werden uns daran gewöhnen. Letztlich.
Einer dieser Menschen, der nach einem schweren Unfall als Kind zu viel Angst hatte, um das Autofahren zu lernen, fährt jetzt jeden Tag mit einem Waymo zur Arbeit.
In Arizona genießen die Menschen bereits selbstfahrende Waymo-Autos, bei denen niemand auf dem Fahrersitz sitzen muss.
Krafcik spricht darüber, wie Google daran arbeitet, selbstfahrende Autos sicherer und zugänglicher zu machen.
John Krafcik, der CEO von Waymo, spricht jetzt über selbstfahrende Autos.
All diese Funktionen kommen „in den nächsten Wochen“ zu Lens.
Google arbeitet auch daran, dass Lens in Echtzeit funktioniert. Anstatt also ein Bild von einem Objekt, das Sie identifizieren möchten, aufnehmen zu müssen, macht Lens dies in Echtzeit, während Sie Ihre Kamera bewegen.
Sie möchten Ihre Wohnung dekorieren oder das perfekte Outfit zusammenstellen? Richten Sie Lens auf ein Objekt, wie eine Lampe oder einen Pullover, und es wird andere Dinge finden, die zu seinem Stil passen.
Richten Sie Lens auf die Speisekarte eines Restaurants, tippen Sie auf die Gerichte und der Google Assistant sagt Ihnen, was diese Gerichte sind.
Das ist verrücktes Zeug.
Sie können Lens auf ein physisches Dokument richten und Text kopieren und einfügen!
Lens kann jetzt Wörter erkennen und verstehen.
Es erhält auch neue Funktionen, die Ihnen "mehr Antworten auf mehr Fragen" geben.
Google Lens wird ab nächster Woche in die Kamera-App von Pixel- und Drittanbieter-Handys integriert.
Dies ist das Versprechen von Augmented Reality, von dem Tim Cook geschwärmt hat. Google macht es möglich.
Google fügt auch VPS hinzu – das visuelle Positionierungssystem –, das Sehenswürdigkeiten, Schaufenster und andere Funktionen der Umgebung verwendet, um Ihnen zu helfen, genau herauszufinden, wo Sie sich befinden.
Sie können Ihr Telefon jetzt in die Welt vor Ihnen halten und Maps überlagert Wegbeschreibungen, die Ihnen die Orientierung in neuen Städten erleichtern.
OMG, wenn sie das Problem "Welchen Weg gehe ich" beheben, bin ich verkauft.
Aparna Chennaparagada spricht als nächstes darüber, wie Maps durch die Kameraintegration verbessert wird.
Mit Maps können Sie auch eine Auswahlliste für Orte erstellen, die Sie besuchen möchten, indem Sie lange auf die Suchergebnisse tippen. Sie können diese Shortlists dann mit Freunden teilen, damit Sie alle entscheiden können, wohin Sie gehen möchten.
Google bietet sogar Punktzahlen für jede Empfehlung an, indem es maschinelles Lernen verwendet, um die Orte zu erkennen, die Ihnen am besten gefallen. Das neue Your Match hilft Ihnen, all diese 4,6-Sterne-Restaurantbewertungen zu verstehen. Wenn das funktioniert, ist Yelp irgendwie am Arsch.
Ein neuer „Für Sie“-Tab informiert Sie über alle wichtigen Informationen, hält Sie über neue Orte auf dem Laufenden und bietet persönliche Empfehlungen zu den von Ihnen besuchten Orten.
Eine aktualisierte Version von Google Maps hält Sie über Neuigkeiten und Änderungen in den Bereichen, die Ihnen wichtig sind, auf dem Laufenden.
Benutzer verlangen mehr von dem Dienst. Sie wollen auch wissen, was um sie herum passiert und was die Einheimischen in ihrer Nachbarschaft lieben.
Im Moment habe Google nur an der Oberfläche dessen gekratzt, was Maps leisten kann, fügt Fitzpatrick hinzu.
„Maps wurde entwickelt, um jedem zu helfen, wo immer er sich auf der Welt befindet“, sagt Fizpatrick. Es hat Milliarden von Menschen das Vertrauen gegeben, die Welt zu bereisen, ohne sich Sorgen machen zu müssen, sich zu verirren.
Jen Fitzpatrick ist bereit, uns mehr zu zeigen.
Google zeigt uns in einem Video, wie Maps Menschen auf der ganzen Welt hilft. Viele dieser Leute verwenden Maps auf einem iPhone.
Wir wechseln jetzt zu Google Maps.
Android P Beta ist auf Google Pixel und ausgewählten Flaggschiff-Geräten von sieben Drittanbietern verfügbar, darunter OnePlus und Nokia. (Muss scheiße sein, wenn Ihr Telefon von jemandem hergestellt wird, dessen Logo nicht auf diesem Bildschirm ist.)
Um sie frühzeitig auszuprobieren, können Sie sich für die Android P Beta anmelden.
Diese Funktionen werden natürlich zuerst auf Google Pixel-Geräten verfügbar sein. Andere Android-Telefone werden sie bekommen … wann immer ihre Hersteller sie hinzufügen. Wenn überhaupt.
Der Wind-Down-Modus ist ein total entspannter Mann. Der Bildschirm Ihres Android-Telefons wird grau, sodass Sie nicht mit dieser auffälligen Farbe beschäftigt sind.
Android P fügt auch "Markierte Kontakte" hinzu, mit denen Sie angeben können, welche Personen Sie mit Warnungen kontaktieren können, auch wenn "Nicht stören" aktiviert ist.
Der Modus „Nicht stören“ erhält eine neue Geste namens „Shush“. Wenn Sie Ihr Telefon umdrehen und mit der Vorderseite nach unten ablegen, wird „Bitte nicht stören“ automatisch aktiviert.
Mit Android P können Sie auch steuern, wie Sie Apps verwenden. Wenn Sie beispielsweise Facebook zu oft verwenden, können Sie angeben, wie lange Sie es verwenden möchten, und Android wird Sie wissen lassen, wenn es knapp wird.
Entwickler können dieses Dashboard auch verwenden, um Ihnen zu zeigen, wie Sie Funktionen in ihren Apps verwenden.
Android P hilft Ihnen dabei, indem es Ihnen zeigt, wie Sie Ihr Telefon verwenden. Das Dashboard zeigt Ihnen genau an, wie viel Zeit Sie in jeder App verbracht haben, wie viel Zeit Sie mit der Verwendung bestimmter Funktionen verbracht haben und vieles mehr.
„Menschen bei ihrem digitalen Wohlbefinden zu unterstützen, ist für uns wichtiger denn je“, sagt Samat. Über 70 Prozent der Menschen wünschen sich Hilfe, um ein Gleichgewicht zwischen der Nutzung ihres Telefons und dem Genießen des wirklichen Lebens zu finden.
Sameer Samat ist jetzt bereit, uns mehr darüber zu erzählen, wie Android P unser digitales Wohlbefinden verbessern will.
Google vereinfacht auch Benachrichtigungen.
Android P vereinfacht auch die Lautstärkeregelung. Sie sind jetzt vertikal und erscheinen am Bildschirmrand. Die Medienlautstärke wird standardmäßig über die Alarmlautstärke gesteuert, da wir diese häufiger ändern.
Diese neuen Gesten sehen tatsächlich ein bisschen aus wie die Gesten des iPhone X – aber tatsächlich sehen sie etwas besser aus (oder zumindest komplizierter). Es gibt mehr davon, für den Anfang. Hier kommt die Lernkurve für langjährige Android-Fans.
Es ist dem App-Switcher auf dem iPhone sehr ähnlich.
Das Wischen kann überall in Android verwendet werden – sogar in Apps von Drittanbietern – und Sie können die Schaltfläche seitwärts schieben, um durch Ihre letzten Apps zu scrollen.
Wie auf dem iPhone X können Sie nach oben wischen, um die neuesten Apps anzuzeigen. Android P bietet auch Verknüpfungen zu häufig verwendeten Apps und eine Google-Suchleiste.
Android P bekommt auch eine neue Systemnavigation!
Google möchte die Implementierung von maschinellem Lernen in Apps von Drittanbietern vereinfachen und bringt daher ML Kit auf den Markt. Dies ist im Grunde die Google-Version von Apples CoreML; Es ermöglicht Entwicklern, maschinelles Lernen einfacher als je zuvor in ihre Apps zu integrieren.
Im Gegensatz zu CoreML funktioniert ML Kit plattformübergreifend, sodass Entwickler es sowohl in ihren Android-Apps als auch in ihren iOS-Apps verwenden können.
Mit Google Assistant "Slices" sehen Sie mehr in Ihren Suchergebnissen.
In Android P sehen Sie also neben den App-Vorhersagen, die Sie oben in der App-Schublade sehen, Aktionen, die mehr bewirken. Beispielsweise sehen Sie möglicherweise eine Aktion, mit der Sie mit wenigen Klicks Kinokarten über Fandango buchen können.
App Actions funktionieren über Apps von Erst- und Drittanbietern hinweg und können von Entwicklern problemlos unterstützt werden, sagt Burke.
Android P kann jetzt sowohl Aktionen als auch Apps vorhersagen. Sie basieren auf Ihren Nutzungsmustern, damit Sie Ihre gewünschten Aufgaben schneller und einfacher erledigen können.
Android P verwaltet auch die automatische Helligkeit besser. Adaptive Brightness verwendet maschinelles Lernen, um Ihre persönlichen Vorlieben und die Umgebungsbeleuchtung um Sie herum zu berücksichtigen, um die Helligkeit für Sie zu bestimmen.
Eine neue Android P-Funktion, Adaptive Battery, nutzt maschinelles Lernen auf dem Gerät, um die Akkulaufzeit zu maximieren. Es sagt voraus, welche Apps und Dienste Sie verwenden werden – und welche nicht – um die CPU-Auslastung drastisch zu reduzieren und Strom zu sparen.
Android P verwendet KI und maschinelles Lernen, um Ihnen das Leben zu erleichtern.
Android P „ist ein wichtiger erster Schritt in Richtung einer Vision von KI im Kern des Betriebssystems.“
Es hat drei Themen: Intelligenz, Einfachheit und digitales Wohlbefinden.
Android ist heute mehr als nur ein Smartphone-Betriebssystem, stellt Burke fest. Sein Wachstum in den letzten 10 Jahren hat dazu beigetragen, den Wandel vom Desktop zum Mobilgerät voranzutreiben.
Android ist jetzt 10 Jahre alt und hat Milliarden von Nutzern auf der ganzen Welt.
Korrekt. Android hat den größten Anteil am globalen Smartphone-Markt. iOS ist auch nicht annähernd aufzuholen.
Und jetzt ist es an der Zeit, Android auszupeitschen, das Google als "das beliebteste Betriebssystem der Welt" bezeichnet.
Dave Burke betritt die Bühne, um über Android zu sprechen.
Es wird nächste Woche für alle verfügbar sein, daher handelt es sich um eine schrittweise Einführung.
Google News wird heute in 127 Ländern für Android, iOS und das Web eingeführt!
Mit Google abonnieren können Sie mit Ihrem Google-Konto auf kostenpflichtige Inhalte auf allen Plattformen zugreifen. Wenn Sie also einen Dienst abonnieren, der eine Paywall bei Google verwendet, erhalten Sie Zugriff auf deren Geschichten in den Google News App, sowie im Web und überall dort, wo die Inhalte verfügbar sein könnten – ohne sich immer wieder einloggen zu müssen wieder.
Kiosk ist ein Herausforderer der Apple News App. Es zieht Inhalte aus Zeitungen und Zeitschriften ein. Wenn Sie eines davon abonnieren, können Sie die Premium-Inhalte sehen, da Sie mit Ihren Google-Anmeldeinformationen angemeldet sind. Rollout in 127 Ländern heute!
Im Abschnitt Kiosk finden Sie Quellen, die Sie lieben, und neue Quellen, die Sie interessieren könnten. Hier können Sie die Veröffentlichungen verfolgen, mit denen Sie auf dem Laufenden bleiben möchten.
Jeder sieht den gleichen Inhalt, wenn er die vollständige Abdeckung nutzt. Es ist nicht personalisiert, sodass Sie nichts verpassen, von dem Google glaubt, dass Sie es nicht sehen möchten.
Häufige Fragen werden mit Antworten aufgelistet, sodass Sie nicht herumsuchen müssen, um zu verstehen, was vor sich geht.
Tweets, Meinungen, Analysen, Kommentare … es ist ein großes Bündel von Inhalten, die sich auf jede große Nachricht beziehen, die Sie gerade sehen. Alles wird in der Google News App bereitgestellt.
Schlagzeilen sagen Ihnen genau, was passiert ist, während eine Zeitleiste Ihnen hilft, die Entwicklungen seit der Veröffentlichung der Nachrichten zu verfolgen.
Full Coverage gibt Ihnen „ein vollständiges Bild“ der Geschichte und nimmt Informationen aus einer ganzen Reihe von Quellen auf, um Sie mit allem zu versorgen, was Sie wissen müssen. Sie müssen nicht mehr suchen.
Bei den Geschichten, die Ihnen am wichtigsten sind, können Sie einspringen und „viele verschiedene Perspektiven“ sehen. Auf diese Weise hilft Ihnen Google, die ganze Geschichte zu verstehen.
Die neue Newscasts-Präsentation von Google bietet nuggetisierte Nachrichten – Videos, geschriebene Geschichten usw. in Karten. Sieht für mich nicht wirklich revolutionär aus.
Die App wurde mit Material Design erstellt, um so sauber und einfach wie möglich zu sein.
Aber das Hauptprinzip von Google ist es, "die Geschichten für sich selbst sprechen zu lassen".
Zu den Nachrichten gehören Videos von YouTube und anderen Quellen im Internet.
Wenn Sie sehen möchten, was sonst noch interessant ist, können Sie die Top-Stories auf der ganzen Welt sehen.
News weiß bereits, was Sie interessiert, sodass Sie ihm nicht sagen müssen, welche Art von Geschichten Sie lesen möchten.
Irgendwie beunruhigend.
News durchforstet das Web, um die Dinge zu finden, die Sie aus Artikeln, Foren und sogar Kommentaren wissen müssen.
Wenn Sie das neue Google News öffnen, sehen Sie ein Briefing mit den Neuigkeiten, die Sie jetzt wissen müssen.
Google News verfolgt drei Ziele: Nutzer auf dem Laufenden zu halten, die ganze Geschichte zu verstehen und "die Nachrichtenquellen zu genießen und zu unterstützen, die Sie lieben".
Pichais Kindheitsanekdote über das Teilen einer Zeitung mit seinen Familienmitgliedern leitet das Segment bei Google News ein. In der heutigen verrückten Nachrichtenumgebung gibt es mehr denn je zu lesen. Also hat Google sein Nachrichtenprodukt neu erfunden – mit KI, um den Lesern Qualitätsjournalismus, „tiefere Einblicke und eine umfassendere Perspektive auf jedes Thema, an dem sie interessiert sind“, zu bieten“, sagt er.
Sie haben von FOMO („Angst, etwas zu verpassen“) gehört. Google umarmt JOMO – die Freude am Verpassen. Das Unternehmen möchte die Art und Weise begrenzen, wie sich unsere zunehmend aufdringlichen Geräte negativ auf unser Leben auswirken. YouTube führt beispielsweise gebündelte Benachrichtigungen ein, damit Sie weniger häufig unterbrochen werden.
Assistant versteht die Fragen der Leute, reagiert auf Veränderungen, stellt relevante Fragen und „handhabt die Interaktion anmutig“, sagt Pichai. Denken Sie an all die automatisierten Telefonanrufe, die Unternehmen bewältigen müssen. Rollout in den kommenden Wochen…
Diese Demos im Jerky-Boys-Stil klingen total menschlich.
Der Assistent kann dasselbe tun, wenn er einen Tisch in einem Restaurant reserviert.
Das ist verrücktes Zeug.
Google zeigt uns jetzt, wie der Assistant Termine buchen kann, indem er sich mit echten Menschen verbindet. Zum Beispiel kann es mit der Empfangsdame in Ihrem Lieblingssalon sprechen und einen Termin vereinbaren, Ihren Kalender überprüfen, um eine Uhrzeit und ein Datum zu vereinbaren, an dem Sie frei sind.
Diese Änderungen machen Google Assistant noch beeindruckender. Wie Lewis erwähnt, wird es für Apple und Siri noch schwieriger, aufzuholen.
Ich hoffe, das Siri-Team beobachtet das. Und stark schwitzen.
Diese Updates kommen diesen Sommer für Android und später in diesem Jahr für iOS.
Die in Assistant integrierten Smart-Home-Funktionen sehen ziemlich glatt aus.
Google fügt auch einen Bestell- und Lieferservice für Lebensmittel hinzu. Es hat sich mit Leuten wie Domino's, Starbucks, Dunkin' Donuts und anderen zusammengetan.
Der Assistent wird auch den Bildschirm Ihres Smartphones und anderer Geräte besser nutzen und Ihnen mehr Informationen anzeigen, wenn Sie Anfragen stellen oder Fragen stellen.
Sie können das Smart Display auch für Videotelefonie nutzen, mit Smart-Kameras Ihr Zuhause im Auge behalten und Google Maps nutzen.
Es ist unglaublich beeindruckend.
Es ist im Grunde ein Google Home-Lautsprecher mit einem Display, mit dem Sie Fotos genießen, Videos ansehen, Rezepte und Suchergebnisse lesen und vieles mehr!
Das Smart Display kann Ihre Google Fotos anzeigen, Ihnen Live-TV-Sendungen und YouTube-Videos anzeigen und vieles mehr. Und es wird nur mit Ihrer Stimme gesteuert!
Google Smart Displays werden im Juli in den Handel kommen, kündigt Rincon an.
Lilian Rincon ist jetzt bereit, mehr über KI zu sprechen.
Google macht den Assistant auch familienfreundlicher – insbesondere, wenn es um das Erlernen von Manieren geht. Wenn Sie „Bitte“ sagen, erkennt es das und kommentiert Ihre Höflichkeit.
Google hat dem Assistenten beigebracht, wie man den Unterschied zwischen Abfragen erkennt, die das Wort "und" enthalten, und zwei verschiedenen Abfragen, die durch das Wort "und" getrennt sind.
Der Assistent kennt also den Unterschied zwischen "Um wie viel Uhr beginnt das Spiel Krieger gegen Pelikane?" und „stelle einen Wecker für 9 Uhr morgens und füge eine Erinnerung hinzu, um Milch abzuholen.“
Dies ermöglicht ein natürlicheres Hin- und Her-Gespräch. Google nennt dies "Fortgesetzte Konversation", und Sie können es "in den kommenden Wochen" aktivieren.
Jetzt müssen Sie nicht jedes Mal „Hey Google“ sagen, wenn Sie eine Anfrage haben. Sagen Sie es einfach einmal und geben Sie dann neue Fragen oder Befehle ein, und Assistant hört weiter zu.
Zusätzlich zu seinen neuen natürlichen Stimmen arbeitet Google daran, dass der Assistant die soziale Dynamik unserer Unterhaltungen versteht, damit Sie keine klaren Befehle wie "Hey Google" verwenden müssen.
Google wird uns zeigen, wie sich der Assistant verbessert, um noch nützlicher zu sein.
Der Assistent ist heute auf mehr als 500 Millionen Geräten verfügbar, sagt Huffman. Es funktioniert auch auf mehr als 5.000 verbundenen Geräten.
Jetzt ist Scott Huffman bereit, ausführlicher über den Assistenten zu sprechen.
Google zeigt uns ein Video, das zeigt, wie Assistant im Alltag verwendet wird.
Google wird sich wahrscheinlich mit anderen Stars zusammenschließen, um ihre Stimmen später zu Assistant hinzuzufügen, aber Legends ist der einzige, der vorerst bestätigt wurde.
„Später in diesem Jahr“, sagt Pichai.
John Legend ist eine weitere Stimme, die zu Google Assistant kommt!
Heute werden dem Assistenten sechs neue Stimmen hinzugefügt, die alle Wavenet verwenden. Google demonstriert jeden einzelnen, und sie alle klingen menschlicher als jeder andere virtuelle Assistent.
Google nutzt eine Technologie namens Wavenet, um die Stimme von Assistant natürlicher zu machen.
Laut Pichai interagieren die meisten Benutzer mit Google Assistant.
„Wir möchten, dass der Assistant ein natürlicher und angenehmer Gesprächspartner ist“, sagt Pichai.
Wir wechseln zum Google Assistant, dem vielleicht beeindruckendsten KI-Tool von Google.
Pichai spricht jetzt über die neuen flüssigkeitsgekühlten Prozessoren, die Google in seinen Rechenzentren einsetzt und die eine noch bessere KI als je zuvor ermöglichen.
Die neuen Fotobearbeitungstools kommen bald.
Diese PDF-Funktion sieht fantastisch aus. Die Kolorierung von Vintage-Fotos sieht etwas weniger gut aus. Aber dann mag ich schwarz-weiß.
Pichai demonstriert andere beeindruckende Fotobearbeitungen mit einem Fingertipp, die die Vorteile der KI nutzen und ein "Wooo!" jedes Mal aus der Menge.
Fotos können auch Bilder eines Dokuments in ein PDF umwandeln und es so aussehen lassen, als ob es gescannt wurde.
Jeden Tag werden über 5 Milliarden Fotos von Google-Nutzern angesehen. Es verwendet also KI, um eine neue Funktion namens Suggested Actions hinzuzufügen.
Wie der Name schon sagt, schlägt es Aktionen vor, die Sie möglicherweise auf einem Foto ausführen möchten, z.
Smart Compose sieht Siris Auto-Vervollständigung meilenweit voraus, die heutzutage häufiger in die FALSCHE Schreibweise von Wörtern übergeht (zumindest für mich).
Ein weiteres Produkt, das von Grund auf mit KI entwickelt wurde, ist Google Fotos. Es „funktioniert erstaunlich gut“, sagt Pichai.
Smart Compose kommt diesen Monat zu allen Gmail-Nutzern.
Smart Compose verwendet maschinelles Lernen, um Ihnen während der Eingabe Phrasen vorzuschlagen. Klicken Sie einfach auf die Tabulatortaste (auf Desktops), um die Wortvorschläge von Gmail automatisch zu vervollständigen.
Eine neue Gmail-Funktion namens Smart Compose sieht aus wie der Traum eines Bloggers.
Ein weiteres Google-Produkt, das mit KI verbessert wird, ist Gmail.
Morsecode-Unterstützung steht allen in Gboard, in der Beta, später heute zur Verfügung.
KI kann sogar eine 200 Jahre alte Technologie, den Morsecode, verbessern, um die Lebensqualität zu verbessern.
Es zeigt uns ein Video von Tania, einer Dame, die Morsecode verwendet, um mit der Welt zu kommunizieren. Tania kann jetzt die Google-Tastatur Gboard verwenden, um Text mit Morsecode einzugeben.
„Sie können sehen, wie wir Technologien einsetzen können, um einen alltäglichen Anwendungsfall grundlegend zu verbessern“, sagt Pichai.
Pichai spricht darüber, wie eine maschinelle Lerntechnologie namens „Looking to Listen“ Untertitel für Benutzer mit Hörbehinderung verbessern kann.
KI kann auch bei der Zugänglichkeit helfen, sagt Pichai.
Google veröffentlicht heute sein Papier darüber, wie KI die Medizin verändert.
Selbst dort, wo Ärzte verfügbar sind, kann maschinelles Lernen Dinge erfassen, die Menschen nicht können. Es kann Ärzten auch Vorhersagen für medizinische Ereignisse liefern.
Pichai spricht darüber, wie die KI-Bemühungen von Google enorme Verbesserungen in Bereichen wie dem Gesundheitswesen bewirken, wo seine Technologie Expertendiagnosen an Orte bringt, an denen Ärzte knapp sind.
Google trägt eine große Verantwortung für die richtige KI, sagt Pichai.
„Wir fühlen uns zutiefst dafür verantwortlich, dies richtig zu machen“, sagt Pichai.
Pichai spricht jetzt darüber, wie Google weltweit 25 Millionen Menschen geschult hat, und hofft, diese Zahl in den nächsten Jahren auf 60 Millionen zu steigern.
„Wir können jetzt wieder zur Sache gehen“, sagt Pichai.
Google hat auch sein Bier-Emoji korrigiert.
Gott sei Dank!
Pichai möchte etwas ansprechen, bevor es mit der I/O losgeht: die Platzierung des Käses in Googles Hamburger-Emoji.
Sie werden erfreut sein zu wissen, dass es jetzt "fixiert" ist, da der Käse über dem Burger-Patty platziert ist.
Mehr als 7.000 Menschen nehmen dieses Jahr an der I/O teil, und Tausende sehen sich den Live-Stream auf der ganzen Welt an.
Google-Chef Sundar Pichai steht als erster auf der Bühne.
Und endlich geht es los!
Auf geht's, Google!
Der Countdown von Google ist vorbei und wir sehen ein funky Video mit süßen Würfelfiguren. Die Bühne bleibt vorerst leer.
Die Keynote beginnt!
Wir haben nur noch drei Minuten zu warten. Wenn Sie es noch nicht getan haben, schauen Sie vorbei unsere Zusammenfassung der Dinge, die Sie dieses Jahr von der I/O erwarten können.
Es scheint, dass Hugo Barra, ehemaliger Vizepräsident von Android, der jetzt bei Facebook an VR arbeitet, immer noch zur I/O eingeladen wird:
Hugo Barra
@hbarra
209
16
Noch 10 Minuten!
Wir haben jetzt etwas mehr als 15 Minuten Zeit, um auf die I/O-Keynote zu warten!
Wer ist aufgeregt?