<iframe title="GTM" src="https://www.googletagmanager.com/ns.html?id=GTM-WBPR4W&gtm_auth=3wMU78FaVR9TNKtaXLbV8Q&gtm_preview=env-23&gtm_cookies_win=x" height="0" width="0" style="display:none;visibility:hidden"></iframe>
Neue Produkte von Google

Was macht eigentlich der Weiße Hai auf der Bühne?

Von Marco Dettweiler
 - 22:59
zur Bildergalerie

Einmal im Jahr stellt Google auf seiner Entwicklerkonferenz alle Neuigkeiten vor, die das Unternehmen zu verkünden hat. Da kommt einiges an News zusammen. Und es ist schwer, all das zusammenzufassen, weil sich Google in den letzten Jahren immer breiter aufstellt. Praktischerweise liefert das Unternehmen schon seit dem letzten Jahr die Formel gleich mit, die es ziemlich gut trifft: AI + Software + Hardware. Den Rest ergibt von selbst: AI + Software + Hardware = Google. Alle drei Summanden sind voneinander abhängig. Jede Google-App profitiert immer mehr von Künstlicher Intelligenz, die im vollen Umfang nur auf den hauseigenen Smartphones Pixel zu bekommen sind. In dem Smartphone versteckt sich der komplette Google-Kosmos.

Während der Präsentation in Kalifornien fällt immer wieder der Begriff des „Machine-Learning-Models“. Das sind mathematische Modelle, die dafür sorgen, dass die Apps Vorhersagen treffen, Sprache verstehen und übersetzen, vor Staus warnen, Rezepte vorschlagen, Reservierungen selbst machen, auf Veranstaltungen hinweisen oder alle Fotos zeigen, auf denen Hunde zu sehen sind.

Bisher brauchte es viel Rechenpower für diese KI-Anwendungen, weil Dutzende Gigabyte Daten verarbeitet werden mussten. Deshalb wurden sie in die Cloud verlagert, wo Server mit entsprechender Leistung die Arbeit übernahmen. Google hat es nun geschafft, den Speicherbedarf dieser Modelle so zu reduzieren, dass sie auf ein Smartphone passen. So wurde als Beispiel genannt, dass die Datenmenge von 100 Gigabyte auf 0,5 Gigabyte geschrumpft wurde.

Video starten

Googles Versprechen
Privatsphäre und Sicherheit für alle

Raus aus der Cloud, rein ins Smartphone

Die Anwendungen funktionieren damit sogar offline. Der eigentliche Clou ist ein anderer. Alle Aktionen auf dem Smartphone passieren in Echtzeit, also ohne Latenz. Wer zurzeit etwa den Google Assistent auf seinem Android-Gerät nutzt, kann förmlich zuschauen, wie nach einem Befehl oder einer Frage die Daten erst in die Cloud und dann wieder zurück auf das Display wandern. Während der Präsentation auf der Bühne hat Google gezeigt, wie es bald funktionieren wird. Das Smartphone nimmt die gesprochenen Worte direkt auf, öffnet neue Apps, wechselt zu ihnen, schreibt Sätze, verschiebt Elemente zwischen den Apps. Dabei wurde der Assistent einmal mit „Hey Google“ geweckt, danach folgten ausschließlich sprachliche Anweisungen.

An der sprachlichen Kommunikation mit dem Computer wird auch in Zukunft kein Weg vorbeiführen. Was Amazon und Apple ebenfalls vorantreiben, hat auch bei Google Priorität. Ein paar Beispiele: Hält man die Kamera auf ein Warnschild, liest das Smartphone die Worte bei Bedarf vor und übersetzt sie gegebenenfalls. Mit „Duplex on the web“ kann man etwa ein Auto mieten, indem man sagt „Buche ein Auto für den nächsten Urlaub“. Dann gleicht Google die Daten mit dem Kalender ab, öffnet die Homepage des Verleihers, füllt automatisch die Formulare aus, schlägt ein Modell vor und bucht es. „Live Caption“ stellt Sprache in Videos als Text dar, die dann wie ein Untertitel live eingeblendet werden. Oder man tippt in einem SMS-Dialog die Worte ein, die dem anderen vorgesprochen werden.

Der Weiße Hai auf der Bühne

Auch wenn Anwendungen mit Augmented Reality noch nicht so durchstarten, wie sich das Google, Apple, Facebook und andere Unternehmen vorstellen, setzen sie weiter auf dieses Technologie. Google hat eine nützliche Variante gezeigt: Wenn man aus der U-Bahn steigt, Google Maps geöffnet hat und normalerweise erst einmal umständlich die Straße sucht, in die man einbiegen muss, kann man in Zukunft einfach die Kamera auf die Häuser halten, und Maps zeigt mit Pfeilen in der realen Umgebung an, ob es nach links oder rechts geht.

Eine andere Anwendung brachte die Zuschauer auf der Keynote zwar zum Staunen. Doch die Sinnhaftigkeit wurde nicht ganz klar. Man kann nun in der Google-Suche etwa nach „Weißer Hai“ suchen. Dann wird unter anderem – falls vorhanden – ein 3D-Modell des Tieres dargestellt, und dieses kann man dann wiederum in der realen Umgebung positionieren. Das wurde auch mit einem Turnschuh demonstriert, der auf Kleidung gelegt wurde. Ein schönes Beispiel eigentlich dafür, dass Augmented Reality nicht zeigen kann, ob der Schuh passt oder nicht.

Wichtig war es für Google-Chef Sundar Pichai immer wieder, auf Privacy und Security hinzuweisen, was im neuen Android Q, also Version 10, eine größere Rolle spielen wird. Womit Apple seit einiger Zeit verstärkt wirbt, dass nämlich die meisten Daten auf dem iPhone bleiben, versucht Google jetzt auch umzusetzen.

Ein Beispiel wurde schon genannt: Da die Machine-Learning-Models auf dem Smartphone gespeichert sind, müssen die Daten nicht immer in die Cloud transferiert werden. Sollte es dennoch nötig sein, stellt der Algorithmus zunächst auf dem Smartphone Berechnungen an, um dann sozusagen eine anonyme Formel auf Googles Server zu schicken, mit denen die Künstliche Intelligenz etwas anfangen kann. Google nennt dies „Federated Learning“.

Mittelklasse-Smartphones und große Hubs

Nach all den Beispielen mit Spracherkennung, Augmented Reality und anderen Software-Neuigkeiten, gab es zum Schluss etwas Handfestes: das neue Pixel 3a und 3a XL. Das sind Mittelklasse-Smartphones, die genau so aussehen wie ihre Verwandten aus der 1000-Euro-Liga. Sie kosten 400 und 480 Euro. Geringerer Preis bedeutet auch hier: schmalere Ausstattung etwa beim Prozessor. Doch das dürften die wenigsten Nutzer bemerken. Die neue Mittelklasse hat einen Oled-Bildschirm und vor allen Dingen auch die hervorragende Kamera des Pixel 3 mit seinen Funktionen wie Nacht- und Porträtmodus.

Im letzten Jahr hatte Google den Home Hub vorgestellt. Das ist ein kleiner Monitor mit Mikrofon, Lautsprecher und Kamera. Dieser kommt jetzt in der Max-Version und heißt Google Nest Hub, weil die Nest-Produkte von nun an nicht mehr separat behandelt werden, sondern als Google-Linie. Der Bildschirm ist jetzt 10 Zoll groß. Die Idee bleibt die gleiche: eine Schaltzentrale für alle smarten Geräte. Klingelt jemand an der Nest-Türklingel, öffnet man mit dem Hub. Der sagt auch, wie das Wetter wird, zeigt Videos und Fotos, spielt Musik ab, dient als Video-Telefon und ist eine Überwachungskamera. Nest Hub Max erkennt, welcher Nutzer vor ihm steht und bietet ihm ein personalisiertes Profil. In Amerika wird er 230 Dollar kosten. Hierzulande kann man nur die kleine, ein Jahr alte Version für 130 Euro bestellen.

Video starten

Google stellt Stadia vor
Streamingplattform soll unbegrenztes Zocken ermöglichen

Quelle: FAZ.NET
Marco Dettweiler
Redakteur in der Wirtschaft.
FacebookTwitter
  Zur Startseite
Ähnliche ThemenAppleSoftwareAugmented RealitySmartphoneAndroid