Das Smartphone wird zum dritten Auge
Mobile Geräte der Zukunft setzen vor allem auf eines: ihre Kamera. Bilder werden Teil der Kommunikation, die Wirklichkeit mit Echtzeit-Infos erweitert, Selfies automatisch geschönt. Was die Nutzer noch so alles erwartet
Als Samsung die neuen Galaxy-Modelle S9 und S9+ vorstellte, waren die meisten Informationen längst durchgesickert: diverse Detailverbesserungen, mehr Leistung, eine verbesserte künstliche Intelligenz.
Nichts Bahnbrechendes also, dennoch wirft das Flaggschiff-Duo ein Schlaglicht auf die Zukunft einer Branche, in der echte Innovationen oft erst auf den zweiten Blick zu erkennen sind. Diese Zukunft steckt in der Kamera: Fotofunktionen sind längst nicht mehr nur für Schnappschüsse da. Sie sind ein wichtiger Teil der Kommunikation geworden.
Denn die Menschheit teilt sich zunehmend visuell mit, über auf sozialen Netzwerken geteilte Fotos, live übertragene Videos und „Selfies“, mittels derer der moderne Mensch sein Selbstbild entwirft.
Das Handy wird zum dritten Auge, mit dem wir nicht nur die Welt, sondern uns selbst wahrnehmen. Die neuen Galaxys verfügen unter anderem über eine Super Slow-Motion-Videofunktion. Damit soll man, so der Hersteller, den Alltag „in packenden Zeitlupenvideos mit 960 Bildern pro Sekunde festhalten“. Unterstützt wird die Funktion durch eine automatische Bewegungserkennung, die Aufnahme kann mit Hintergrundmusik unterlegt oder in je nach Stimmung
Die Software lernt selbstständig dazu
animierte Porträts umgewandelt werden: der Nutzer wird zu seinem eigenen Emoji.
Hinter alldem steckt intelligente Software, die im Falle von Samsung „Bixby“heißt. Sogenannte Deep-LearningTechnologien sammeln ständig Informationen über die Umgebung und blenden sie bei Bedarf live ein. Wer wissen möchte, wie viele Kalorien er sich damit auf die Hüften packt, muss nur noch ein Foto von dem Stück Kuchen machen, das er gleich verzehren will.
In einem Hintergrundgespräch auf der Samsung Developer Conference in San Francisco entwarf Samsung-Vizepräsident Thomas Ko die Vision einer „Intelligenz der Dinge“. Die Software soll demnach nicht mehr nur auf dem Smartphone stattfinden, sondern ein Netzwerk über möglichst viele Geräte hinweg spannen und in Echtzeit mit dem Internet sowie Alltagsgeräten wie Kühlschränken oder Fernsehern kommunizieren.
„SmartThings“nennt Samsung diese globale, autonom lernende Infrastruktur, deren „Gehirn“Bixby darstelle. Um diese Vision Wirklichkeit werden zu lassen, will sich Samsung zunehmend Drittherstellern öffnen. Laut Ko ist das der erste Schritt zur „Demokratisierung des
der Dinge“, die man nur gemeinsam mit anderen Anbietern bewerkstelligen könne. Eine Kooperation mit Google ist erst der Anfang.
Auch der Android-Konzern tüftelt an Technologien, die Smartphone-Kameras intelligenter machen sollen. „ARCore“, eine spezielle Software für Entwickler, wird es Apps ermöglichen, Umgebungen zu interpretieren und Informationen direkt in das von der Kamera erfasste Live-Bild einzublenden.
Eine App namens „Google Lens“steht für Nutzer der englischsprachigen Version von Google Fotos auf Android und iOS bereits bereit. Damit kann man beispielsweise eine
schnelle Suchanfrage starten, welcher Rasse der Hund angehört, der gerade vor einem über die Straße läuft. Mit dem „Google Assistant“lassen sich Erinnerungen auf Grundlage eines Ortes erstellen. Zuhause sagt man dann dem GoogleHome-Lautsprecher einfach, dass man im Supermarkt noch Milch einkaufen muss, und wird vor Ort über das Smartphone automatisch daran erinnert.
Während die Realität mittels „Augmented Reality“erweitert wird, verschmilzt die Hardware immer mehr mit der Umgebung. Randlose Displays und über die Seitenkanten hinweg gezogene Displays wie bei Samsungs Galaxy-MoInternets
dellen sind erste Anzeichen dieser Grenzüberschreitung.
Bei LG arbeitet man derzeit fieberhaft an falt- und zusammenrollbaren Displays. Amazon will seine Sprachassistentin angeblich in eine Brille integrieren. Über ein eingebautes Mikrofon könnte man Alexa dann nach dem Weg fragen oder ein Taxi rufen. Dafür müsste man nicht mal die Adresse des aktuellen Aufenthaltsorts wissen – der mobile Begleiter kennt ihn auch so.
Schon seit einiger Zeit gibt es den Trend des „Quantified Self“, frei übersetzt „vermessenes Selbst“. Die Idee: Körperdaten rund um die Uhr überwachen und auswerten. Das tun smarte Uhren wie die Apple Watch und Fitness-Armbänder wie Huawei Fit oder VivoFit von Garmin schon heute. Apps messen die Herzfrequenz, überwachen den Schlaf und benutzen integrierte LEDLeuchten, um mittels Pulsoxymetrie den Sauerstoffgehalt im Blut zu messen. Sogar der Blutzucker kann ermittelt werden. Mit „Wearables“, intelligenter, am Körper getragener Kleidung, könnte man seine Lebensdaten auf Schritt und Tritt überwachen. Ärzte hätten damit umfassendere Informationen über ihre Patienten als jemals zuvor, in Notfällen wäre schnell Hilfe zur Stelle. Ungeklärt ist bislang allerdings, wie sich solch sensible Daten zuverlässig schützen lassen. Vieles mag heute noch Spekulation sein. Klar ist allerdings, dass Handys immer mehr die Interpretation der Wirklichkeit übernehmen. Schon jetzt gibt es Apps, die Schnappschüsse ins Internet schicken, wo sie mittels spezieller Algorithmen automatisch bearbeitet werden. Zum Einsatz kommt auch dabei künstliche Intelligenz, die das Foto verbessert, mit Filtern versieht oder in ein Gemälde verwandelt. Selbst diesen Umweg wird man wohl bald nicht mehr gehen müssen, die Handys werden das ganz selbstständig tun. Welche Folgen das für unsere Wahrnehmung der Realität hat, kann man nur erahnen. Wer mit seinem eigenen Äußeren unzufrieden ist, könnte dann statt in den Spiegel zu schauen einfach auf automatisch geschöntes Selfies zurückgreifen.