Google setzt auf künstliche Intelligenz
Entwicklerkonferenz. Künftig will Google hauptsächlich auf maschinelles Lernen und künstliche Intelligenz setzen
Der Durchbruch von Smartphones hat zu grundlegenden Veränderungen im Leben der Menschen geführt. Kaum ein Aspekt blieb unangetastet: Die Geräte verändern, wie wir miteinander interagieren, wie wir uns unterhalten, wie wir arbeiten, wie wir Medien konsumieren.
Mitverantwortlich für den Siegeszug der Smartphones war unter anderem der Suchmaschinenkonzern Google, der nun die nächste große Revolution im Umgang mit Technik ortet: Im Mittelpunkt sollen maschinelles Lernen und künstliche Intelligenz (KI) stehen, wie Google-Chef Sundar Pichai zum Auftakt der jährlichen Entwicklerkonferenz I/O im kalifornischen Mountain View vor 7000 Software-Entwicklern erklärte.
Massiver Wandel
Bisher habe Google bei der Entwicklung von Geräten und Diensten alles unter die Prämisse „mobile first“gestellt, also Smartphones an erster Stelle. Nun werden Smartphones aber von künstlicher Intelligenz abgelöst. Das bedeutet, dass KI beim Technologiekonzern einen massiven Wandel auslöst: „Wir überdenken all unsere Produkte, um maschinelles Lernen und KI einfließen zu lassen“, so Pichai.
Google ist nicht der einzige IT-Konzern, der künstliche Intelligenz in den Fokus rückt. Auch Microsoft hat im Rahmen seiner Entwicklerkonferenz Build in Seattle KI in den Mittelpunkt gerückt (der KURIER hat berichtet). KI soll grundlegend verändern, wie Menschen mit Technik interagieren. Anstatt zu tippen soll man natürlich sprechen können, mithilfe von Kameras sollen die Geräte wie ein Mensch sehen können. „Sprache und Sicht werden für Computer so wichtig wie die Tastatur oder Touchscreens“. Basis für die künstliche Intelligenz sind neuronale Netzwerke aus Computern, die ähnlich wie das menschliche Gehirn funktionieren. Im Zentrum von Googles KI-Bemühungen steht unter anderem der Google Assistant.
Der digitale Assistent soll den Alltag vereinfachen, indem man ihn über natürliche Sprache steuern kann. So kann man Termine erstellen, Freunde kontaktieren, aber auch eine Pizza bestellen oder einen Tisch in einem Restaurant reservieren. Nun wurde der Assistent auch mit „Google Lens“ausgestattet, einer Funktion, die den Inhalt von Fotos automatisch erkennt und dazu passende Informationen liefert. Als Beispiel wird etwa das Erkennen von Pflanzen genannt. Aber auch Orte wie Restaurants kann man einfach fotografieren, um anschließend Dinge wie Speisekarten geliefert zu bekommen. Das Handy lernt so sehen, man muss ihm als Nutzer nur etwas „zeigen“. „Der Punkt ist, dass man nichts lernen muss, damit das funktio- niert“, so Pichai. Doch KI soll in unserem Alltag auch viel simplere Aufgaben lösen. Eine neue Funktion in Gmail analysiert etwa den Inhalt von eMails und schlägt automatisch passende Antworten vor. Schreibt etwa ein Kontakt, „wollen wir uns um 15:00 treffen“, kann man mit einem Klick darauf mit „Klingt gut, ich werde da sein“antworten. Auch hier steht ein komplexes Netzwerk aus Computern im Hintergrund.
Vermarktung
Kernaufgabe von KI ist es, auf natürliche Art und Weise zu verstehen, was wir wollen, um uns die Informationen möglichst rasch liefern zu können. Doch KI soll nicht nur uns, sondern auch den Vermarktern helfen. Werbung könnte wesentlich zielgerichteter geschaltet werden, wenn Systeme besser in der Lage sind vorauszusagen, was wir uns wünschen und was wir demnach mit hoher Wahrscheinlichkeit kaufen könnten. Google beschäftigt sich aber auch damit, wie neuronale Netzwerke große Probleme lösen könnten: So arbeitet der Konzern unter anderem an einem Projekt, bei dem Krebs dank KI schneller und zuverlässiger erkannt werden kann, als durch konventionelle Methoden.
Außerdem startet Google demnächst eine Job-Suchmaschine, die Menschen, die nach Arbeitsplätzen googeln, mithilfe von künstlicher Intelligenz passende offene Stellen vorschlägt. Vorerst ist der Dienst allerdings nur innerhalb der USA verfügbar.