Multimedia

Wie KI die Google-Suche noch smarter macht

Beim traditionellen Search On-Event hat Google gezeigt, die die Google-Suche jetzt noch schlauer wird. Etwa, dass sie nach Mode-Mustern suchen kann.

Teilen
1/5
Gehe zur Galerie
    Herzstück der neuen Suchmöglichkeiten bei der Google-Suche ist MUM, das Multitask Unified Model. Künftig soll es dadurch etwa möglich sein, auf das Bild eines T-Shirts zu tippen...
    Herzstück der neuen Suchmöglichkeiten bei der Google-Suche ist MUM, das Multitask Unified Model. Künftig soll es dadurch etwa möglich sein, auf das Bild eines T-Shirts zu tippen...
    Google

    Herzstück der neuen Suchmöglichkeiten bei der Google-Suche ist MUM, das Multitask Unified Model. Künftig soll es dadurch etwa möglich sein, auf das Bild eines T-Shirts zu tippen "und Google auffordern, dasselbe Muster zu suchen, aber auf einem anderen Kleidungsstück, zum Beispiel auf einem Paar Socken", so das Unternehmen. Zwar könne man auch "weiße Socken mit viktorianischem Blumenmuster" eintippen, bei Google Lens soll es aber genau das Muster geben, das man gerade sucht.

    Leichter soll auch die Suche nach Reparatur- und Bedienungsanleitungen werden. Mit dem Suchmodus "point-and-ask" soll man direkt zur Hilfsseite kommen, statt sich durch Kataloge, Ersatzteile und Anleitungen wälzen zu müssen. Neu ist auch der Bereich "Things to know". Google nennt dazu ein Beispiel: Will man die Wohung neu dekorieren und sucht deshalb nach "Acrylbildern", kann die Suche detaillierter erweitern.

    Visuelle Ergebnisseiten kommen

    Google zeigt dann etwa an, wie man Bilder mit Haushaltsgegenständen malt oder wo es Kunstkurse gibt. Neu kommt auch eine visuelle Ergebnisseite dazu, die die Kreativität fördern soll. "Diese visuelle Ergebnisseite eignet sich besonders gut für Suchanfragen, bei denen es um kreative Inspiration geht, zum Beispiel 'Deko-Ideen für Halloween' oder 'Vertikale Gärten für Innenräume'", so Google. Diese Funktion ist bereits heute in den USA verfügbar, soll bald in Europa folgen.

    Visuelle Ergebnisseiten sollen die Kreativität fördern.
    Visuelle Ergebnisseiten sollen die Kreativität fördern.
    Google

    Außerdem sollen KI-Systeme jetzt Videoinhalte analysieren und Links anbieten, über die man mehr über die Videoinhalte erfährt, auch wenn diese nicht ausdrücklich im Video erwähnt werden, aber thematisch dazu passen. Das soll Nutzer auch auf Webseiten bringen, auf die sie mit einem klassischen Surfen nicht gestoßen wären. Und: Google will es einfacher machen, bei großen und kleinen Händlern einzukaufen, durch Links, aber auch durch Wegbeschreibungen.

    So findest du von nun an schneller ans Gate

    Flugreisen sind oft mit vielen Stressfaktoren verbunden – das Packen in letzter Minute, der Stau auf dem Weg zum Flughafen und das Bereithalten aller wichtigen Dokumente kann ganz schön nervenaufreibend sein. Umso mühsamer ist es, wenn man endlich am Flughafen angekommen ist, bereits etwas zu spät unterwegs ist und dann erst das lange Suchen nach dem richtigen Check-in-Schalter, dem Gate oder dem Imbiss-Laden anfängt. Denn Flughäfen sind oft sehr weitläufig und wer sich dort nicht bereits auskennt, kann viel Zeit mit Herumirren verlieren.

    Das soll nun aber ein Ende haben. Möglich wird dies dank einer Zusammenarbeit zwischen dem Flughafen Zürich und Google. Denn seit diesem Sommer funktioniert die Live-View-Funktion von Google Maps auch innerhalb des Flughafengebäudes. So können Reisende mit Hilfe ihres Smartphones und dessen Kamera ganz schnell und einfach die richtigen Wege finden.

    Richtungsangaben direkt anzeigen

    Um dies möglich zu machen, nutzt Google Maps Augmented Reality, also eine erweiterte Realität. Wenn man beispielsweise in der großen Eingangshalle des Flughafens steht und nicht weiß, wie man zum Check-in-2 kommt, gibt man diese Information einfach bei Google Maps ein. Daraufhin klickt man den kleinen "Live-View"-Knopf und hält die Handy-Kamera vor sich. Es dauert nur ein paar Sekunden, bis sich das Handy so im Innern des Gebäudes orientiert hat und dann virtuelle Pfeile in die reale Umgebung hinein projiziert. So kann ganz leicht erkannt werden, ob man eine Rolltreppe in ein anderes Stockwerk nehmen, links abbiegen oder geradeaus durch die Schiebetür hindurch muss.

    Picture

    Live View funktioniert ähnlich wie Google Street Views. So wurde das ganze Gebäude des Flughafens Zürich abgefilmt, was das Erkennen und Lokalisieren der Reisenden für die Smartphones einfacher macht. Um zu berechnen, wo sich eine Person genau befindet, benutzt Live View also eine Mischung aus GPS-Daten und Abgleiche mit der Bilddatenbank des Flughafens.

    Erster Flughafen weltweit

    Der Flughafen Zürich ist weltweit der erste Flughafen, bei dem die Live-View-Funktion eingeführt wurde. "Die Zusammenarbeit mit Google hat es ermöglicht, dass Passagierinnen und Passagiere nun viel schneller und sicherer an ihre Zielorte finden", erklärt Stefan Gross, Chief Commercial Officer der Flughafen Zürich AG. Das sei wichtig, denn für einen Flughafen sei es typisch, dass sich nicht alle Reisenden gut auskennen. "Außerdem ist es dank der neuen Technologie nun möglich, genau zu berechnen, wie lange die Reisezeit von der Haustüre bis hin zum Gate ist."

    Wer die Live-View-Funktion benutzen möchte, muss die Google-Maps-App auf dem Smartphone installiert haben. Anschließend muss man darin nur noch die gewünschte Destination eingeben und auf das Live-View-Symbol klicken. Das Handy öffnet dann automatisch die Kamera, sodass Informationen zum richtigen Weg direkt angezeigt werden können.