Weltweit erste Radar-basierte Schlüsseltechnologie für den Durchbruch von „Augmented Reality“

  •   Erstmalig wurden  zwei Produkte für Endverbraucher vorgestellt, die sich – allein durch Handbewegungen – exakt bedienen lassen
  •   Google und Infineon werden  die zugrunde liegende Technologie gemeinsam ab Mitte 2017 kommerziell vermarkten
  •   Gestensteuerung bildet die Schlüsseltechnologie, um „Augmented Reality“ zum Durchbruch zu verhelfen

Ansätze zur „Augmented Reality“, der Verschmelzung von physischer und simulierter Wirklichkeit, gibt es viele. Woran es bislang fehlte: die schnelle, intuitive Übertragung von Befehlen an den Computer. Bislang haben berührungsempfindliche Touchscreens vielfach Beachtung gefunden. Hier muss der Nutzer stets auf „Tuchfühlung“ mit dem Computer. Auf der anderen Seite steht die Spracherkennung: Sie erlaubt größere Flexibilität, ist aber meist auf individuelle Nutzer beschränkt.

Diese Lücke schließt die gestenbasierte Steuerung von Geräten per Handzeichen. Die Gestensteuerung eröffnet damit die 3. Dimension, weg von der zweidimensionalen Benutzeroberfläche. Entwickelt wurde sie in den letzten beiden Jahren von Google und Infineon, unter der internen Bezeichnung „Soli“: Ein 9 x 12.5 mm großer Radar-Chip von Infineon sendet und empfängt Wellen, die vom Finger des Benutzers reflektieren. Feine Handbewegungen, als würde das Rädchen einer Uhr aufgezogen. Was der Chip technisch leistet, dazu brauchte es vor wenigen Jahrzehnten noch eine Parabolantenne von 50 m Durchmesser.

Weitere einzigartige Vorteile der Radartechnologie sind:

  • Lichtunempfindlich und damit in Dunkelheit einsetzbar
  • Kann über Kunststoffmaterialien wie Polycarbonat übertragen
  • 3D-Gestenerkennung möglich
  • Die Erkennung von überkreuz stehenden Fingern
  • Sub-Millimeter-Auflösung mit Mikro-Doppler und Zeitanalyse

Der Chip ist „made in Regensburg“. Er vereint den Erfahrungsschatz von mehr als zwei Jahrzehnten in der Hochfrequenz-Mikrotechnologie. Das klingt beeindruckend – und ist doch erst komplett mit dem Algorithmus, der den erfassten Daten Leben einhaucht. Hier kommt das Team von Google ATAP ins Spiel, die Kurzform für „Advanced Technology and Projects Group“. Seite an Seite mit den Ingenieuren von Infineon haben die Software-Spezialisten so lange geforscht und entwickelt, bis aus der Nischen-Anwendung ein handfestes Produkt  mit Potenzial für den Massenmarkt wurde.

Bühne frei: Die neue Smartwatch von LG und der JBL Wireless Speaker

Erstmalig gibt es nun zwei Endprodukte, die sich – allein durch Hand-bewegungen – exakt bedienen lassen und  ab 2017 für jeden zu haben sind: Auf der „Google I/O“, der jährlichen Entwicklerkonferenz im kalifornischen Mountain View, stellte Google eine neue Smartwatch des Geräteherstellers LG vor und einen „Wireless Speaker“ der High-End-Lautsprechermarke JBL. Beide enthalten das revolutionäre Feature und lassen sich bedienen trotz unruhiger Jogger-Hände oder teigiger Finger des Hobby-Kochs. Im Herzen haben beide den Infineon-Chip und die Software von Google. Ab Sommer 2017 werden die beiden Unternehmen die Hardware und Software als eine Lösung gemeinsam vermarkten.

„Die Gestenerkennung bietet den Rahmen, um die Interaktion von Mensch und Maschine zu revolutionieren, um Geräte erstmals in einer räumlichen Dimension zu bedienen“, schwärmt Ivan Poupyrev, technischer Leiter von Google ATAP. „Damit wird die Lücke zwischen berührungsabhängiger Bedienung und Spracherkennung durch eine komfortable Alternative geschlossen.“

Für alle Hersteller, die den Soli-Chip verwenden, wurden einheitliche, intuitive Handbewegungen geschaffen, die sich weltweit gleich verwenden lassen. Alle Arten von Tasten und Schaltern lassen sich dadurch ersetzen und machen die Geräte aus der Entfernung bedienbar: „Vor 2,4 Millionen Jahren begannen Menschen, Werkzeuge zu gebrauchen“, sagt Andreas Urschitz, Leiter der Division Power Management & Multimarket bei Infineon. „Erstmals in der Geschichte richten sich nun die Werkzeuge auf ihren Benutzer ein, statt umgekehrt.“

Einzigartige Anwendungen. Für ein paar hundert Millionen Nutzer.

„Ausgereifte Algorithmen, die Bewegungs- und Berührungsmuster nachzeichnen, sowie winzige, hoch integrierte Radarchips können eine Vielzahl von Anwendungen ermöglichen“, sagt Urschitz. Dementsprechend haben Google und Infineon mit der gemeinsamen Technologie zahlreiche Märkte im Blick.

Home-Entertainment und Mobil-Geräte, Anwendungen für das so genannte Internet der Dinge (Internet of Things oder IoT) und als Schlüsseltechnologie für Augmented reality.

Auf der Grundlage von Branchendaten, schätzt Infineon den Gesamtzielmarkt für kabellose Lautsprecher mit Gestensteuer im Jahr 2016 auf 80 Millionen Stück. Entsprechend groß ist das Potenzial für den Absatz von Smartwatches mit Gestensteuerung: 60 Millionen Stück, ebenfalls im Jahr 2016. Tendenz steigend.

LG und JBL könnten einige Bewegung in ihre jeweiligen Märkte bringen. Doch der Ehrgeiz der Entwickler reicht weiter: „Unser Ziel ist es, einen neuen Branchenstandard zu definieren,“ sagt Poupyrev, „mit einer überwältigenden Performance und einem völlig neuen Anwender-Erlebnis. Wir wollen einer zentralen Technologie zum Durchbruch verhelfen, die Augmented Reality und IoT ermöglicht.“

Virtuelle Realität ist nicht neu. Technologisch schafften die Anwendungen bislang jedoch nicht mehr, als „neue Wirklichkeiten“ darzustellen – interagieren konnten die Nutzer damit nicht. Die 60-GHz-Radar-Anwendung von Google und Infineon schließt die Lücke. Vielleicht gehen wir dadurch in wenigen Jahren so selbstverständlich mit Hologrammen um wie heute mit einem Buch oder Tablet.

Videos


Sehen Sie das Video zu den neuesten Anwendungen von Soli



Video Project Soli (Google IO 2015)