Mensch-Maschine-Interaktion heute und in Zukunft

Im Alltag und in der Industrie übernehmen Technologien und Computersysteme wichtige Aufgaben, sichtbar oder unbemerkt im Hintergrund. Sensoren und Schnittstellen ermöglichen ihre Bedienung. Aber wie kommunizieren und reagieren Nutzer und Computer auf- und miteinander? Die Steuerung der Maschine kann via Berührung, Sprache, Gesten oder auch Virtual Reality (VR)-Brillen erfolgen.

An die Interaktion zwischen Mensch und Maschine haben wir uns längst gewöhnt: Ein Smartphone-Nutzer fragt die digitale Assistentin, wie das Wetter wird, und diese gibt die Antwort. Daheim steuert die menschliche Stimme intelligente Thermostate oder fordert den smarten Lautsprecher auf, “Summer of ‘69“ zu spielen. Ein paar Gesten auf dem Smartphone-Touchscreen genügen, um die Fotos aus Kenia anzusehen und einzelne Bilder zu vergrößern. Chatbots führen in Messengern automatische Dialoge mit Kunden. In der Industrie nutzen Ingenieure VR-Brillen, um geplante Fabrikgebäude begehbar zu machen. Doch damit all das klappt, braucht es eine funktionierende Mensch-Maschine-Interaktion (MMI).

Überblick

Was ist Mensch-Maschine-Interaktion?

Bei der MMI geht es darum, wie Menschen und automatisierte Systeme miteinander interagieren und kommunizieren. Es handelt sich dabei längst nicht mehr nur um klassische Maschinen in der Industrie, sondern um Computer, digitale Systeme oder Geräte für das Internet of Things (IoT). Immer mehr Geräte sind vernetzt und führen Aufgaben automatisch aus. Die Bedienung all dieser Maschinen, Systeme und Geräte muss möglichst intuitiv erfolgen und darf den Nutzer nicht überfordern.

Wie funktioniert die Mensch-Maschine-Interaktion?

Damit die Kommunikation zwischen Mensch und Maschine reibungslos funktioniert, muss es Schnittstellen geben. Gemeint ist damit die Stelle oder Handlung, an der ein Nutzer mit der Maschine in Kontakt tritt. Einfache Beispiele sind Lichtschalter oder Pedale und Lenkrad im Auto: Wenn ein Schalter berührt, das Lenkrad gedreht oder ein Pedal getreten wird, wird eine Aktion ausgelöst. Ein System kann aber auch über Texteingabe via Tasten, eine Maus, Touchscreens, Sprache oder Gesten gesteuert werden.

Gesteuert werden die Geräte entweder direkt: Nutzer tippen dazu auf den Touchscreen des Smartphones oder geben mit der Stimme einen Befehl. Oder die Systeme erfassen ein Bedürfnis der Menschen automatisch: Ampeln schalten von selbst um, wenn ein Fahrzeug die Kontaktschleife auf der Straße überfährt. Bei anderen Technologien geht es weniger um die Steuerung; sie ergänzen Sinnesorgane des Menschen. Ein Beispiel dafür sind Virtual-Reality-Brillen. Darüber hinaus gibt es sogenannten digitale Assistenten: Chatbots etwa antworten automatisch auf Kundenanfragen und lernen kontinuierlich dazu.

Unterschiedliche Kulturen bevorzugen unterschiedliche Umgangsformen: Während in Japan formale Informationen erwartet werden, ist den Nutzern in den USA Freundlichkeit besonders wichtig. In Deutschland darf ein Chatbot schon mal etwas schroffer antworten.

Chatbots und digitale Assistenten

Künstliche Intelligenz und Chatbots in der Mensch-Maschine-Interaktion

Der erste Chatbot Eliza wurde bereits in den 1960er-Jahren erfunden, stieß allerdings schnell an seine Grenzen: Auf Anschlussfragen konnte er nicht antworten. Das hat sich mittlerweile geändert. Heutige Chatbots „arbeiten“ im Kundenservice und geben per Schrift oder Sprache Auskunft etwa zu Abflugzeiten oder Dienstleistungen. Dazu reagieren sie auf Schlüsselwörter, untersuchen die Eingabe des Nutzers und antworten auf Basis von Regeln und Routinen, die vorher programmiert wurden. Moderne Chatbots arbeiten mit künstlicher Intelligenz. Auch digitale Assistenten wie Google Home und Google Assistant sind Chatbots.

Persönliche Terminplanung, Reservieren von Veranstaltungstickets und Online-Shopping: Nutzer sehen in einer Vielzahl an Dienstleistungen Vorteile durch Chatbots.

Sie alle lernen aus den Anfragen und erweitern dabei ihr Repertoire selbständig und ohne direktes Eingreifen eines Menschen. Sie erinnern sich an frühere Unterhaltungen, schaffen Querverbindungen und bauen ihren Wortschatz aus. Googles Sprachassistent kann mit Hilfe künstlicher Intelligenz etwa Anfragen aus dem Kontext erschließen. Je mehr die Chatbots verstehen und je besser sie reagieren, desto mehr entwickelt sich eine Kommunikation, die einem Gespräch zwischen zwei Menschen ähnelt. Auch Big Data spielt hierbei eine Rolle: Je mehr Informationen den Bots zur Verfügung steht, desto konkreter können sie reagieren und treffendere Antworten geben.

Chatbots und digitale Assistenten werden in Zukunft immer wichtiger. Eine Wachstumsrate von 46 Prozent allein bei Assistenten wie Amazons smartem Lautsprecher Echo erwartet das Marktforschungsunternehmen IHS für die kommenden Jahre.

Der Weg zur ausgefeilten Sprachsteuerung

Systeme wie zum Beispiel Alexa, Google Assistant, Google Home oder Microsofts Cortana steuert der Nutzer mit seiner Stimme. Es ist nicht länger notwendig, auf einem Display zu tippen, es genügt, das aktivierende Codewort wie „Alexa“ und zum Beispiel „Mach leiser“ oder „Senke die Temperatur im Schlafzimmer“ zu sagen. Das ist für den Nutzer weniger aufwendig – und intuitiver. „Die menschliche Sprache ist das neue Interface“, prophezeite Microsoft-Chef Satya Nadella schon 2014.

Aber die Spracherkennung funktioniert derzeit noch nicht perfekt. Die Assistenten verstehen nicht jede Anfrage, weil Hintergrundgeräusche stören. Sie können zudem oft nicht zwischen einer menschlichen Stimme und beispielsweise einem Fernseher unterscheiden. Noch 2013 lag die Fehlerquote bei der Spracherkennung bei 23 Prozent, so der amerikanische Elektronik-Branchenverband CTA. 2016 drückten Microsoft-Forscher die Quote erstmals auf unter sechs Prozent. Aber das ist noch nicht genug.

Infineon will die Sprachsteuerung gemeinsam mit dem britischen Halbleiterhersteller XMOS deutlich verbessern. Das Unternehmen liefert Sprachverarbeitungsmodule für Geräte im Internet of Things. Eine neue Lösung, die Infineon und XMOS Anfang 2017 vorstellten, setzt intelligente Mikrofone ein. Mit ihrer Hilfe können Assistenten die menschliche Stimme gezielt inmitten von anderen Geräuschen identifizieren: Eine Kombination aus XENSIV™ Radar- und Silizium-Mikrofonsensoren von Infineon erfasst die Position des Sprechers und seine Entfernung zu den Mikrofonen. Die Spracherfassung erfolgt danach über Fernfeld-Spracherkennungstechnologie von XMOS.

„Wir haben die Fähigkeit, Hintergrundgeräusche noch besser auszublenden – und die Spracherkennung und die Trefferquote deutlich zu erhöhen“, erklärt Andreas Urschitz, Chief Marketing Officer bei Infineon. Die Sprachsteuerung werde damit „auf ein neues Level gehoben“. Nach Einschätzung von Urschitz wird die Bedienung via Stimme in Zukunft zum Beispiel bei smarten TV-Geräten immer wichtiger. Bis 2022 könnte sich der Markt auf 60 Millionen Geräte mit eingebauter Sprachsteuerung erweitern und somit verfünffachen.

Nutzer erhoffen sich durch die zunehmende Verbreitung von Sprachassistenten neben einer grundsätzlichen Erleichterung im Alltag vor allem auch weniger Wartezeit in Hotlines.

Einen weiteren großen Umbruch sieht Andreas Urschitz bei smarten Haushaltsgeräten. Heute werden beispielsweise Staubsaugerroboter über Touchscreens bedient. Doch das ist unpraktisch, weil der Nutzer sich den Geräten nähern muss, um sie zu stoppen. „Wir sehen bereits, dass solche Geräte mittels Sprachsteuerung funktionieren.“ Langfristig werden wir Geräte über Gesten steuern. Ein Handzeichen genügt dann, um den Roboter zu stoppen, so Urschitz. „Die Gestensteuerung ist Teil der Zukunft. Heute arbeiten wir mit XMOS und deren Fernfeld-Spracherkennung, kombiniert mit rauscharmen MEMS-Mikrofonen von Infineon. So können wir die besten Sprachschnittstellen im Markt anbieten.“

Möchten Sie die Entwicklung von Mensch-Maschine-Interkationen mitgestalten? Mehr Informationen zu den Job-Profilen.

Mensch-Maschine-Interaktion ist aktuell eines der spannendsten Themen - und wird in Zukunft eine noch viel größere Rolle spielen. Möchten Sie jetzt daran mitwirken?

Dann bewerben Sie sich bei Infineon, damit Sie mit ihrer Kreativität unsere Technologien weiter vorantreiben. Wir haben Ingenieur-Teams in München, Hong Kong und im Silicon Valley.

Diese arbeiten intensiv an diesem Thema, und Sie können ein Teil davon werden. Über die Jobsuche finden Sie alle momentan verfügbaren Positionen im Bereich Mensch-Maschine-Interaktion.

Unter dem folgendem Link erfahren Sie mehr über Software-Ingenieure bei Infineon – ein typisches Berufsprofil, das sich bei uns mit Mensch-Maschine-Interaktion beschäftigt?

Der Weg zur Gestensteuerung

Die Gestensteuerung hat gegenüber Touchscreens einige Vorteile: Der Nutzer muss das Gerät beispielsweise nicht berühren und kann somit aus der Distanz Befehle erteilen. Als Alternative zur Sprachsteuerung bietet sich die Gestensteuerung nicht zuletzt in der Öffentlichkeit an. Denn in der U-Bahn mit seinem smarten Wearable zu sprechen, könnte so manchem unangenehm sein und für ungewünschte Aufmerksamkeit sorgen. Gestensteuerung eröffnet zugleich die dritte Dimension, weg von zweidimensionalen Benutzeroberflächen.

Google und Infineon haben eine neue Art der Gestensteuerung unter dem Namen „Soli“ entwickelt. Sie setzen dazu auf Radartechnik: Der Radarchip von Infineon kann Wellen empfangen, die vom Finger des Nutzers reflektieren. Bewegt also jemand die Hand, registriert dies der Chip. Google-Algorithmen verarbeiten dann diese Signale. Das klappt sogar im Dunklen, aus der Ferne oder mit schmutzigen Fingern. Für alle Soli-Geräte gelten die gleichen einheitlichen Handbewegungen. Der Soli-Chip kann in allen möglichen Geräten zum Einsatz kommen, etwa Lautsprechern oder Smartwatches. „Ausgereifte Algorithmen, die Bewegungs- und Berührungsmuster nachzeichnen, sowie winzige, hoch integrierte Radarchips können eine Vielzahl von Anwendungen ermöglichen“, sagt Andreas Urschitz. Mit dieser Technologie könnten in Zukunft alle Tasten und Schalter überflüssig werden.

Augmented, Virtual und Mixed Reality

Die moderne Mensch-Maschine-Interaktion geht längst weit über das Bewegen eines Hebels oder Schalters hinaus. Auch Technologien, die die Realität erweitern, können eine Schnittstelle zwischen Mensch und Maschine sein.

Ein Beispiel dafür sind Virtual-Reality (VR)-Brillen. Diese versetzen den Anwender in eine künstlich erzeugte 3D-Welt. Damit erlebt er Computerspiele und 360-Grad-Videos, als wäre er mittendrin. Ein Experiment mit Kindergartenkindern zeigt beispielsweise nachweislich, dass das Erlebnis als solches und nicht als VR-Simulation in Erinnerung behalten wird. Aber auch für professionelle Anwendungen ist das hilfreich: So können etwa Planungsdaten von Maschinen, Anlagen oder Fabriken in der virtuellen Realität greifbar gemacht werden. Bei einigen VR-Brillen wird das Smartphone in die Brillen-Halterung gesteckt und dient als Display. Sensoren im Mobiltelefon oder in der Brille erkennen Kopfbewegungen des Trägers, so dass er sich in der virtuellen Welt umschauen kann.

Bei Augmented-Reality (AR)-Brillen bleibt die reale Umgebung im Blickfeld des Nutzers. Es werden aber zusätzliche, virtuelle Elemente eingeblendet. Das Smartphone-Spiel Pokémon Go zeigte, wie erfolgreich der Mix aus beiden Elementen sein kann. Je nachdem, wohin der Nutzer das Display bewegt, werden andere Figuren angezeigt.

Mixed-Reality (MR)-Brillen wie Microsoft HoloLens gehen sogar noch einen Schritt weiter: Sie verknüpfen Virtual mit Augmented Reality. Die HoloLens ist ein eigenständiger Computer, der 3D-Objekte im realen Raum exakt positionieren kann. Gesteuert wird die Brille durch Gesten und Sprachbefehle. Eine Mixed-Reality-Brille kann Szenarien mit Hilfe von hoher Auflösung realistisch darstellen.

Virtual, Augmented und Mixed Reality werden nicht nur spielerisch eingesetzt, sondern auch in der Industrie 4.0. Apps für Microsofts Hololens ermöglichen zum Beispiel virtuelle Trainings von Technikern. Das Fraunhofer-Institut für Fabrikbetrieb und -automatisierung (IFF) vermietet sein Mixed-Reality-Labor Elbedome an Unternehmen. Auf einer 360-Grad-Projektionsfläche können diese mit Hilfe von sechs Laserprojektoren Maschinen, Fabriken oder komplette Städte darstellen. Entwickler oder Kunden haben so den Eindruck, inmitten der geplanten Fabrik zu stehen.

Ein dreidimensionales Abbild der Umwelt in einer hohen Bildqualität liefert der 3D-Bildsensorchip REAL3™ von Infineon. Er steckt in mobilen Endgeräten, etwa in einigen Smartphones von Asus und Lenovo. Genutzt wird dabei das Time-of-Flight-Prinzip: Der Bildsensorchip misst die Zeitspanne, die ein Infrarot-Lichtsignal von der Kamera zum Objekt braucht und wieder zurück. Die Geräte ermöglichen so einen direkten Zugriff auf Augmented Reality: Sie erkennen mit Hilfe von Motion Tracking die Veränderung der Position, während die Tiefenwahrnehmung Entfernungen von Objekten misst. Räumliches Lernen sorgt dafür, dass die Geräte bereits erfasste Orte wiedererkennen.

Chancen und Herausforderungen

Mit Hilfe moderner Mensch-Maschine-Interaktion werden selbst komplexe Systeme einfacher bedienbar. Die Maschinen passen sich dazu immer weiter an menschliche Gewohnheiten und Bedürfnisse an. Virtual Reality, Augmented Reality und Mixed Reality erlauben ihre Steuerung auch aus der Ferne. So erweitern Menschen ihr Erlebnis- und Handlungsfeld.

Außerdem können Maschinen künftig Signale immer besser interpretieren – und das ist auch notwendig: Das vollständig automatisiert fahrende Auto muss auf die Handzeichen eines Polizisten an der Kreuzung richtig reagieren. Ebenso müssen Roboter in der Pflege die Bedürfnisse von Menschen „einschätzen“ können, wenn diese nicht in der Lage sind, sie selbst auszudrücken.

Je komplexer der Beitrag der Maschinen ist, desto wichtiger ist eine zielführende Kommunikation zwischen ihnen und den Nutzern. Versteht die Technologie den Befehl auch so, wie er gemeint war? Wenn nicht, besteht die Gefahr von Missverständnissen. Folglich funktioniert das System nicht, wie es soll. So produziert eine Maschine beispielsweise Teile, die nicht passen, oder das vernetzte Auto kommt vom Weg ab.

Bei der Entwicklung von Schnittstellen und Sensoren muss immer der Mensch mit seinen Fähigkeiten und Beschränkungen berücksichtigt werden. Die Bedienung einer Maschine darf nicht zu kompliziert sein und nicht zu viel Einarbeitung erfordern. Damit die Kommunikation zwischen Mensch und Maschine reibungslos klappt, braucht es zudem eine minimale Reaktionszeit zwischen Befehl und Aktion. Sonst werden Nutzer die Interaktion nicht als natürlich empfinden.

Eine mögliche Gefahr ergibt sich aus der Tatsache, dass Maschinen eng an Sensoren gekoppelt sind, damit sie gesteuert werden oder automatisch reagieren können. Hat ein Hacker Zugriff auf die Daten, erhält er detaillierte Informationen über Aktionen und Interessen des Nutzers. Manche Kritiker befürchten zudem, dass selbst lernende Maschinen autonom handeln und Menschen bevormunden könnten. Ungeklärt ist bislang auch noch die Frage, wer bei Unfällen haftet, die durch Fehler in der Mensch-Maschine-Interaktion verursacht werden, und wer die Verantwortung dafür trägt.

Ausblick

Wohin entwickelt sich die Mensch-Maschine-Interaktion?

Die Mensch-Maschine-Interaktion ist mit Sprach- und Gestensteuerung sowie Virtual, Augmented und Mixed Reality längst nicht am Ende ihrer Möglichkeiten. In Zukunft werden immer mehr Daten verschiedener Sensoren kombiniert (Sensor Fusion), um auch komplexe Vorgänge zu erfassen und zu steuern.

Gleichzeitig wird es immer weniger der bislang üblichen Eingabegeräte, wie Fernbedienungen, Computertastaturen oder Ein- und Ausschalter geben. Wenn Computersysteme, Geräte und Maschinen ständig hinzulernen und Zugriff auf mehr Daten bekommen, werden sie dem Menschen auch immer ähnlicher: Sie können dann die Aufgabe von Sinnesorganen übernehmen. Eine Kamera ermöglicht das Sehen, ein Mikrofon das Hören, mit Sensoren ausgerüstete Kleidung ermöglicht das Fühlen. Infineon arbeitet daran, die menschlichen Sinne mit Hilfe von Sensoren immer besser nachzubilden, wie Andreas Urschitz erklärt: „Ein Gas-Sensor kann das Riechen nachempfinden, ein Drucksensor den Luftdruck interpretieren, eine 3D-Kamera erweitert die ‚Sehfähigkeit‘ des Geräts.“

Maschinen werden mit Hilfe von Sensoren analysieren, was um sie herum passiert. So ergeben sich völlig neue Interaktionen. Urschitz nennt ein Beispiel: Das Handy mit Gassensor „riecht“, dass in der Nähe ein Burger gebraten wird. Der digitale Assistent empfiehlt dann, einen Blick in die Speisekarte zu werfen, weil ein bestimmter Burger gerade im Angebot ist. Zugleich können Geräte dank wahrnehmungsorientierter Sensoren auch die Körpersprache des Nutzers interpretieren und darauf reagieren.

Maschinen werden künftig aufgrund künstlicher Intelligenz immer intelligenter: Beim maschinellen Lernen leiten Computer aus Daten selbständig Erkenntnisse ab. Das klappt schon heute, zum Beispiel bei digitalen Assistenten wie Amazons Alexa. Wenn aber die Technologie immer mehr Daten in kürzerer Zeit verarbeiten kann, wächst die Fähigkeit zum selbständigen „Denken“ der Maschinen.

Welche Mensch-Maschine-Interaktionen gibt es?

Welche Mensch-Maschine-Interaktionen gibt es?

  • Schalter, Hebel, Lenkräder und Tasten waren vor dem Zeitalter der Informationstechnologie die dominierenden Steuerelemente von Maschinen.
  • Mit der Erfindung der Tastatur kam eine neue Bedienmöglichkeit hinzu: Texteingaben über Kommandozeilen teilten dem System einen Befehl mit.
  • Die Maus erlaubte erstmals eine grafische Steuerung. Bestimmte Felder auf einem Bildschirm konnten angeklickt und so aktiviert werden.
  • Heute befinden wir uns im Zeitalter des Touchscreens: Menschen benutzen ihre Finger, um direkt auf dem Gerät Aktionen auszuführen.
  • Die Eingabe via Multitouch ist ein erster Schritt in Richtung Gestensteuerung. Man zieht zwei Finger auseinander, um etwas auf einem Display zu vergrößern.
  • In Wearables erheben Körpersensoren automatisch Daten, werten sie aus und liefern dem Nutzer Informationen dazu.
  • Gleichzeitig entwickelt sich die Sprachsteuerung immer weiter. Digitale Assistenten wie Amazon Alexa, Microsoft Cortana oder Google Home führen Befehle aus, wenn der Nutzer diese ausspricht.
  • Bei der Gestensteuerung stehen intuitivere Bedienmöglichkeiten zur Verfügung: Um den Fernseher umzuschalten, führt man eine Geste in der Luft aus.

Die wichtigsten Fragen und Antworten im Überblick

Bei der Mensch-Maschine-Interaktion (MMI) geht es darum, wie Menschen und automatisierte Systeme miteinander interagieren. In der Industrie wie auch im Alltag spielt die MMI mittlerweile eine große Rolle, denn: Immer mehr Geräte sind vernetzt und führen Aufgaben automatisch aus. Für die reibungslose Bedienung dieser Maschinen braucht es deshalb eine möglichst intuitive Benutzerschnittstelle. Diese kann ganz unterschiedliche Formen annehmen.

Benutzerschnittstellen bei der MMI sind die Stellen oder Handlungen, an denen der Nutzer mit der Maschine in Kontakt tritt. So kann ein System etwa über Tasten, Maus, Touchscreens, Sprache oder Gesten bedient werden. Ein einfaches Beispiel ist ein Lichtschalter – die Schnittstelle zwischen der Maschine „Lampe“ und dem Menschen. Unterschieden werden kann weiter zwischen der direkten Steuerung, etwa beim Tippen auf einem Touchscreen, sowie einer automatischen Steuerung. Bei letzterer erkennt das System das Bedürfnis des Menschen von selbst. Man denke hierbei an eine Ampel, die umschaltet, sobald ein Fahrzeug die Kontaktschleife auf dem Boden überfährt.

Lange Zeit wurden Maschinen vor allem über Schalter, Hebel, Lenkräder oder Tasten gesteuert, später kamen auch Tastatur und Maus hinzu. Mittlerweile sind wir im Zeitalter des Touchscreens angekommen. Auch Körpersensoren in Wearables, die automatisch Daten erheben, sind moderne Schnittstellen. Gleichzeitig schreitet die Sprachsteuerung zügig voran: So steuert der Nutzer digitale Assistenten wie Amazon Alexa oder Google Assistant bereits mit seiner Stimme. Das bedeutet für ihn deutlich weniger Aufwand. In solchen Systemen werden zudem Chatbots eingesetzt, deren Kommunikation mit dem Menschen dank Künstlicher Intelligenz immer besser wird.

Mindestens genauso intuitiv wie die Sprachsteuerung ist die Gestensteuerung. In Zukunft könnten deshalb beispielsweise Staubsaugerroboter über ein simples Handzeichen gestoppt werden. Google und Infineon haben bereits eine neue Art der Gestensteuerung unter dem Namen „Soli“ entwickelt: Mithilfe von Radartechnik können Geräte so auch im Dunkeln oder aus der Ferne bedient werden. Mittlerweile fungieren auch Technologien, die die Realität erweitern, als Schnittstelle. Virtual-Reality-Brillen versetzen den Anwender dabei in eine künstlich erzeugte 3D-Welt, Augmented-Reality-Brillen blenden hingegen virtuelle Elemente in die reale Umgebung ein. Sogenannte Mixed-Reality-Brillen verbinden beide Technologien und ermöglichen es so, Szenarien mit Hilfe von hoher Auflösung realistisch darzustellen.

Moderne MMI unterstützt den Menschen dabei, selbst sehr komplexe Systeme problemlos zu bedienen. Maschinen können zudem Signale immer besser interpretieren – was gerade vor dem Hintergrund autonomen Fahrens wichtig wird. Auch menschliche Bedürfnisse werden noch treffender erkannt, wodurch etwa der Einsatz von Robotern in der Pflege möglich wird. Eine potentielle Gefahr ergibt sich hingegen daraus, dass Hacker über die Sensoren der Maschinen Informationen über den Nutzer abgreifen könnten. Nicht zuletzt deshalb ist Sicherheit bei der Interaktion zwischen Mensch und Maschine besonders wichtig. Manche Kritiker befürchten zudem, selbstlernende Maschinen könnten durch autonomes Handeln zum Risiko werden. Geklärt werden muss auch, wer bei durch die MMI verschuldeten Unfällen haftet.

Ob Sprach- oder Gestensteuerung, Virtual, Augmented oder Mixed Reality: Die MMI ist noch längst nicht am Ende ihrer Möglichkeiten. Künftig sollen vermehrt Daten verschiedener Sensoren kombiniert werden, um auch komplexe Vorgänge optimal zu erfassen und zu steuern. Mithilfe von z.B. Gas-Sensoren, 3D-Kameras und Drucksensoren werden menschliche Sinne immer besser nachgebildet und damit die Fähigkeiten der Geräte erweitert. Bisher übliche Eingabegeräte wie Fernbedienungen wird es hingegen immer weniger geben.

Letzte Aktualisierung: Januar 2018