Digitale Interaktion 2017 – Challenge accepted

Digitale Interaktion 2017 - Challenge accepted

Ich kann mich noch sehr gut an meinen ersten Computer erinnern. Das war ein Atari 800 XL. Maus? Fehlanzeige. Man konnte den Computer ausschließlich über die Tastatur bedienen, welche gleichzeitig die Rechnereinheit war. Spielen konnte man später mit einem Joystick. Ich hatte auch einen Pen mit einem Grafikprogramm. Damit konnte man am Bildschirm, damals noch ein gewöhnlicher Röhrenfernseher, direkt zeichnen. Noch ein bisschen später dann, war ein Atari ST mein Eigen. Endlich kam ich, neben der Tastatur, in den Genuss einer Maus. Was war das für ein Segen! Zu dieser Zeit konnte ich mir noch gar nicht ausmalen, was da noch für großartige Dinge auf mich zukommen würden.

Schon ein bisschen ein Wahnsinn, was sich im Bereich Human Computer Interaction mittlerweile alles getan hat: Tangible User Interfaces, Multitouch auf Tischinstallationen bis runter zu den kleinsten Gadgets, Sprachsteuerung, Gesture Control, Head Mounted Displays, Google Glass und Augmented Reality…  Unzählige Möglichkeiten und Werkzeuge für Visual- und Interactiondesigner. Wohin wird die Reise noch gehen? Wohin wird sie uns führen? Wirklich voraussagen können wir die Zukunft nicht, dennoch möchte ich kurz meine Gedanken darüber kundtun, was für uns Designer und User in den nächsten Jahren wahrscheinlich eine immer größerer Rolle spielen wird.

Im Prinzip handelt es sich bei jedem Interface um eine Konversation zwischen Mensch und Maschine.

Conversational Interfaces – Flirt with me, honey

Falls du unsere letzten Blogbeiträge verfolgt hast (zum Beispiel den hier oder diesen) wird dir sicher aufgefallen sein, dass bei uns im Haus aktuell das Thema Chatbots ganz groß geschrieben wird. Falls nicht, wirst du sicher trotzdem schon davon gehört haben, denn das Wort „Chatbot“ ist zur Zeit einer der heißesten Begriffe in unserer Branche. Wir sind davon überzeugt, dass Chatbots nicht nur eine hochgehypte Modeerscheinung sind, sondern dass es sich hierbei um ein bedeutendes Zukunftsthema handelt. Conversational Interfaces sind im Kern eigentlich nichts Neues, denn im Prinzip handelt es sich bei jedem traditionellen Interface schlicht um eine Konversation, eine Unterhaltung zwischen Mensch und Maschine. Wurde diese Konversation bis jetzt hauptsächlich über Buttons, Menüs und ähnliche Interaktionsmuster geführt, so ist es nun das Wort, sowie in einer weiteren Ausbaustufe das gesprochene Wort, das den Ton angibt.

Da diese Art der Kommunikation viel natürlicher ist, als jene über “klick Button hier und klick Button da”, bieten Chatbots ein deutlich angenehmeres, frischeres und menschlicheres Nutzungserlebnis. Wir steuern mit diesem Wandel in eine Zukunft, in der traditionelle grafische Interfaces, wie wir sie bisher entworfen haben, teilweise aufgelöst werden. Das ist ein Zeichen dafür, dass sich das Interface- und Interactiondesign der Zukunft nicht um Buttons drehen wird. 

Virtual Reality – Gestensteuerung. Jetzt erst recht!

Den Traum der Schaffung eines audio-visuellen Mediums, welches uns in eine Computer-generierte, dreidimensionale Umgebung eintreten lässt, indem es uns vorgaukelt diese virtuelle Realität sei tatsächlich unsere echte Umgebung, gibt es schon lange. Doch waren in der ersten Welle die Technik noch nicht optimal ausgereift dafür und die User noch nicht bereit dieses Medium anzunehmen. Jetzt sieht es allerdings so aus, als wäre die Zeit des Aufstiegs von VR endlich gekommen (auch hierzu gibt es einen Blogartikel von uns), und damit auch viele neue Herausforderungen für Digital Designer. Die größten Herausforderungen stecken meiner Meinung nach in zwei zentralen Fragen:

  • Wie schaffen wir es, VR-Welten so zu konzipieren und zu kalibrieren, dass wir uns darin natürlich bewegen können ohne an Motion Sickness zu erkranken?
  • Wie und womit schaffen wir es, möglichst nachvollziehbar und natürlich mit Elementen in VR-Welten zu interagieren? Wie können wir die Schlucht zwischen virtueller Schwerelosigkeit und physikalischen Realkräften überbrücken?

Während beispielsweise zur ersten Frage Google schon großartige Vorarbeit geleistet hat, in dem ein erstes Regelwerk zur Gestaltung von VR-Welten mit angenehmer UX konzipiert wurde(mehr dazu hier), stehen wir bei der zweiten Frage eher noch am Beginn der Antwortsfindung. In aktuellen VR-Erlebnissen sind Interaktionsmöglichkeiten spärlich gesät bzw. beschränken sie sich auf das Drücken von Smartphone- oder Controllertasten, bzw. auf das Anstarren von virtuellen Elementen. Das Erlebnis an sich ist fürs Erste ja schon mal sehr cool, aber so richtig natürlich fühlt es sich trotzdem noch nicht an. Wir sind zwar irgendwie in dieser Welt, aber einen echten Körper besitzen wir darin noch nicht. Wir können mit diversen Gesten steuern, die auf ein sehr natürliches Verhalten abzielen, doch an haptischem Feedback, das die ganze Bewegung und Interaktion abrundet, fehlt es. Hier dürfen wir gespannt sein, was uns noch an technologischen Tools zur Verfügung gestellt werden kann, um hoch immersive VR-Welten zu schaffen. In welche Richtung es gehen wird, zeigt dieses tolle Beispiel von den Jungs von Cloud Gate Studio.

Abseits von Virtual Reality forscht Google aktuell an einer natürlichen Gestensteuerung für Mobile Devices, genannt Project Soli. Google hat hier ein äußerst raffiniertes System entwickelt und eine Idee geboren, haptisches Feedback durch den eigenen Körper zu genererieren. Für diejenigen, die es noch nicht kennen, möchte ich dieses feine Projekt and dieser Stelle gar nicht im Detail beschreiben, sondern gleich auf den Link zur Seite verweisen. Das Video dort sagt mehr als 1000 Worte > Google Project Soli 

Brain Computer Interface – Nutze die Macht

Ihr kennt sicher die Szene in Star Wars, in der Luke Skywalker seinen X-Wing aus dem Sumpf heben soll. Das können wir bald auch. Zumindest virtuell. Neuroheadsets ermöglichen es uns, Kommandos mit den elektrischen Signalen von verschiedenen Gehirnwellen-Mustern zu kombinieren. Dadurch können Interaktionen allein über unsere Gedanken initiiert werden. Ordentlich funktionierende Hardware, die für die breite Masse erschwinglich ist, gibt es leider noch nicht. Eines der bekanntesten Headsets von Emotiv ist zwar eine schöne Spielerei, aber richtig zuverlässig funktioniert dieser Apparat nicht. Trotzdem ist dieses Interaktionsgebiet äußerst interessant und wir dürfen gespannt sein, wie die Forschungsarbeiten diesbezüglich weiterverlaufen. EPOC Neuroheadset von Emotiv und Demo-Video.

I will design for food

Mit Conversational Interfaces und VR-Welten gibt es einen Wandel im digitalen Design. Womit haben nun also Designer zu rechnen? Wird ihre Arbeit überflüssig werden? Brauchen wir noch Designer wenn die Zukunftsthemen darauf abzielen, dass sich das klassische Interface verabschiedet? Gerade auch, da es für klassische Interfaces bereits viele ausgereifte usability proven Interaction Design Patterns und Paradigmen gibt, die die Basisarbeit eines Designers bereits abdecken, wie zB. das Material Kit von Google und die Design Guidelines von Apple.

UX Designer werden vom visuellen Erscheinungsbild in Zukunft komplett losgelöst werden.

Designer werden wir immer brauchen. Allerdings wird sich das Skillset der verschiedenen Designer und Designteams weiter entfalten müssen, da wir uns vom Design für Buttons, Taps, Clicks und Screens immer mehr wegbewegen werden. 

Reine Interface Designer werden zunehmend sehr viel konzeptionell arbeiten  und daher ihre konzeptionelle Kompetenz erweitern müssen. Auch die Erweiterung der Skills zu Kenntnissen in Virtual Reality (Augmented und Mixed eingeschlossen) und gewissen Grundkenntnissen zu Storytelling sind zu empfehlen.

UX Designer werden vom visuellen Erscheinungsbild in Zukunft komplett losgelöst werden. Ihre Herausforderung wird vielmehr jene sein, sicherzustellen, dass Produkten und Services ein empathisches Erscheinungsbild verliehen wird und diese so ihre User emotional erreichen, indem deren Sinne gezielt und gekonnt angesteuert werden.

Turn up the empathy

Dadurch, dass Interaktionen immer natürlicher und menschlicher erscheinen, braucht es zudem noch mehr Empathie und ein noch besseres Verständnis der Psychologie des Menschen und deren Verhaltensmustern. Um beispielsweise sicherzustellen, dass sich Chatbot-Konversationen auch wirklich gut anfühlen, bedarf es ausgeprägter Kenntnisse über Dialogführung, Tonalität, Storyscripting, Einfühlungsvermögen darin, wie das Gegenüber Satzpausen und textliche Emotionalität interpretiert. Chatbot klingt anfangs sehr banal, doch wenn nicht erkannt wird, wie viel es hier an feiner Detailarbeit benötigt, wird die Umsetzung schlussendlich an einer miserablen User Experience scheitern.

Das heißt, dass die Teamzusammensetzung für kommende Innovationsprojekte eine andere sein wird, als die klassische Strategen-Konzepter-Designer-und Umsetzer-Konstellation verlangt. Es entsteht ein Bedarf an der Integration neuer Rollen, wie die eines Psychologen, Soziologen oder Anthropologen.

Wir werden 2017 einen Schwung und Shift im Design erleben. Visual Design küsst UX Design. UX Design küsst Service Design. Neue Rollen bereichern das Gesamt-Know-How und erweitern unsere Möglichkeiten. Ich freue mich auf ein aufregendes und lehrreiches Jahr, wo jeder von uns über sich hinauswachsen wird.

Über den Autor

Juergen

Meine Rolle bei Liechtenecker:

Coach, Trainer, Meditations- und Achtsamkeitslehrer

Wenn es weder IT noch Digitalisierung oder Meditation gäbe, wäre mein Beruf:

Yogimeister


Mein Herz schlägt für:

Meine Familie, mein tolles Team, alle Menschen

Du hast etwas zum Artikel zu sagen? Schreibe es nieder

Schreibe einen Kommentar

Kommentare