HP ist gescheitert an dem Versuch, ein OS für Tablets, Smartphones und PCs zu entwickeln, befindet Garter. Und die Gartner-Analysten sind sich sicher, dass auch Microsofts Spitzenstellung im OS-Markt ins Wanken gerät - wenn nicht Windows 8 ein Multitouch-Erlebnis auf Augenhöhe von iOS und OSX Lion bringt. Das schreibt Gartner in seinem jüngst erschienen Special-Report "iPad and Beyond: What the Future of Computing Holds".
Die These der Analysten: In fünf bis zehn Jahren hat das Tablet unsere Computer-Landschaft so weit umgekrempelt, dass wir die Flachrechner zum Steuern von Fernsehern und Waschmaschinen nutzen, dass sie Blutdruck messen und mit unseren heutigen PCs verschmelzen. Multitouch macht’s möglich, ist aber nur der Anfang neuer Interaktions-Formen von Mensch und Maschine.
Restaurants mit Touchscreen-Tischen
-
Erweitern: Tablets vernetzen sich mit den Geräten, die wir bisher nutzen, und erweitern sie zu einem Ensemble. Ans Telefon gehängt, ermöglichen sie Video-Konferenzen. Verkäufer können Bestellungen überall im Laden aufnehmen und eingeben. Und wer seinen Flach-Rechner mit der Badezimmer-Waage, dem Blutdruck-Messgerät und Oximeter verknüpft, holt sich eine eigene kleine Arztpraxis nach Hause.
-
Verschmelzen: Gartner glaubt, dass der Computer-Markt sich dank der Tablets in drei Sparten ausdifferenziert. Ultradünne und leichte Notebooks wie das von Intel angekündigte Ultrabook bedienen die mobilen Arbeiter, während All-in-One-Geräte mit großen Touchscreen daheim zum Beispiel ins Arbeitszimmer kommen, mal in die Küche wanderen und auch mal einen Film per IPTV streamen. Die dritten im Bunde sind riesige Touch-Displays, die in Tische, Wände oder Kiosks eingelassen werden - für Gesellschaftsspiele, die Speisekarte im Restaurant oder für die Kundenberatung im Geschäft.
Multitouch ist nur der Anfang neuer Interaktions-Formen zwischen Mensch und Maschine. Schon arbeiten Forscher an haptischen Touchscreens, die Texturen zum Beispiel in Spiele einbauen - so dass Buttons sich anfühlen, als wären es echte Knöpfe zum Draufdrücken. Und wenn Computer Handzeichen ganz ohne Touch-Display erkennen, scheuchen Logistiker bald mit wenigen Gesten führerlose Gabelstapler durchs Lager.
Gehirnströme und Wutausbrüche messen
Von dort ist es nur noch ein kleiner Schritt zur Verhaltenserkennung. Der Computer erkennt, wenn Senioren daheim stürzen und ruft den Rettungsdienst. Auch Big Brother profitiert, wenn die Videoüberwachung automatisch Ausschau nach möglichen Taschendieben und Terroristen hält. Aus dem Verhalten lässt sich auch auf Gefühlszustände schließen - so dass Autocomputer auf lautes Fluchen und Gestikulieren mit beruhigender Musik reagieren könnten. Und wenn der Fahrer gähnt, peitschen sie ihn mit Musik wieder an. Obwohl - eine kleine Pause und frische Luft schaden sicher auch nicht.
Wer seine Hände nicht bewegen kann, sitzt Tastatur und Maus chancenlos gegenüber. Eine Computer-Steuerung per Eye-Tracking eröffnet da neue Möglichkeiten - aber auch für die Werbe-Industrie, die die Verweildauer von Blicken bei ihren Botschaften auf PC und Fernseher messen könnte. Sprachsteuerung wirkt dagegen wie ein alter Hut - besonders, wenn Apple das iPhone 4S jetzt mit der Diktierfunktion Siri ausstattet.
Noch weiter geht die Verschmelzung, wenn Sensoren Gehirnströme oder den Blutzuckerspiegel messen, um bei Schlaganfall und Zuckerschock den Notarzt zu holen. Fast perfekt ist die Symbiose mit einer Roboter-Arm-Prothese, die durch Nerven-Schnittstellen gesteuert wird.
Dieser Artikel basiert auf einem Beitrag der CW-Schwesterpublikation CIO.