http://jendryschik.de

Usability und Webstandards

Suche
SucheMenü

Web Squared: Web 2.0 nach 5 Jahren

Das Web begegnet der Welt: Der »Informationsschatten« und das Internet der Dinge

Beim Begriff »sensorbasierte Applikation« denken viele Leute sofort an eine Welt voller Applikationen, die mittels RFID-Tags oder ZigBee-Modulen gesteuert werden. Eine solche Zukunft ist noch weit entfernt angesichts der wenigen aufregenden Applikationen und Testfällen, die wir derzeit haben. Aber viele Leute übersehen, wie weit fortgeschritten die Sensor-Revolution tatsächlich ist! Sie ist die Geheimwaffe des Mobilmarkts und seine allergrößte Chance.

Heutige Smartphones verfügen über Mikrofone, Kameras, Bewegungs-, Umgebungs- und Ortungssensoren (GPS, Triangulation, teilweise auch ein Kompass). Diese Sensoren haben die Benutzerschnittstelle von Programmen revolutioniert! Sie brauchen nur eine Weile mit Ocarina von Smule auf dem iPhone herumzuspielen, dann können Sie das nachvollziehen.

Aber denken Sie daran: Mobile Applikationen sind verbundene Applikationen. Die grundlegenden Erkenntnisse des Web 2.0 beziehen sich auf jede Internet-Applikation, egal ob im Web oder auf Mobiltelefonen (und die Grenze dazwischen wird zunehmend unschärfer). Sensorbasierte Applikationen können so gestaltet werden, dass sie besser und nützlicher werden, je mehr Personen sie nutzen und je mehr Daten geliefert werden. Die Spracherkennung in Google Mobile App ist eine Beispiel dafür. Neue internetbasierte GPS-Programme verfügen ebenfalls über eingebaute Kommunikationskanäle, die ihre errechnete Geschwindigkeit an einen Server schickt und die Werte dazu verwendet, Ihre Ankunftszeit abzuschätzen in Beachtung des vor Ihnen liegenden Verkehr. Heutzutage werden Verkehrsmuster größtenteils geschätzt, aber zunehmend werden sie in Echtzeit gemessen.

Die Intelligenz des Webs wächst schneller, als Sie vielleicht denken. Nehmen Sie als Beispiel das Geotagging von Fotos. Früher brauchten Nutzer ihren Computern die Verbindung zwischen Fotos und Orten mittels Tagging bei. Heute erkennen viele Kameras den Ort selbst und versehen jedes Foto automatisch mit Geodaten, und dies mit größerer Präzision, als Menschen es vollbringen könnten.

Je präziser ein Datensatz wird, desto mehr können Programme anfangen. Beachten Sie die Genauigkeit der Karten, die mit Hilfe von mit Geodaten versehenen Flickr-Fotos erstellt werden.

Wie genau können diese Fotos wohl werden, wenn es Milliarden von Fotos gibt?


Flickr Geotag-Karte der USA


Flickr Geotag-Karte von Texas

Obwohl sie noch in den Kinderschuhen steckt, ist die Gesichtserkennung in Apple iPhoto ‘09 schon ziemlich gut. Wann sind genügend Gesichter mit dem Namen der jeweiligen Person verschlagwortet, dass das System in der Lage ist, Ihnen wirklich nur die Leute zu zeigen, die es nicht erkennt?

Die Reiseführer-Applikation Wikitude für Android treibt die Bilderkennung noch weiter. Richten Sie die Kamera des Telefons auf ein Denkmal oder eine andere Sehenswürdigkeit, und die Applikation sicht danach in ihrer Online-Datenbank. (Indem es die Frage beantwortet: Was gibt es hier, das so aussieht?) Die Kamera zeigt Ihnen auf ihrem Bildschirm dasselbe, was Sie sehen, sodass es so aussieht wie ein Fenster, allerdings mit einer kleinen Anzeige mit weiteren Informationen über das Objekt, das Sie sich gerade anschauen. Das ist ein erster Blick in die Zukunft der »erweiterten Realität« (Augmented Reality). Das Telefon nutzt den Kompass, um herauszufinden, wohin Sie blicken. So können Sie das Gerät dazu verwenden, die Umgebung abzutasten und nach interessanten Dingen in Ihrer Nähe zu suchen.


Mobility-Website

Layar führt die Idee noch ein wenig weiter, indem es ein System von mehreren Ebenen »erweiterter Realität« anbietet, die über die Kamera Ihres Mobiltelefons zugänglich sind.

Sensorbasierte Applikationen geben Ihnen »Superkräfte«. Darkslide gibt Ihnen »Superaugen«, indem es Ihnen Fotos von Ihrer Umgebung zeigt. Twitter-Applikationen auf dem iPhone geben Ihnen ein »Supergehör«, indem sie Tweets in Ihrer Nähe finden, wodurch Sie ein »Supergehör« bekommen und Gespräche in Ihrer Umgebung belauschen können.

Alle diese Durchbrüche bestätigen die Beobachtung von Mike Kuniavsky von ThingM: Objekte aus der realen Welt werfen »Informationsschatten« im Cyberspace. Zum Beispiel wirft ein Buch Informationsschatten bei Amazon, bei Google Books, bei Goodreads, Shelfari und LibraryThing, bei eBay und bei BookMooch, bei Twitter und in Tausenden von Blogs.

Ein Musikstück wirft Informationsschatten bei iTunes, Amazon, Rhapsody, MySpace oder Facebook. Eine Person wirft Informationsschatten in zahlreichen E-Mails, Instant-Messages, Telefongesprächen, Tweets, Blog-Beiträgen, Fotografien, Videos und Regierungsdokumenten. Alles hat Informationsschatten: ein Produkt im Supermarktregal, ein Auto beim Händler, eine Palette mit Eisenwaren auf dem Ladedock, ein Schaufenster an der Hauptstraße einer kleinen Stadt.

In vielen Fällen sind diese Informationsschatten mit den Objekten aus der wirklichen Welt über eindeutige Bezeichner verbunden: eine ISBN oder ASIN, eine Bestellnummer, eine Fahrgestellnummer, eine Seriennummer oder – um etwas persönlicher zu werden – eine Sozialversicherungsnummer. Für andere Dinge gibt es keine eindeutigen Bezeichner, aber Identität kann trianguliert werden: ein Name mit einer Adresse, Telefonnummer oder einem Foto; ein Telefongespräch von einem bestimmten Ort aus; all dies macht es heute schwierig, ein wasserdichtes Alibi zu haben.

Viele Menschen, die über das »Internet der Dinge« reden, gehen davon aus, dass es eine Kombination aus RFID-Nummern und IP-Adressen für alltägliche Objekte sein wird, die uns dort hin führt. Dem liegt die Annahme zugrunde, dass jedes Objekt einen eindeutigen Bezeichner haben muss, damit das Internet der Dinge funktionieren kann.

Das Weg 2.0 zeigt uns, dass wir zum Internet der Dinge gelangen werden über einen Mischmasch aus Sensordaten, die selbstlernende Applikationen füttern, die daraus schrittweise mehr und mehr Sinn erzeugen. Eine Flasche Wein in Ihrem Supermarktregal (und jedes andere Objekt) braucht keine RFID, um Teil des Internets der Dinge zu sein. Es reicht vollkommen, wenn Sie das Etikett fotografieren. Ihr Mobiltelefon, Bilderkenung, Suche und das »Sentient Web« (das »empfindsame Web«) werden den Rest erledigen. Wir brauchen nicht darauf zu warten, dass jeder Supermarktartikel eine eindeutige maschinenlesbare ID bekommt. Wir kommen schon heute zurecht mit Barcodes, Tagging von Fotos und anderen »Hacks«, die ein einfacher, aber funktionierender Weg sind, Dinge zu identifizieren.

Jeff Jonas hat eine interessante Tatsache festgestellt. Er sammelte Daten aus verschiedenen Quellen über bekannte Personen aus den USA und baute daraus eine eigene Datenbank auf. Irgendwann erreichte die Datenbank den Punkt, an dem sie selbst dazulernte und neue Eingaben die Datenbank nicht mehr größer, sondern kleiner machten. 630 Millionen Daten plus 30 Millionen Daten ergaben nur noch 600 Millionen Daten. Dafür sorgten ausgeklügelte Gleichungen zur Kontexterkennung, die irgendwann anfingen, ihren Zauber zu tun.

Wenn die Informationsschatten dunkler werden, umfangreicher, dann werden detaillierte Metadaten zunehmend überflüssig. Unsere Kameras und Mikrofone sind dabei, die Augen und Ohren des Webs zu werden, unsere Bewegungs- und Umgebungssensoren seine Eigenwahrnehmung, GPS sein Ortssinn. In der Tag, das Baby ist dabei, zu wachsen. Das Internet und wir begegnen einander.

Dieses Phänomen ist übrigens nicht auf das Verbraucher-Web beschränkt. IBMs Initiative »Smarter Planet« und das Projekt »planetary skin« von der NASA und Cisco zeigen, wie tiefgreifend sich die Wirtschaft durch das sensorische Web verändern wird. Ölraffinerien, Stahlminen und Fabriken werden mit Sensoren ausgestattet sein, die auf denselben Algorithmen für maschinelles Lernen basieren, wie wir sie heute schon in Web-Applikationen sehen.

Wie es häufig so ist, lässt sich die Zukunft nicht in den Plänen und Ankündigungen großer Unternehmen ablesen, sondern in klugen Verbesserungen durch kleine »Early-Adopters« und »Alpha Geeks«. Radar-Blogger Nat Torkington hat die Geschichte eines Taxifahrers erzählt, den er in Wellington, Neuseeland, getroffen hat. Der Fahrer notierte sich sechs Wochen lang jede einzelne Fahrt (GPS, Wetter, Passagiere und drei weitere Variablen), gab die Daten in seinen Computer ein und berechnete aus den Daten, wo er zu welcher Tageszeit stehen muss, um seine Einkünfte zu maximieren. Das Ergebnis dieser Bemühungen war ein im Vergleich zu anderen Taxifahrern wesentlich angenehmeres Leben mit deutlich weniger Arbeit. Es zahlt sich aus, die Welt mit mehr Möglichkeiten auszustatten.

Die Analyse von Daten, deren Visualisierung und andere Techniken, um Muster in Daten zu entdecken, werden zunehmend nützlich. Arbeitgeber, achtet darauf!

Eindeutige Bezeichner sind weiterhin wichtig, vor allem für »austauschbare« Objekte, die Instanzen einer bekannten Klasse sind wie ein Buch oder eine Musiksammlung. Aber die Erfahrung zeigt, dass formelle Systeme weit weniger mächtig sind, um Daten mit Bedeutung zu versehen, als informelle Systeme, die die Bedeutung von selbst annotieren können durch Erkennung bestimmter Merkmale. Eine ISBN stellt einen eindeutigen Bezeichner für ein Buch dar, aber die Kombination aus Titel und Autor identifiziert das Buch ausreichend präzise.

Vielleicht entstehen bald Projekte, die unverarbeitete Sensordaten systematisch kategorisieren, wie es das Astrometry-Projekts vor hat, dessen Gründer sich auf die Fahne geschrieben haben: »Wir bauen eine Astrometrie-Engine, um korrekte, standardkonforme astrometrische Metadaten zu erzeugen, für jedes nützliche astronomische Bild, das jemals gemacht wurde und werden wird.« Der Flickr astrotagger bot nutzt diese Engine, um bei Flickr nach Bildern von astronomischen Objekten zu fischen und ihnen passende Metadaten zuzuweisen, die die Suche nach diesen Bildern erleichtern. Der Service lässt sich mit CDDB vergleichen: Ein Lookup-Service, der chaotische Sensordaten geordnet in einer Lookup-Datenbank ablegt.

Es ist immer so, dass die ersten nützlichen Anwendungen einer Technologie von Enthusiasten kommen. Aber häufig läuten sie damit ein neues Zeitalter ein, in dessen Verlauf Unternehmen diese Technologien auf neue Geschäftsfelder anwenden. Je mehr die Welt mit Sensoren ausgestattet wird, desto mehr erstaunliche Entwicklungen wird es geben, um aus den gewonnen Daten Informationen zu gewinnen und Nutzen zu ziehen.

Betrachten wir das sogenannte »intelligente Versorgungsnetz« (smart electrical grid). Wie Gavin Starks, Gründer von AMEE, einem neutralen Web-Service-Backend für Energiesensordaten, bemerkte, fanden Forscher, die die Messdaten von 1,2 Millionen Haushalten in UK durchkämmt haben, heraus, dass jedes Haushaltsgerät eine einzigartige Energiesignatur aufweist. Dadurch ist es nicht nur möglich, den Stromverbrauch jedes Geräts zu ermitteln, sondern auch den Hersteller und das genaue Modell – sozusagen CDDB für Haushalts- und Unterhaltungselektronik!

Die Generierung strukturierter Daten aus unstrukturierten Daten wird eine Schlüsselkompetenz des Web² sein.