Web Squared: Web 2.0 nach 5 Jahren

Deutsche Übersetzung des Web Squard White Paper von Tim O’Reilly and John Battelle, das im Vorfeld der Konferenz »Web 2.0 Summit 2009« erschienen ist, die vom 20.–22. Oktober 2009 in San Francisco, Kalifornien, stattfand. Die Übersetzung kann Übersetzungsfehler enthalten.

Vielen Dank an Stephen Stewart für seine Hilfe bei der Übersetzung.

Vor fünf Jahren haben wir eine Konferenz ins Leben gerufen, die auf einer einfachen Idee basierte, die zu einem weltweiten Phänomen wurde. Die ursprüngliche Web-2.0-Konferenz (mittlerweile Web 2.0 Summit) sollte das Vertrauen in eine Branche wieder herstellen, die ihre Ziele nach der Dotcom-Pleite aus den Augen verloren hatte. Wir vertraten damals die Meinung, dass das Web alles andere als erledigt war, sondern auf dem Weg, eine stabile Plattform für kulturverändernde Programme und Services zu werden.

Wir fragten uns, warum einige Unternehmen die Dotcom-Pleite überlebt haben, während andere untergegangen sind. Darüber hinaus schauten wir uns einige aufstrebende Startups genauer an und untersuchten, weshalb sie so schnell wuchsen. Unsere Erkenntnisse halfen uns dabei, die Geschäftsregeln dieser neuen Plattform zu verstehen.

Die wichtigste Erkenntnis war, dass die Idee des »Netzwerks als Plattform« mehr bedeutet, als lediglich alte Applikationen übers Internet bereit zu stellen (software as a service). Es bedeutet vielmehr, Applikationen zu entwickeln, die besser werden, je mehr Menschen sie nutzen. Und es bedeutet, von den Nutzern zu lernen und auf deren Mitwirkung aufzubauen, anstatt einfach nur zu versuchen, immer mehr Nutzer anzuhäufen.

An Diensten wie Google, Amazon, Wikipedia, eBay und Craigslist sehen wir, dass deren Nutzen zwar durch Software ermöglicht wird, aber vor allem durch die Gemeinschaft der Nutzer entsteht. Auf andere Weise zeigen dies auch neue große Plattformen wie YouTube, Facebook und Twitter. Der Begriff »Web 2.0« steht dafür, kollektive Intelligenz zu nutzen (siehe den Artikel What Is Web 2.0).

Applikationen aus dem Bereich der kollektiven Intelligenz verwalten, verstehen und reagieren in Echtzeit auf große Mengen benutzergenerierter Daten. Daten wie Ortsangaben und Identitäten von Personen, Produkten, Orten und Plätzen sowie die Bedeutungen, die diese Daten miteinenader verbinden, bilden die Bestandteile eines neuen aufstrebenden »Internet-Betriebssystems«. Daten sind das »Intel Inside« der nächsten Generation von Computer-Applikationen.

Aus heutiger Sicht lagen wir mit unseren Erkenntnissen richtig. Aber darüber hinaus haben sich andere, spannende Dinge entwickelt, mit denen wir im Jahr 2004 nicht gerechnet hatten. Die starke Verbreitung von Smartphones führte das Web weg von unseren Bildschirmen direkt in unsere Hosentaschen. Applikationen aus dem Bereich der kollektiven Intelligenz basieren nicht mehr nur auf Daten, die Menschen über ihre Tastaturen eingeben, sondern mehr und mehr auch auf Sensordaten. Unsere Telefone und Kameras haben sich zu Augen und Ohren von Applikationen entwickelt. Bewegungs- und Ortssensoren teilen mit, wo wir uns befinden, was wir uns ansehen und wie schnell wir uns fortbewegen. Daten werden in Echtzeit gesammelt, dargestellt, ausgewertet und verarbeitet. Es wird ein Vielfaches mehr Daten gesammelt als noch vor fünf Jahren.

Mit weiteren Nutzern und Sensoren, die noch mehr Programme und Plattformen mit Daten beliefern, sind Entwickler in der Lage, die wirklichen Probleme der Welt anzugehen. Im Ergebnis steigt das Potenzial des Webs nicht mehr linear an, sondern exponentiell. Daraus ergibt sich unser Thema für dieses Jahr: Web zum Quadrat (oder: Web hoch zwei, Web²). 1990–2004 wurde die Lunte angefacht; 2005–2009 brannte sie langsam ab; und 2010 wird die Explosion stattfinden.

Seit wir den Begriff »Web 2.0« eingeführt haben, fragen uns die Leute ständig: »Was kommt als Nächstes?« Von Leuten, die »Web 2.0« nicht als Bezeichnung für das »Comeback« des Webs nach der Dotcom-Pleite verstehen, sondern als eine Softwareversion, werden wir ständig nach dem »Web 3.0« gefragt. Wird es das »Semantic Web«? Oder das »Sentient Web«? Vielleicht das »Social Web«? Oder das »Mobile Web«? Oder ist es vielleicht eine Form der virtuellen Realität?

Es ist all dies zusammen und noch viel mehr!

Das Web ist keine Zusammenstellung einzelner HTML-Seiten, die jede für sich einen Aspekt der Welt beschreiben. Nein, zunehmend ist das Web die Welt. Alles und jeder in dieser Welt wirft einen »Informationsschatten«, eine »Datenaura«, die außergewöhnliche Möglichkeiten bietet, wenn sie intelligent eingefangen und verarbeitet wird. »Web²« ist unser Weg, dieses Phänomen zu untersuchen und ihm einen Namen zu geben.

Neudefinition kollektiver Intelligenz: Neuer sensorischer Input

Um zu verstehen, wohin das Web sich entwickelt, hilft es, sich auf eine der fundamentalen Ideen des Web 2.0 zu besinnen: Erfolgreiche Web-Applikationen sind Systeme, die kollektive Intelligenz nutzbar machen.

Viele Menschen verstehen diese Idee heute im Sinne von »Crowdsourcing«. Dabei arbeitet eine große Gruppe von Personen gemeinschaftlich an etwas, dessen Ergebnis weit über die Summe dessen hinaus geht, was jeder einzelne beigesteuert hat. Marktplätze wie eBay und Craigslist sind Crowdsourcing-Wunder, Mediensammlungen wie YouTube und Flickr, große Sammlungen persönlicher Lifestreams auf Twitter, MySpace und Facebook – das Web als Ganzes ist ein Crowdsourcing-Wunder!

Viele Menschen verbinden mit »Web 2.0« darüber hinaus Web-Applikationen, die so entwickelt wurden, dass sie ihre Nutzer zu bestimmten Aktionen motivieren, beispielsweise um eine Online-Enzyklopädie aufzubauen (Wikipedia), einen Online-Katalog mit Rezensionen und Kommentaren zu bereichern (Amazon), Daten zu Landkarten hinzuzufügen (wie bei den zahlreichen Online-Routenplanern) oder die derzeit populärsten Nachrichten zu finden (Digg, Twine). Und Amazons »Mechanical Turk« ist eine Plattform, die es Menschen ermöglicht, Aufgaben zu erledigen, die zu schwierig für Computer sind.

Aber ist es wirklich das, was wir meinen, wenn wir über kollektive Intelligenz reden? Ist es nicht vielmehr eine Definition von Intelligenz, das es einem Organismus möglich ist, sich auf seine Umgebung einzustellen und von ihr zu lernen? (Bitte beachten Sie, dass wir den Aspekt des Selbstbewusstseins komplett außen vor gelassen haben, zumindest für den Moment.)

Stellen Sie sich vor, das Web (definiert als Vernetzung aller Geräte und Programme, nicht nur die auf Desktop-Rechner basierenden Programme, die früher als »World Wide Web« bezeichnet wurden) sei ein neugeborenes Baby. Es sieht, kann zunächst aber nichts fokussieren. Es kann einen Gegenstand spüren, hat aber kein Gefühl für dessen Ausmaße, bis es den Gegenstand in den Mund nimmt. Es hört die Worte ihrer lächelnden Eltern, kann sie aber nicht verstehen. Es ist überflutet von Eindrücken, kann aber nur wenige begreifen. Es hat wenig bis gar keine Kontrolle über seine Umgebung.

Schritt für Schritt beginnt das Baby, die Welt zu verstehen. Es koordiniert die verschiedenen Sinneseindrücke, unterscheidet Signale von Hintergrundgeräuschen, lernt neue Fähigkeiten und einst schwierige Abläufe automatisieren sich.

Die Frage, mit der wir uns beschäftigen werden, lautet: Wird das Web intelligenter, während es wächst und sich entwickelt?

Denken Sie an Suchdienste und -services – derzeit die »Lingua Franca« des Webs. Die ersten Suchmaschinen, angefangen bei Brian Pinkertons Webcrawler, steckten einfach alles in ihren Mund. Sie folgten hungrig jedem Link und verzehrten alles, was sie fanden. Das Ranking wurde berechnet mittels Brute-Force-Keyword-Abgleichung.

1998 gab es einen Durchbruch, als Larry Page und Sergey Brin erkannten, dass sie über Links Inhalte nicht bloß auffinden, sondern darüber hinaus auch klassifizieren können. Dabei wird jeder Link im Wesentlichen als Empfehlung betrachtet, wobei Links von Webseiten umso mehr zählen, je häufiger diese wiederum von anderen, hochwertigen Webseiten verlinkt werden.

Moderne Suchmaschinen basieren auf komplexen Algorithmen und Hunderten verschiedener Ranking-Kriterien, um Trefferlisten zu berechnen. Zu den Daten, die dabei eine Rolle spielen, gehören die Häufigkeit der Suchbegriffe, die Anzahl der Klicks in den Trefferlisten und unsere eigene, persönliche Such- und Browserhistorie. Wenn beispielsweise ein Großteil der Nutzer den fünften Eintrag auf einer Trefferliste gegenüber dem ersten deutlich bevorzugt, wertet der Google-Algorithmus dies als Zeichen dafür, dass der fünfte Treffer besser ist als der erste und kann daraufhin die Reihenfolge entsprechend verändern.

Werfen wir nun einen Blick auf eine noch aktuellere Suchapplikation: die Google Mobile Application für das iPhone. Das Programm erkennt die Bewegung des Geräts zu ihrem Ohr und schaltet automatisch in einen Spracherkennungsmodus. Es nutzt das Mikrofon, um Ihre Stimme zu empfangen, und dekodiert das, was Sie hinein sprechen, nicht nur über seine Spracherkennungsdatenbank und -algorithmen, sondern auch mittels Übereinstimmung mit den häufigsten Suchbegriffen in seiner Suchdatenbank. Das Programm nutzt GPS oder Triangulation, um Ihre Position zu ermitteln, und nutzt diese Informationen ebenfalls. Eine Suche nach »Pizza« liefert Ihnen genau die Ergebnisse, die Sie erwarten: den Namen, den Ort und die Kontaktinformationen der drei nächsten Pizzarien.

Auf einmal nutzen wir Suchdienste nicht mehr nur über unsere Tastatur und mittels schwieriger Suchsyntax, sondern wir unterhalten uns mit dem Web. Es entwickelt sich in die Richtung, intelligent genug dafür zu sein, Dinge zu verstehen (beispielsweise wo wir uns gerade befinden), ohne dass wir es explizit sagen müssen. Und das ist nur der Anfang!

Während einige der Datenbanken, auf denen die Programme basieren, von dem Programm selbst »unterrichtet« werden müssen (wie das Mapping von GPS-Koordinaten auf Adressen), werden andere automatisch angelernt durch die Verarbeitung großer Datensätze (beispielsweise Spracherkennung).

Dies ist natürlich ein »intelligenteres« System als das, was wir vor einigen Jahren gesehen haben. Die Koordination von Spracherkennung und Suche, Suchergebnissen und Ortsangaben ist vergleichbar mit der Auge-Hand-Koordination, die ein Baby schrittweise erlernt. Das Web reift heran und wir alle sind seine Eltern.

Wie das Web lernt: Explizite und implizite Bedeutung

Aber wie lernt das Web? Einige Leute glauben, dass die Bedeutung von Inhalten zunächst in spezielle Taxonomien übersetzt werden muss, damit Computerprogramme sie verstehen und darauf reagieren können. Dagegen sehen wir, dass in der Praxis die Bedeutung über Schlussfolgerungen auf Basis zahlreicher Daten erkannt wird.

Hervorragende Beispiele für diese Form des Lernens durch Maschinen sind Spracherkennung und visuelle Verarbeitung. Dabei ist es wichtig zu verstehen, dass die dafür benötigten Methoden auf weit mehr als die Auswertung reiner Sensordaten basieren. Google Adwords ist ein lernendes System, das den optimalen Ort und Preis für Anzeigen automatisch in Echtzeit generiert, und das mittels eines Algorithmus’, der sich selbst immer weiter verbessert.

In anderen Fällen wird Bedeutung dem Computer »beigebracht«. Das bedeutet, dem Programm steht ein Mapping zur Verfügung zwischen einem Satz strukturierter Daten und einem anderen. Die Verbindung zwischen GPS-Daten und Adressen wird beispielsweise besser beigebracht als erlernt. GPS-Daten und Adressen sind strukturierte Daten, aber es ist ein Gateway notwendig, das sie miteinander in Beziehung setzt.

Ein anderer Weg, Struktur in unstrukturierte Daten zu bringen, ist es, einem Programm beizubringen, wie es einen Sinn in den Daten erkennt. Die iPhone-Applikation You R Here beispielsweise kombiniert beide Ansätze geschickt: Angenommen, Sie nutzen Ihre iPhone-Kamera, um ein Foto einer Karte aufzunehmen, die Details enthält, die auf gewöhnlichen Routenplanern wie Google Maps nicht zu finden sind, beispielsweise eine Wanderkarte. Sie verwenden die GPS-Position des iPhones, um den aktuellen Standpunkt auf der Karte festzulegen. Sie wandern ein wenig und setzen dann einen zweiten Punkt. Nun kann die Applikation Ihre genaue Position auf der fotografierten Wanderkarte genau so einfach und exakt ausfindig machen wie auf Google Maps.

Einige der bekanntesten und nützlichsten Webservices sind genau auf diese Art und Weise entstanden: Unstrukturierte Daten konnten strukturiert werden, indem Regeln gefunden wurden, die zunächst übersehen wurden.

Ti Kan, Steve Scherf und Graham Toal, die Entwickler von CDDB, erkannten, dass die Länge der Stücke auf einer CD eine einzigartige Signatur formen, die in Verbindung gebracht werden kann mit dem Künstler, dem Album und den Songtiteln. Larry Page und Sergey Brin erkanten, dass ein Link eine Empfehlung darstellt, so wie Marc Hedlund von Wesabe erkannte, dass jede getätigte Online-Zahlung ebenfalls eine Empfehlung darstellt und dass es etwas bedeutet, wenn ein Kunde einen (Online-)Händler immer wieder aufsucht. Mark Zuckerberg von Facebook erkante, dass freundschaftliche Beziehungen online ein reelles soziales Beziehungsgeflecht repräsentieren. Dadurch haben sie Daten, die zunächst unstrukturiert zu sein schienen, in strukturierte Daten verwandelt. Und jeder von ihnen nutzte dafür sowohl Menschen als auch Maschinen.

Was Sie mitnehmen sollten: In der Web-2.0-Ära ist eine Schlüsselkompetenz, Zusammenhänge in scheinbar heterogenen Daten zu erkennen, die Daten dadurch nutzbar zu machen und ein Ökosystem um sie herum aufzubauen.

Das Web begegnet der Welt: Der »Informationsschatten« und das Internet der Dinge

Beim Begriff »sensorbasierte Applikation« denken viele Leute sofort an eine Welt voller Applikationen, die mittels RFID-Tags oder ZigBee-Modulen gesteuert werden. Eine solche Zukunft ist noch weit entfernt angesichts der wenigen aufregenden Applikationen und Testfällen, die wir derzeit haben. Aber viele Leute übersehen, wie weit fortgeschritten die Sensor-Revolution tatsächlich ist! Sie ist die Geheimwaffe des Mobilmarkts und seine allergrößte Chance.

Heutige Smartphones verfügen über Mikrofone, Kameras, Bewegungs-, Umgebungs- und Ortungssensoren (GPS, Triangulation, teilweise auch ein Kompass). Diese Sensoren haben die Benutzerschnittstelle von Programmen revolutioniert! Sie brauchen nur eine Weile mit Ocarina von Smule auf dem iPhone herumzuspielen, dann können Sie das nachvollziehen.

Aber denken Sie daran: Mobile Applikationen sind verbundene Applikationen. Die grundlegenden Erkenntnisse des Web 2.0 beziehen sich auf jede Internet-Applikation, egal ob im Web oder auf Mobiltelefonen (und die Grenze dazwischen wird zunehmend unschärfer). Sensorbasierte Applikationen können so gestaltet werden, dass sie besser und nützlicher werden, je mehr Personen sie nutzen und je mehr Daten geliefert werden. Die Spracherkennung in Google Mobile App ist eine Beispiel dafür. Neue internetbasierte GPS-Programme verfügen ebenfalls über eingebaute Kommunikationskanäle, die ihre errechnete Geschwindigkeit an einen Server schickt und die Werte dazu verwendet, Ihre Ankunftszeit abzuschätzen in Beachtung des vor Ihnen liegenden Verkehr. Heutzutage werden Verkehrsmuster größtenteils geschätzt, aber zunehmend werden sie in Echtzeit gemessen.

Die Intelligenz des Webs wächst schneller, als Sie vielleicht denken. Nehmen Sie als Beispiel das Geotagging von Fotos. Früher brauchten Nutzer ihren Computern die Verbindung zwischen Fotos und Orten mittels Tagging bei. Heute erkennen viele Kameras den Ort selbst und versehen jedes Foto automatisch mit Geodaten, und dies mit größerer Präzision, als Menschen es vollbringen könnten.

Je präziser ein Datensatz wird, desto mehr können Programme anfangen. Beachten Sie die Genauigkeit der Karten, die mit Hilfe von mit Geodaten versehenen Flickr-Fotos erstellt werden.

Wie genau können diese Fotos wohl werden, wenn es Milliarden von Fotos gibt?

Flickr Geotag-Karte der USA

Flickr Geotag-Karte von Texas

Obwohl sie noch in den Kinderschuhen steckt, ist die Gesichtserkennung in Apple iPhoto ‘09 schon ziemlich gut. Wann sind genügend Gesichter mit dem Namen der jeweiligen Person verschlagwortet, dass das System in der Lage ist, Ihnen wirklich nur die Leute zu zeigen, die es nicht erkennt?

Die Reiseführer-Applikation Wikitude für Android treibt die Bilderkennung noch weiter. Richten Sie die Kamera des Telefons auf ein Denkmal oder eine andere Sehenswürdigkeit, und die Applikation sicht danach in ihrer Online-Datenbank. (Indem es die Frage beantwortet: Was gibt es hier, das so aussieht?) Die Kamera zeigt Ihnen auf ihrem Bildschirm dasselbe, was Sie sehen, sodass es so aussieht wie ein Fenster, allerdings mit einer kleinen Anzeige mit weiteren Informationen über das Objekt, das Sie sich gerade anschauen. Das ist ein erster Blick in die Zukunft der »erweiterten Realität« (Augmented Reality). Das Telefon nutzt den Kompass, um herauszufinden, wohin Sie blicken. So können Sie das Gerät dazu verwenden, die Umgebung abzutasten und nach interessanten Dingen in Ihrer Nähe zu suchen.

Mobilizy-Website

Layar führt die Idee noch ein wenig weiter, indem es ein System von mehreren Ebenen »erweiterter Realität« anbietet, die über die Kamera Ihres Mobiltelefons zugänglich sind.

Sensorbasierte Applikationen geben Ihnen »Superkräfte«. Darkslide gibt Ihnen »Superaugen«, indem es Ihnen Fotos von Ihrer Umgebung zeigt. Twitter-Applikationen auf dem iPhone geben Ihnen ein »Supergehör«, indem sie Tweets in Ihrer Nähe finden, wodurch Sie ein »Supergehör« bekommen und Gespräche in Ihrer Umgebung belauschen können.

Alle diese Durchbrüche bestätigen die Beobachtung von Mike Kuniavsky von ThingM: Objekte aus der realen Welt werfen »Informationsschatten« im Cyberspace. Zum Beispiel wirft ein Buch Informationsschatten bei Amazon, bei Google Books, bei Goodreads, Shelfari und LibraryThing, bei eBay und bei BookMooch, bei Twitter und in Tausenden von Blogs.

Ein Musikstück wirft Informationsschatten bei iTunes, Amazon, Rhapsody, MySpace oder Facebook. Eine Person wirft Informationsschatten in zahlreichen E-Mails, Instant-Messages, Telefongesprächen, Tweets, Blog-Beiträgen, Fotografien, Videos und Regierungsdokumenten. Alles hat Informationsschatten: ein Produkt im Supermarktregal, ein Auto beim Händler, eine Palette mit Eisenwaren auf dem Ladedock, ein Schaufenster an der Hauptstraße einer kleinen Stadt.

In vielen Fällen sind diese Informationsschatten mit den Objekten aus der wirklichen Welt über eindeutige Bezeichner verbunden: eine ISBN oder ASIN, eine Bestellnummer, eine Fahrgestellnummer, eine Seriennummer oder – um etwas persönlicher zu werden – eine Sozialversicherungsnummer. Für andere Dinge gibt es keine eindeutigen Bezeichner, aber Identität kann trianguliert werden: ein Name mit einer Adresse, Telefonnummer oder einem Foto; ein Telefongespräch von einem bestimmten Ort aus; all dies macht es heute schwierig, ein wasserdichtes Alibi zu haben.

Viele Menschen, die über das »Internet der Dinge« reden, gehen davon aus, dass es eine Kombination aus RFID-Nummern und IP-Adressen für alltägliche Objekte sein wird, die uns dort hin führt. Dem liegt die Annahme zugrunde, dass jedes Objekt einen eindeutigen Bezeichner haben muss, damit das Internet der Dinge funktionieren kann.

Das Weg 2.0 zeigt uns, dass wir zum Internet der Dinge gelangen werden über einen Mischmasch aus Sensordaten, die selbstlernende Applikationen füttern, die daraus schrittweise mehr und mehr Sinn erzeugen. Eine Flasche Wein in Ihrem Supermarktregal (und jedes andere Objekt) braucht keine RFID, um Teil des Internets der Dinge zu sein. Es reicht vollkommen, wenn Sie das Etikett fotografieren. Ihr Mobiltelefon, Bilderkenung, Suche und das »Sentient Web« (das »empfindsame Web«) werden den Rest erledigen. Wir brauchen nicht darauf zu warten, dass jeder Supermarktartikel eine eindeutige maschinenlesbare ID bekommt. Wir kommen schon heute zurecht mit Barcodes, Tagging von Fotos und anderen »Hacks«, die ein einfacher, aber funktionierender Weg sind, Dinge zu identifizieren.

Jeff Jonas hat eine interessante Tatsache festgestellt. Er sammelte Daten aus verschiedenen Quellen über bekannte Personen aus den USA und baute daraus eine eigene Datenbank auf. Irgendwann erreichte die Datenbank den Punkt, an dem sie selbst dazulernte und neue Eingaben die Datenbank nicht mehr größer, sondern kleiner machten. 630 Millionen Daten plus 30 Millionen Daten ergaben nur noch 600 Millionen Daten. Dafür sorgten ausgeklügelte Gleichungen zur Kontexterkennung, die irgendwann anfingen, ihren Zauber zu tun.

Wenn die Informationsschatten dunkler werden, umfangreicher, dann werden detaillierte Metadaten zunehmend überflüssig. Unsere Kameras und Mikrofone sind dabei, die Augen und Ohren des Webs zu werden, unsere Bewegungs- und Umgebungssensoren seine Eigenwahrnehmung, GPS sein Ortssinn. In der Tag, das Baby ist dabei, zu wachsen. Das Internet und wir begegnen einander.

Dieses Phänomen ist übrigens nicht auf das Verbraucher-Web beschränkt. IBMs Initiative »Smarter Planet« und das Projekt »planetary skin« von der NASA und Cisco zeigen, wie tiefgreifend sich die Wirtschaft durch das sensorische Web verändern wird. Ölraffinerien, Stahlminen und Fabriken werden mit Sensoren ausgestattet sein, die auf denselben Algorithmen für maschinelles Lernen basieren, wie wir sie heute schon in Web-Applikationen sehen.

Wie es häufig so ist, lässt sich die Zukunft nicht in den Plänen und Ankündigungen großer Unternehmen ablesen, sondern in klugen Verbesserungen durch kleine »Early-Adopters« und »Alpha Geeks«. Radar-Blogger Nat Torkington hat die Geschichte eines Taxifahrers erzählt, den er in Wellington, Neuseeland, getroffen hat. Der Fahrer notierte sich sechs Wochen lang jede einzelne Fahrt (GPS, Wetter, Passagiere und drei weitere Variablen), gab die Daten in seinen Computer ein und berechnete aus den Daten, wo er zu welcher Tageszeit stehen muss, um seine Einkünfte zu maximieren. Das Ergebnis dieser Bemühungen war ein im Vergleich zu anderen Taxifahrern wesentlich angenehmeres Leben mit deutlich weniger Arbeit. Es zahlt sich aus, die Welt mit mehr Möglichkeiten auszustatten.

Die Analyse von Daten, deren Visualisierung und andere Techniken, um Muster in Daten zu entdecken, werden zunehmend nützlich. Arbeitgeber, achtet darauf!

Eindeutige Bezeichner sind weiterhin wichtig, vor allem für »austauschbare« Objekte, die Instanzen einer bekannten Klasse sind wie ein Buch oder eine Musiksammlung. Aber die Erfahrung zeigt, dass formelle Systeme weit weniger mächtig sind, um Daten mit Bedeutung zu versehen, als informelle Systeme, die die Bedeutung von selbst annotieren können durch Erkennung bestimmter Merkmale. Eine ISBN stellt einen eindeutigen Bezeichner für ein Buch dar, aber die Kombination aus Titel und Autor identifiziert das Buch ausreichend präzise.

Vielleicht entstehen bald Projekte, die unverarbeitete Sensordaten systematisch kategorisieren, wie es das Astrometry-Projekts vor hat, dessen Gründer sich auf die Fahne geschrieben haben: »Wir bauen eine Astrometrie-Engine, um korrekte, standardkonforme astrometrische Metadaten zu erzeugen, für jedes nützliche astronomische Bild, das jemals gemacht wurde und werden wird.« Der Flickr astrotagger bot nutzt diese Engine, um bei Flickr nach Bildern von astronomischen Objekten zu fischen und ihnen passende Metadaten zuzuweisen, die die Suche nach diesen Bildern erleichtern. Der Service lässt sich mit CDDB vergleichen: Ein Lookup-Service, der chaotische Sensordaten geordnet in einer Lookup-Datenbank ablegt.

Es ist immer so, dass die ersten nützlichen Anwendungen einer Technologie von Enthusiasten kommen. Aber häufig läuten sie damit ein neues Zeitalter ein, in dessen Verlauf Unternehmen diese Technologien auf neue Geschäftsfelder anwenden. Je mehr die Welt mit Sensoren ausgestattet wird, desto mehr erstaunliche Entwicklungen wird es geben, um aus den gewonnen Daten Informationen zu gewinnen und Nutzen zu ziehen.

Betrachten wir das sogenannte »intelligente Versorgungsnetz« (smart electrical grid). Wie Gavin Starks, Gründer von AMEE, einem neutralen Web-Service-Backend für Energiesensordaten, bemerkte, fanden Forscher, die die Messdaten von 1,2 Millionen Haushalten in UK durchkämmt haben, heraus, dass jedes Haushaltsgerät eine einzigartige Energiesignatur aufweist. Dadurch ist es nicht nur möglich, den Stromverbrauch jedes Geräts zu ermitteln, sondern auch den Hersteller und das genaue Modell – sozusagen CDDB für Haushalts- und Unterhaltungselektronik!

Die Generierung strukturierter Daten aus unstrukturierten Daten wird eine Schlüsselkompetenz des Web² sein.

Aufstieg der Echtzeit: Ein kollektives Bewusstsein

Je mehr darüber gesprochen wurde, desto schneller wurden Suchmaschinen. Durch Blogging entstanden Millionen neuer Sites, die täglich oder sogar stündlich indiziert werden müssen. Microblogging erfordert sogar unmittelbare Indizierung, was zu signifikanten Veränderungen der Infrastruktur und auch der Herangehensweise führt. Wer Twitter nach aktuellen Themen durchsucht, stößt auf die Nachricht: »See what’s happening right now«, wenig später gefolgt von »42 more results since you started searching. Refresh to see them.«

Auch die Nutzer selbst sind dabei, Suchfunktionen zu entwickeln. Beispielsweise Hashtags bei Twitter, eine von den Nutzern erdachte Konvention, die unter anderem Echtzeitsuche nach Veranstaltungen vereinfacht. Sie sehen an diesem Beispiel, wie die Mitwirkung der Nutzer Datenmengen strukturieren kann, egal wie grob und inkonsistent diese Struktur auch ist.

Echtzeitsuche ermutigt zu Echtzeitantworten. Retweets breiten aktuelle Nachrichten über Twitter innerhalb weniger Augenblicke aus, was Twitter für viele Leute zur ersten Quelle macht, wenn sie herausfinden wollen, was gerade so passiert. Um es noch einmal zu betonen: Das ist nur der Anfang! Mit Services wie Twitter oder die Statusmeldungen bei Facebook stehen als neue Datenquelle im Web zur Verfügung – Echtzeithinweise darauf, womit das kollektive Bewusstsein sich gerade beschäftigt.

Guatemala und der Iran haben vor kurzem den »Twitter-Effekt« kennen gelernt, als politische Proteste über Twitter angestoßen und koordiniert wurden.

Das führt uns zu einer zeitgemäßen Debatte: Es gibt viele, die sich Sorgen machen, dass Technologie entmenschlicht. Wir teilen diese Sorge, sehen aber auch den Gegentrend, dass Kommunikation uns zusammenführt, einen gemeinsamen Kontext und letztendlich eine gemeinsame Identität gibt.

Twitter zeigt uns ebenfalls gut, wie Applikationen sich an Geräte anpassen. Tweets sind auf 140 Zeichen beschränkt, und eben diese Beschränkung hat uns zu einer Fülle an Innovationen motiviert. Twitternutzer haben Abkürzungen entwickelt (@benutzername, $hashtag, $stockticker), die Twitterprogramme bald zu klickbaren Links umgewandelt hatten. Kurz-URL-Dienste für Weblinks wurden populär, und deren Betreiber haben schnell erkannt, dass die stetig wachsenden Datenbanken der Links und deren Klicks neue Echtzeit-Analysemöglichkeiten bieten. Bit.ly beispielsweise zeigt die Anzahl der Klicks auf einen Link in Echtzeit an.

Es bildet folglich eine neue Informationsschicht um Twitter herum, das sich so zu einer Konkurrenz zu anderen zentralen Web-Services entwickeln könnte, nämlich Suche, Analyse und soziale Netzwerke. Twitter bietet darüber hinaus »Anschauungsunterricht« für Anbieter mobiler Inhalte, was alles möglich ist, wenn sie APIs zur Verfügung stellen. Das Ökosystem, das derzeit aus Twitter-Applikationen heranwächst, kann Möglichkeiten aufzeigen für SMS und andere mobile Dienste, oder Twitter wächst weiter und wird diese irgendwann einmal ersetzen.

Echtzeit ist nicht auf Social Media oder mobile Dienste beschränkt. So wie Google erkannt hat, das ein Link eine Empfehlung darstellt, so hat WalMart festgestellt, dass der Kauf eines Kunden ebenfalls eine Empfehlung ist. Die Kasse ist dabei ein Sensor, der diese Empfehlung registriert. Echtzeit-Rückkanäle steuern den Warenbestand. WalMart mag kein Web-2.0-Unternehmen sein, aber es ist ohne Frage ein Web²-Unternehmen: WalMart erlangt immense Wettbewerbsvorteile dadurch, dass sämtliche Arbeitsprozesse von IT durchzogen sind und angetrieben werden durch Kundendaten, die in Echtzeit ermittelt werden. Zu den größten Möglichkeiten des Web² gehört, diese Art von Echtzeitintelligenz auch kleineren Einzelhändler bereit zu stellen, die nicht über diese für sie überdimensionierte Beschaffungskette verfügen.

Wie Vivek Ranadive, Gründer und CEO von Tibco, so eloquent erläutert:

Alles in der Welt ist nun Echtzeit. Wenn ein bestimmter Schuh in dem Laden um die Ecke nicht angeboten wird, dauert es nicht etwa sechs Monate, bis der Hersteller in China dies herausfindet. Nein, er erfährt es sofort, dank meiner Software.

Echtzeitinformationen haben auch ohne sensorbasierte Einkaufsabwicklung eine riesige Bedeutung fürs Geschäft. Wenn Ihre Kunden ihre Absichten im Web kund tun (oder über Twitter), dann müssen Unternehmen es mitbekommen und sich daran beteiligen. Comcast hat seinen Kundenservice verändert, indem es Twitter nutzt; andere Unternehmen folgen diesem Beispiel bereits nach.

Eine weitere interessante Geschichte, die wir kürzlich über Echtzeit-Rückkanäle gehört haben, handelt vom Houdini-System, das von der Obama-Kampagne dafür genutzt wurde, Wähler von der »Get Out the Vote«-Telefonliste zu entfernen, sobald sie gewählt hatten. Wahlbeobachter in Schlüsselbezirken gaben sofort Bescheid, sobald sie sahen, dass Namen von der Wählerliste vor Ort gestrichen wurden; diese Namen »verschwanden« dann von der Telefonliste, die zuvor an freiwillige Helfer verteilt wurde. (Daher der Name »Houdini«.)

Houdini führt das Prinzip weiter, auf dem auch Amazons Mechanical Turk basiert: Eine Gruppe Freiwilliger agiert als Sensoren; eine große Menge an Echtzeitdaten wird synchronisiert und dazu verwendet, um einer anderen Gruppe Freiwilliger Anweisungen zu erteilen, die wiederum dazu dienen, das System voran zu treiben.

Unternehmen müssen lernen, sich Echtzeitdaten nutzbar zu machen als Schlüsselsignale, die einen weitaus effizienteren Kanal in Bewegung setzen für Produktentwicklung, Kundenservice und Ressourcenbelegung.

Fazit

All dies ist nur der Beginn. Die Möglichkeiten des Web² sind in vielerlei Hinsicht bedeutender. Die Verbindung des Webs mit der echten Welt eröffnet enorme geschäftliche Möglichkeiten und gibt uns darüber hinaus die Chance, an die Probleme heran zu gehen, die die Welt am meisten betreffen.

Dafür gibt es bereits Hunderte von Beispielen. Aber wir benötigen Fortschritte in vielen anderen Bereichen – von unserem Energie-Ökosystem bis hin zu unserer Herangehensweise in der Gesundheitspflege. Ganz zu schweigen von unserem Finanzsystem, das derzeit einige Probleme hat. Unsere Hoffnung liegt in der Echtzeitregulierung der Finanzsysteme durch Automatisierung. Was haben wir vom Verbraucher-Web gelernt, was könnte die Basis sein für ein Finanzregulierungssystem des 21. Jahrhunderts? Es brauchen selbstlernende Maschinen und Algorithmen, die Anomalien entdecken, und wir brauchen Transparenz, die es jedem erlaubt, das Finanzsystem zu prüfen, nicht nur überarbeiteten und unterbesetzten Kontrollgremien.

Als wir die Web-2.0-Veranstaltungen ins Leben riefen, behaupteten wir: »Das Web ist eine Plattform.« Seitdem haben Tausende von Unternehmen und das Leben von Millionen von Menschen sich durch die Produkte und Services geändert, die auf dieser Plattform basieren.

Aber das Jahr 2009 markiert einen Wendepunkt in der Geschichte des Webs! Es ist an der Zeit, der Plattform, die wir gestaltet haben, zum Durchbruch zu verhelfen. Das Web ist nicht länger eine Welt für sich – das Web ist die Welt!

Und die Welt braucht unsere Hilfe.

Wen wir uns aufmachen, die größten Probleme der Welt zu lösen, dann müssen wir die Macht des Webs zum Arbeiten bringen; seine Technologien, seine Geschäftsmodelle und – vielleicht die wichtigsten Eigenschaften – seine Philosophie der Offenheit, kollektive Intelligenz und Transparenz. Um das zu tun, müssen wir das Web auf die nächste Stufe heben. Wir können uns keine schrittweise Evolution mehr erlauben.

Es ist Zeit für das Web, die echte Welt in Angriff zu nehmen. Das Web begegnet der Welt – das ist Web².

Über die Autoren

Tim O’Reilly ist Gründer und Chef des O’Reilly-Verlags, dessen Ziel es seit seiner Gründung im Jahre 1978 ist, Innovationen und neue Technologien zu entdecken und voran zu treiben. Er engagiert sich für offene Standards und Open-Source. Mit seinem Artikel über das Web 2.0 trug er im Jahre 2005 maßgeblich zur Durchsetzung und einheitlichen Wahrnehmung dieses veränderten Internet-Paradigmas bei.

John Battelle ist Journalist sowie Gründer und Vorstand von Federated Media Publishing. Er ist Professor an der University of California, Berkeley, und betreibt mit Searchblog ein Weblog zu den Themen Suche, Technologie und Medien. Er ist Autor zahlreicher Fachartikel und des Buches »The Search«, in dem er die Bedeutung von Suchtechnologien in der Geschäftswelt erläutert.