http://jendryschik.de

Usability und Webstandards

Suche
SucheMenü

Web Squared: Web 2.0 nach 5 Jahren

Neudefinition kollektiver Intelligenz: Neuer sensorischer Input

Um zu verstehen, wohin das Web sich entwickelt, hilft es, sich auf eine der fundamentalen Ideen des Web 2.0 zu besinnen: Erfolgreiche Web-Applikationen sind Systeme, die kollektive Intelligenz nutzbar machen.

Viele Menschen verstehen diese Idee heute im Sinne von »Crowdsourcing«. Dabei arbeitet eine große Gruppe von Personen gemeinschaftlich an etwas, dessen Ergebnis weit über die Summe dessen hinaus geht, was jeder einzelne beigesteuert hat. Marktplätze wie eBay und Craigslist sind Crowdsourcing-Wunder, Mediensammlungen wie YouTube und Flickr, große Sammlungen persönlicher Lifestreams auf Twitter, MySpace und Facebook – das Web als Ganzes ist ein Crowdsourcing-Wunder!

Viele Menschen verbinden mit »Web 2.0« darüber hinaus Web-Applikationen, die so entwickelt wurden, dass sie ihre Nutzer zu bestimmten Aktionen motivieren, beispielsweise um eine Online-Enzyklopädie aufzubauen (Wikipedia), einen Online-Katalog mit Rezensionen und Kommentaren zu bereichern (Amazon), Daten zu Landkarten hinzuzufügen (wie bei den zahlreichen Online-Routenplanern) oder die derzeit populärsten Nachrichten zu finden (Digg, Twine). Und Amazons »Mechanical Turk« ist eine Plattform, die es Menschen ermöglicht, Aufgaben zu erledigen, die zu schwierig für Computer sind.

Aber ist es wirklich das, was wir meinen, wenn wir über kollektive Intelligenz reden? Ist es nicht vielmehr eine Definition von Intelligenz, das es einem Organismus möglich ist, sich auf seine Umgebung einzustellen und von ihr zu lernen? (Bitte beachten Sie, dass wir den Aspekt des Selbstbewusstseins komplett außen vor gelassen haben, zumindest für den Moment.)

Stellen Sie sich vor, das Web (definiert als Vernetzung aller Geräte und Programme, nicht nur die auf Desktop-Rechner basierenden Programme, die früher als »World Wide Web« bezeichnet wurden) sei ein neugeborenes Baby. Es sieht, kann zunächst aber nichts fokussieren. Es kann einen Gegenstand spüren, hat aber kein Gefühl für dessen Ausmaße, bis es den Gegenstand in den Mund nimmt. Es hört die Worte ihrer lächelnden Eltern, kann sie aber nicht verstehen. Es ist überflutet von Eindrücken, kann aber nur wenige begreifen. Es hat wenig bis gar keine Kontrolle über seine Umgebung.

Schritt für Schritt beginnt das Baby, die Welt zu verstehen. Es koordiniert die verschiedenen Sinneseindrücke, unterscheidet Signale von Hintergrundgeräuschen, lernt neue Fähigkeiten und einst schwierige Abläufe automatisieren sich.

Die Frage, mit der wir uns beschäftigen werden, lautet: Wird das Web intelligenter, während es wächst und sich entwickelt?

Denken Sie an Suchdienste und -services – derzeit die »Lingua Franca« des Webs. Die ersten Suchmaschinen, angefangen bei Brian Pinkertons Webcrawler, steckten einfach alles in ihren Mund. Sie folgten hungrig jedem Link und verzehrten alles, was sie fanden. Das Ranking wurde berechnet mittels Brute-Force-Keyword-Abgleichung.

1998 gab es einen Durchbruch, als Larry Page und Sergey Brin erkannten, dass sie über Links Inhalte nicht bloß auffinden, sondern darüber hinaus auch klassifizieren können. Dabei wird jeder Link im Wesentlichen als Empfehlung betrachtet, wobei Links von Webseiten umso mehr zählen, je häufiger diese wiederum von anderen, hochwertigen Webseiten verlinkt werden.

Moderne Suchmaschinen basieren auf komplexen Algorithmen und Hunderten verschiedener Ranking-Kriterien, um Trefferlisten zu berechnen. Zu den Daten, die dabei eine Rolle spielen, gehören die Häufigkeit der Suchbegriffe, die Anzahl der Klicks in den Trefferlisten und unsere eigene, persönliche Such- und Browserhistorie. Wenn beispielsweise ein Großteil der Nutzer den fünften Eintrag auf einer Trefferliste gegenüber dem ersten deutlich bevorzugt, wertet der Google-Algorithmus dies als Zeichen dafür, dass der fünfte Treffer besser ist als der erste und kann daraufhin die Reihenfolge entsprechend verändern.

Werfen wir nun einen Blick auf eine noch aktuellere Suchapplikation: die Google Mobile Application für das iPhone. Das Programm erkennt die Bewegung des Geräts zu ihrem Ohr und schaltet automatisch in einen Spracherkennungsmodus. Es nutzt das Mikrofon, um Ihre Stimme zu empfangen, und dekodiert das, was Sie hinein sprechen, nicht nur über seine Spracherkennungsdatenbank und -algorithmen, sondern auch mittels Übereinstimmung mit den häufigsten Suchbegriffen in seiner Suchdatenbank. Das Programm nutzt GPS oder Triangulation, um Ihre Position zu ermitteln, und nutzt diese Informationen ebenfalls. Eine Suche nach »Pizza« liefert Ihnen genau die Ergebnisse, die Sie erwarten: den Namen, den Ort und die Kontaktinformationen der drei nächsten Pizzarien.

Auf einmal nutzen wir Suchdienste nicht mehr nur über unsere Tastatur und mittels schwieriger Suchsyntax, sondern wir unterhalten uns mit dem Web. Es entwickelt sich in die Richtung, intelligent genug dafür zu sein, Dinge zu verstehen (beispielsweise wo wir uns gerade befinden), ohne dass wir es explizit sagen müssen. Und das ist nur der Anfang!

Während einige der Datenbanken, auf denen die Programme basieren, von dem Programm selbst »unterrichtet« werden müssen (wie das Mapping von GPS-Koordinaten auf Adressen), werden andere automatisch angelernt durch die Verarbeitung großer Datensätze (beispielsweise Spracherkennung).

Dies ist natürlich ein »intelligenteres« System als das, was wir vor einigen Jahren gesehen haben. Die Koordination von Spracherkennung und Suche, Suchergebnissen und Ortsangaben ist vergleichbar mit der Auge-Hand-Koordination, die ein Baby schrittweise erlernt. Das Web reift heran und wir alle sind seine Eltern.