Die
schwarzen Löcher im weltweiten Netz
Das Internet wächst Täglich um sieben Millionen Seiten. Doch nach neusten Untersuchungen führt jeder zweite Weg ins Nichts. Das World Wide Web wächst und wächst und wächst. Nach der jüngsten Studie des amerikanischen Online-Marktforschungsinstituts Cyveillance besteht das Internet bereits aus mehr als zwei Milliarden Seiten und jeden Tag kommen weitere sieben Millionen dazu. Sollte das Netz weiter wachsen wie bisher, prophezeien die Marktforscher, dass sich schon Anfang 2001 der Umfang des Internets auf über vier Milliarden Sites verdoppeln wird. Cyveillance geht davon aus, dass die höchsten Wachstumsraten noch lange nicht erreicht sind. Genauso wie das Internet wächst, wachse auch der ,,Knowledge-Gap" zwischen dem, was Unternehmen über die Möglichkeiten des Internets wissen, und dem, was sie nicht wissen. Damit entstehe eine Diskrepanz zwischen den Unternehmen, die die Potentiale nutzen können und denjenigen, die Gelegenheiten verstreichen lassen und so Umsatzeinbußen hinnehmen müssten, lautet eine Kernaussage der Analyse. Dominanz der USA Mehr denn je müssen die Unternehmen Marktwissen über das Internet erlangen. Im Rahmen einer viermonatigen Studie hat Cyveillance repräsentativ für 350 Millionen Linkdaten ausgewertet. Die durchschnittliche Website ist demnach 10.060 Bytes groß, besitzt 23 interne Links und 5,6 externe Links. Durchschnittlich befinden sich 14,4 Bilder oder Grafiken auf jeder Seite. Laut Cyveillance ist das Internet US-amerikanisch dominiert. Knapp 85 Prozent der Sites stammen aus den USA, der Rest kommt aus anderen Ländern. Zum Zeitpunkt der Untersuchung befanden sich laut Cyveillance Webwatch knapp mehr als zwei Milliarden Seiten im Internet. Davon sind sehr viele isoliert. Genaugenommen soll jeder zweite Weg im Internet ins Nichts führen. Das Internet ist für viele kein Informationshighway sondern eine Einbahn, die zu Sackgassen führt. Zu diesem Ergebnis ist eine umfassende neue Studie von IBM, Compaq und AltaVista gekommen. Für diese Studie wurden 1,5 Milliarden Links zwischen 200 Millionen verschiedenen Webpages untersucht. Manche Websites seien sehr stark verlinkt, manche führten ins Nichts und wieder andere seien kaum auffindbar. Die Wissenschaftler um Ravi Kurnar vom IBM Almaden Laboratory schätzen, dass sich nur 30 Prozent im stark verlinkten Kern des Internet befinden, der von den meisten Suchmaschinen wahrgenommen wird. Außerhalb dieses Kerns sind Websites immer stärker isoliert, Einsame Inseln im Netz Nur 24 Prozent der Sites verfügen über Links zum Kern des Internets. Weitere 24 Prozent können über Links aus dem Kern heraus erreicht werden. 22 Prozent sind völlig abgekoppelte Internetinseln von Freundescliquen oder Interessensgruppen. Das bedeutet, dass 46 Prozent der Webpages nirgendwo hinführen. Diese Ergebnisse widersprechen wiederum den Ansätzen von Alberto-Lazlo Barabasi von der University of Notre Dame, der davon ausging, dass man mit 20 Schritten durchs Internet surfen könnte. Die Ergebnisse der Studie werden auf der derzeit in Amsterdam laufenden 9th International World Wide Web Conference vorgestellt. Bestätigt werden die Ergebnisse dieser Studie durch die Forschungsergebnisse von dem Suchmaschinenhersteller Inktomi. Um herauszufinden, welche Seiten als Ergebnis einer Internet-Recherche genannt werden rund 1,4 Milliarden Webpages indiziert worden. Joe Frost, der Marketingdirektor von Inktomi, erklärt, daß rund 30 Prozent entweder "Schrott, computergeneriert oder einfach uninteressant" seien. Das tiefste schwarze Loch im Internet stellt für Surfer aber noch immer die Antwort auf den Mausklick ,,404 Not Found" dar. Obwohl niemand genau weiß, wie viele dieser unnötigen Seiten Speicherplatz im Netz belegen, kommt eine glaubhafte Schätzung vom NEC-Research-Institut. Demzufolge soll im Schnitt jede zehnte Seite auf diesen verhassten toten 404er-Link verweisen. Über die Herkunft der ungeliebten Fehlermeldung gibt es unterschiedliche Auffassungen. Generell handelt es sich dabei um einen http-Status-Code, den der World-Wide-Web-Erfinder Tim BernersLee selbst definiert hat. Wenn eine Seite aufgerufen wird, schickt der Server eine Meldung an den Computer. Bestenfalls kommt ,,200 OK", aber diese Mitteilung sieht der Surfer nicht, weil die gesuchte Seite nachgesandt wird. Anderenfalls kommt die 404er-Meldung. Meistens wird die erfolglose Suche mit einer äußerst unhöflichen, von der Server-Software generierten HTML-Seite mitgeteilt. Sich für das Fehlen der Datei zu entschuldigen wäre doch das mindeste. Immerhin wird mit den Links allerhand versprochen, die Erwartungen des Surfers sind hochgeschraubt – und dann fehlt am Ende doch die Datei. Auf dieser Webpage sind übrigens auch freundliche Versionen dieser Fehlermitteilungen enthalten. Zu logische Informatiker Ein weiteres Hindernis für den Benutzer ist die Baumstruktur zahlreicher Websites. Sie verhindert das schnelle Auffinden gewünschter Informationen und widerspricht dem Verhalten der User. Zu diesem Ergebnis kommt wiederum eine Studie der Fachhochschule Düsseldorf und der Multimedia-Agentur BBDO Interactive. Laut Projektleiter Gerhard Schub von Bossiazkv, sei der Einfluss der Informatiker auf die Gestaltung der Sites zu groß. ,,Sie arbeiten immer noch überwiegend mit der logischen und geradlinigen Baumstruktur, aber eine Website braucht wie jede gute gemachte Zeitschrift auch eine gute emotionale und assoziative Dramaturgie." Die einem Lexikon ähnliche Struktur mache wenig Lust, die Inhalte auch zu lesen, beklagte Bossiazky. Die Testergebnisse zeigten, daß in der Regel der User die Websites verlässt, bevor er die gesuchten Informationen gefunden hat. Die Verweildauer schwanke zwischen ein und sieben Seiten. Bossiazkys Ziel ist es, den Nutzen einer Website und damit die Verweildauer des Users um zehn bis 30 Prozent zu verbessern. Dafür wurde nun ein Testverfahren für Webdesigner entwickelt. Beim sogenannten Usability-Lab wird eine kleine Blackbox zwischen Tastatur und Monitor plaziert, in der eine Infrarot-Kamera installiert ist. Diese registriert die Augenbewegungen und die Verweildauer der Blicke auf den einzelnen Bereichen der Site. Alle Klicks werden registriert und ausgewertet. |
Fragen?
|