Computer & Internet

Als die Suchmaschinen laufen lernten

Die 90er Jahre waren für das Internet so etwas wie die Pionierzeit, in der die rasante Entwicklung im Online-Bereich ihren Anfang nahm. Immer mehr User hatten Zugang zum World Wide Web und die Zahl der angemeldeten Websites schnellte bis heute ungebremst nach oben. Einen kleinen Makel hatte der Trend: Das Internet wurde zunehmend unübersichtlicher. Für Nutzer wurde es erheblich schwerer, etwas zu finden. Ein Katalogsystem musste her, um für einen besseren Durchblick zu sorgen. Die Idee für Suchmaschinen, die das Web nach den gewünschten Informationen durchforsten, war geboren. „Archie“ wurde das erste System dieser Art getauft, das 1990 auf den Markt kam. Das Konzept sah vor, dass FTP-Dateien gesucht und sortiert werden. Mittlerweile ist „Archie“ überholt und kann nicht mehr Schritt halten mit seinen modernen Nachfolgern. Doch es bleibt der Grundstein für alles, was in Bereich der Internet – Suchmaschinen folgen sollte.

„Wanderer“ von Mathew Gray ging als erster so genannter Crawler an den Start. Er durchsuchte Internetseiten und sortierte die Ergebnisse. „Wanderer“ begründete damit die Generation der Volltext- und Spider-Suchmaschinen. Sie bieten Nutzern den großen Vorteil, dass sie sehr schnell auf Änderungen von Seiteninhalten reagieren und ihnen Rechnung tragen. Der sonst mit Aktualisierungen verbundene Arbeitsaufwand im Bezug auf die Suche entfällt. Davon profitiert der Betreiber der Suchmaschine. Doch auch die User sind Nutznießer der neuen Technik. Denn sie bleiben bei der Suche im Internet immer auf dem neuesten Stand. Und Aktualität ist angesichts der schnellen Entwicklung das A und O für jeden, der etwas recherchieren möchte.

Inzwischen sorgen Suchmaschinen für rund 85 Prozent des Verkehrs auf den Datenautobahnen. Sie haben sich so sehr verbreitet, dass 85 von 100 Usern über sie auf die gewünschte Internetseite gelangen. Da verwundert es nicht, dass Betreiber von Websites sehr viel Zeit und Ressourcen darin investieren, ihre Seite für Suchmaschinen optimieren. Wer im Internet nicht zu finden ist, kann schließlich auch nicht damit rechnen, dass jemand sich auf die Seite verirrt. Sie ist den Gesetzen des Internets folgend praktisch nicht vorhanden.

Die Ergebnisse der aktuellen Suchdienste, ob nun Spider oder Webkatalog, belegen, dass in diesem Bereich sehr gute Arbeit geleistet wird. Zu verdanken sind die Suchergebnisse vor allen Dingen zwei Faktoren: Einem Algorithmus und einem Roboter. Der Algorithmus ist vor allem für die hohe Relevanz der Treffer verantwortlich. Wie sich die Suchmaschinen der Zukunft weiterentwickeln, steht in den Sternen. Man darf auf jeden Fall gespannt sein.

Be Sociable, Share!
Zufällige Artikel Die 5 neusten Artikel