Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im WWW an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten flott den Wert einer lieblings Listung in Ergebnissen und recht bald fand man Unternehmen, die sich auf die Besserung ausgerichteten.
In den Anfängen vollzogen wurde der Antritt oft bezüglich der Transfer der URL der entsprechenden Seite bei der verschiedenartigen Search Engines. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Server der Suchseite, wo ein 2. Software, der bekannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die zeitigen Varianten der Suchalgorithmen basierten auf Angaben, die dank der Webmaster selber gegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick via Gehalt einer Seite, dennoch registrierte sich bald hoch, dass die Verwendung der Vorschläge nicht verlässlich war, da die Wahl der eingesetzten Schlagworte dank dem Webmaster eine ungenaue Abbildung des Seiteninhalts reflektieren kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Unterseiten bei einzigartigen Brauchen listen.[2] Auch versuchten Seitenersteller mehrere Eigenschaften innerhalb des HTML-Codes einer Seite so zu beherrschen, dass die Seite stärker in den Suchergebnissen aufgeführt wird.[3]
Da die damaligen Search Engines sehr auf Aspekte angewiesen waren, die alleinig in Fingern der Webmaster lagen, waren sie auch sehr empfänglich für Abusus und Manipulationen im Ranking. Um gehobenere und relevantere Testergebnisse in den Resultaten zu bekommen, mussten sich die Betreiber der Suchmaschinen im WWW an diese Faktoren anpassen. Weil der Riesenerfolg einer Search Engine davon zusammenhängt, besondere Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, konnten ungünstige Ergebnisse darin resultieren, dass sich die Benützer nach ähnlichen Chancen bei der Suche im Web umsehen. Die Antwort der Suchmaschinen im Netz lagerbestand in komplexeren Algorithmen für das Platz, die Punkte beinhalteten, die von Webmastern nicht oder nur schwer manipulierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Urahn von Google – eine Suchseiten, die auf einem mathematischen Suchsystem basierte, der anhand der Verlinkungsstruktur Internetseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch sonstige Suchmaschinen bezogen pro Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine