Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Netz an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten flott den Wert einer nahmen Positionierung in den Resultaten und recht bald fand man Einrichtung, die sich auf die Aufbesserung professionellen.
In den Anfängen geschah die Aufnahme oft zu der Transfer der URL der speziellen Seite bei der divergenten Search Engines. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Web Server der Search Engine, wo ein 2. Programm, der gern genutzte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die späten Typen der Suchalgorithmen basierten auf Infos, die anhand der Webmaster sogar vorgegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Eindruck mit Thema einer Seite, allerdings registrierte sich bald hoch, dass die Verwendung der Ratschläge nicht zuverlässig war, da die Wahl der eingesetzten Schlüsselworte dank dem Webmaster eine ungenaue Beschreibung des Seiteninhalts repräsentieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Websites bei speziellen Brauchen listen.[2] Auch versuchten Seitenersteller verschiedene Fähigkeiten in einem Zeitraum des HTML-Codes einer Seite so zu beherrschen, dass die Seite besser in den Ergebnissen gefunden wird.[3]
Da die frühen Internet Suchmaschinen sehr auf Punkte abhängig waren, die nur in Taschen der Webmaster lagen, waren sie auch sehr anfällig für Schindluder und Manipulationen in der Positionierung. Um tolle und relevantere Testurteile in den Suchergebnissen zu erhalten, mussten wir sich die Betreiber der Internet Suchmaschinen an diese Ereignisse integrieren. Weil der Gewinn einer Suchmaschine davon zusammenhängt, wichtige Suchresultate zu den gestellten Suchbegriffen anzuzeigen, vermochten unangebrachte Vergleichsergebnisse zur Folge haben, dass sich die Anwender nach sonstigen Wege zur Suche im Web umsehen. Die Antwort der Suchmaschinen lagerbestand in komplexeren Algorithmen fürs Rang, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht leicht steuerbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Stammvater von Google – eine Suchseite, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch weitere Internet Suchmaschinen bedeckt während der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Suchmaschinen