Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Suchmaschinen im Netz an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Listung in den Resultaten und recht bald entwickelten sich Einrichtung, die sich auf die Aufwertung qualifitierten.
In den Anfängen vollzogen wurde die Aufnahme oft bezüglich der Übertragung der URL der jeweiligen Seite an die diversen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Webserver der Suchseiten, wo ein zweites Programm, der gern genutzte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die neuzeitlichen Versionen der Suchalgorithmen basierten auf Angaben, die mithilfe der Webmaster sogar existieren worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben eine Übersicht via Essenz einer Seite, jedoch registrierte sich bald herab, dass die Verwendung der Vorschläge nicht vertrauenswürdig war, da die Wahl der angewendeten Schlüsselworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts repräsentieren kann. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Seiten bei charakteristischen Suchen listen.[2] Auch versuchten Seitenersteller verschiedenartige Merkmale in des HTML-Codes einer Seite so zu steuern, dass die Seite stärker in Suchergebnissen gelistet wird.[3]
Da die frühen Suchmaschinen sehr auf Kriterien abhängig waren, die alleinig in den Taschen der Webmaster lagen, waren sie auch sehr unsicher für Schindluder und Manipulationen im Ranking. Um gehobenere und relevantere Vergleichsergebnisse in Resultaten zu erhalten, mussten sich die Anbieter der Search Engines an diese Voraussetzungen adjustieren. Weil der Erfolg einer Anlaufstelle davon abhängig ist, essentielle Suchresultate zu den gestellten Suchbegriffen anzuzeigen, vermochten ungünstige Vergleichsergebnisse zur Folge haben, dass sich die Anwender nach anderweitigen Chancen für die Suche im Web umblicken. Die Erwiderung der Search Engines vorrat in komplexeren Algorithmen für das Platz, die Aspekte beinhalteten, die von Webmastern nicht oder nur mühevoll kontrollierbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Stammvater von Die Suchmaschine – eine Suchseiten, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch weitere Suchmaschinen im Netz betreffend in Mitten der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.
Bing