Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Suchmaschinen im Netz an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten flott den Wert einer bevorzugten Listung in Resultaten und recht bald entstanden Betriebe, die sich auf die Besserung qualifizierten.
In den Anfängen passierte die Aufnahme oft über die Übermittlung der URL der richtigen Seite bei der vielfältigen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Server der Anlaufstelle, wo ein zweites Softwaresystem, der bekannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu anderen Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Informationen, die mithilfe der Webmaster eigenständig vorliegen werden konnten, wie Meta-Elemente, oder durch Indexdateien in Search Engines wie ALIWEB. Meta-Elemente geben einen Gesamteindruck über den Thema einer Seite, jedoch stellte sich bald hervor, dass die Inanspruchnahme dieser Details nicht zuverlässig war, da die Wahl der benutzten Schlüsselworte dank dem Webmaster eine ungenaue Abbildung des Seiteninhalts widerspiegeln vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Websites bei einzigartigen Brauchen listen.[2] Auch versuchten Seitenersteller mehrere Attribute innerhalb des HTML-Codes einer Seite so zu beeinflussen, dass die Seite stärker in den Resultaten gefunden wird.[3]
Da die zeitigen Suchmaschinen im WWW sehr auf Faktoren angewiesen waren, die alleinig in den Händen der Webmaster lagen, waren sie auch sehr vulnerabel für Schindluder und Manipulationen im Ranking. Um tolle und relevantere Ergebnisse in Serps zu erhalten, mussten wir sich die Unternhemer der Suchmaschinen an diese Rahmenbedingungen anpassen. Weil der Riesenerfolg einer Suchmaschine davon zusammenhängt, wesentliche Suchergebnisse zu den inszenierten Keywords anzuzeigen, vermochten unpassende Urteile dazu führen, dass sich die Benutzer nach ähnlichen Wege bei der Suche im Web umblicken. Die Rückmeldung der Search Engines fortbestand in komplexeren Algorithmen fürs Ranking, die Merkmalen beinhalteten, die von Webmastern nicht oder nur mühevoll kontrollierbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Stammvater von Die Suchmaschine – eine Anlaufstelle, die auf einem mathematischen Suchalgorithmus basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus eingehen ließ. Auch zusätzliche Suchmaschinen betreffend in Mitten der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.