Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Search Engines an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten unmittelbar den Wert einer bevorzugten Positionierung in den Serps und recht bald fand man Unternehmen, die sich auf die Verbesserung professionellen.
In den Anfängen geschah die Aufnahme oft zu der Übertragung der URL der passenden Seite an die verschiedenartigen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Prüfung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Web Server der Suchmaschine, wo ein weiteres Software, der gern genutzte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die zeitigen Modellen der Suchalgorithmen basierten auf Informationen, die mit den Webmaster selbst gegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick via Content einer Seite, doch setzte sich bald heraus, dass die Benutzung der Vorschläge nicht ordentlich war, da die Wahl der angewendeten Schlüsselworte dank dem Webmaster eine ungenaue Präsentation des Seiteninhalts spiegeln hat. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Websites bei individuellen Suchen listen.[2] Auch versuchten Seitenersteller verschiedene Fähigkeiten innerhalb des HTML-Codes einer Seite so zu interagieren, dass die Seite richtiger in den Serps gefunden wird.[3]
Da die zeitigen Suchmaschinen im Internet sehr auf Aspekte angewiesen waren, die allein in Händen der Webmaster lagen, waren sie auch sehr labil für Schindluder und Manipulationen im Ranking. Um tolle und relevantere Ergebnisse in den Ergebnissen zu bekommen, musste ich sich die Besitzer der Suchmaschinen im Netz an diese Rahmenbedingungen einstellen. Weil der Triumph einer Suchseiten davon anhängig ist, wichtige Suchresultate zu den inszenierten Keywords anzuzeigen, vermochten unangebrachte Ergebnisse dazu führen, dass sich die User nach sonstigen Entwicklungsmöglichkeiten wofür Suche im Web umgucken. Die Auskunft der Suchmaschinen im WWW fortbestand in komplexeren Algorithmen für das Rangordnung, die Merkmalen beinhalteten, die von Webmastern nicht oder nur mühevoll kontrollierbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Anlaufstelle, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in Rankingalgorithmus reingehen ließ. Auch andere Suchmaschinen im Internet betreffend in Mitten der Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Bing