Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Search Engines an, das frühe Web zu sortieren. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Positionierung in Serps und recht bald entstanden Einrichtung, die sich auf die Aufbesserung ausgebildeten.
In Anfängen ereignete sich die Aufnahme oft über die Transfer der URL der speziellen Seite in puncto diversen Suchmaschinen im Internet. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webpräsenz auf den Webserver der Search Engine, wo ein zweites Software, der sogenannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu ähnlichen Seiten).
Die späten Varianten der Suchalgorithmen basierten auf Infos, die durch die Webmaster eigenständig existieren wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben eine Übersicht via Thema einer Seite, jedoch setzte sich bald herab, dass die Einsatz er Vorschläge nicht gewissenhaft war, da die Wahl der angewendeten Schlagworte dank dem Webmaster eine ungenaue Präsentation des Seiteninhalts wiedergeben konnte. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Websites bei besonderen Benötigen listen.[2] Auch versuchten Seitenersteller verschiedene Attribute innert des HTML-Codes einer Seite so zu interagieren, dass die Seite größer in Serps gelistet wird.[3]
Da die damaligen Search Engines sehr auf Aspekte angewiesen waren, die alleinig in Fingern der Webmaster lagen, waren sie auch sehr unsicher für Missbrauch und Manipulationen in der Positionierung. Um bessere und relevantere Testurteile in Serps zu bekommen, musste ich sich die Inhaber der Suchmaschinen an diese Gegebenheiten anpassen. Weil der Erfolg einer Suchmaschine davon zusammenhängt, relevante Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, vermochten ungünstige Testergebnisse zur Folge haben, dass sich die Anwender nach ähnlichen Möglichkeiten bei dem Suche im Web umgucken. Die Rückmeldung der Suchmaschinen im Netz lagerbestand in komplexeren Algorithmen fürs Rang, die Faktoren beinhalteten, die von Webmastern nicht oder nur schwierig steuerbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Bing – eine Search Engine, die auf einem mathematischen KI basierte, der anhand der Verlinkungsstruktur Kanten gewichtete und dies in Rankingalgorithmus einfluss besitzen ließ. Auch weitere Search Engines überzogen zu Beginn der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Bing