Tag: SEO
Mitte der 1990er Jahre fingen die aller ersten Suchmaschinen im Internet an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Positionierung in den Resultaten und recht bald fand man Organisation, die sich auf die Aufwertung ausgerichteten.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft bezüglich der Transfer der URL der jeweiligen Seite an die verschiedenartigen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Webserver der Recherche, wo ein weiteres Computerprogramm, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die zeitigen Modellen der Suchalgorithmen basierten auf Infos, die durch die Webmaster selbst vorliegen werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben eine Übersicht via Gegenstand einer Seite, jedoch setzte sich bald herab, dass die Verwendung dieser Details nicht zuverlässig war, da die Wahl der verwendeten Schlagworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts widerspiegeln vermochten. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Kanten bei charakteristischen Benötigen listen.[2] Auch versuchten Seitenersteller verschiedene Merkmale in des HTML-Codes einer Seite so zu lenken, dass die Seite überlegen in den Ergebnissen gelistet wird.[3]
Da die damaligen Suchmaschinen im Netz sehr auf Gesichtspunkte abhängig waren, die einzig in den Händen der Webmaster lagen, waren sie auch sehr unsicher für Straftat und Manipulationen in der Positionierung. Um bessere und relevantere Vergleichsergebnisse in den Resultaten zu erhalten, mussten sich die Anbieter der Suchmaschinen im Netz an diese Umständen integrieren. Weil der Gewinn einer Suchmaschine davon anhängig ist, wichtigste Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, vermochten ungünstige Testurteile zur Folge haben, dass sich die Benützer nach anderweitigen Chancen für den Bereich Suche im Web umblicken. Die Erwiderung der Suchmaschinen im Internet fortbestand in komplexeren Algorithmen für das Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht manipulierbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Stammvater von Suchmaschinen – eine Suchseiten, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch andere Suchmaschinen überzogen zu Gesprächsaufhänger der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Yahoo