Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Internet an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten direkt den Wert einer nahmen Positionierung in Suchergebnissen und recht bald fand man Einrichtung, die sich auf die Verbesserung spezialisierten.
In den Anfängen bis zu diesem Zeitpunkt die Aufnahme oft über die Übermittlung der URL der geeigneten Seite bei der verschiedenartigen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Web Server der Suchseiten, wo ein zweites Programm, der allgemein so benannte Indexer, Informationen herauslas und katalogisierte (genannte Ansprüche, Links zu diversen Seiten).
Die zeitigen Typen der Suchalgorithmen basierten auf Informationen, die dank der Webmaster auch vorgegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Überblick mit Gegenstand einer Seite, allerdings registrierte sich bald hoch, dass die Einsatz der Vorschläge nicht vertrauenswürdig war, da die Wahl der gebrauchten Schlagworte dank dem Webmaster eine ungenaue Abbildung des Seiteninhalts repräsentieren konnte. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei spezifischen Recherchieren listen.[2] Auch versuchten Seitenersteller verschiedene Fähigkeiten innert des HTML-Codes einer Seite so zu beeinflussen, dass die Seite überlegen in den Suchergebnissen gefunden wird.[3]
Da die späten Suchmaschinen im Internet sehr auf Punkte dependent waren, die bloß in den Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Missbrauch und Manipulationen im Ranking. Um höhere und relevantere Testergebnisse in Ergebnissen zu erhalten, mussten wir sich die Betreiber der Internet Suchmaschinen an diese Umständen integrieren. Weil der Erfolg einer Suchseiten davon abhängt, essentielle Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, konnten unpassende Testurteile dazu führen, dass sich die Benutzer nach weiteren Varianten bei dem Suche im Web umschauen. Die Rückmeldung der Suchmaschinen im Netz inventar in komplexeren Algorithmen beim Ranking, die Merkmalen beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht manipulierbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Stammvater von Die Suchmaschine – eine Suchmaschine, die auf einem mathematischen Suchalgorithmus basierte, der anhand der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch weitere Suchmaschinen betreffend in der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Yahoo