Tag: SEO
Mitte der 1990er Jahre fingen die allerersten Internet Suchmaschinen an, das frühe Web zu ordnen. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in den Serps und recht bald entstanden Betrieb, die sich auf die Verfeinerung professionellen.
In Anfängen geschah der Antritt oft bezüglich der Übertragung der URL der speziellen Seite bei der divergenten Suchmaschinen. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetseite auf den Server der Suchseite, wo ein zweites Programm, der sogenannte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu sonstigen Seiten).
Die späten Versionen der Suchalgorithmen basierten auf Informationen, die anhand der Webmaster sogar vorgegeben worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Gesamteindruck via Content einer Seite, aber stellte sich bald hervor, dass die Verwendung der Tipps nicht zuverlässig war, da die Wahl der benutzten Schlagworte durch den Webmaster eine ungenaue Erläuterung des Seiteninhalts reflektieren konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Webseiten bei speziellen Benötigen listen.[2] Auch versuchten Seitenersteller unterschiedliche Punkte innerhalb des HTML-Codes einer Seite so zu interagieren, dass die Seite besser in den Suchergebnissen gelistet wird.[3]
Da die neuzeitlichen Search Engines sehr auf Faktoren angewiesen waren, die ausschließlich in den Koffern der Webmaster lagen, waren sie auch sehr empfänglich für Abusus und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Ergebnisse in Ergebnissen zu erhalten, mussten wir sich die Anbieter der Search Engines an diese Gegebenheiten adjustieren. Weil der Ergebnis einer Search Engine davon abhängt, essentielle Suchergebnisse zu den gestellten Keywords anzuzeigen, konnten untaugliche Testurteile dazu führen, dass sich die Mensch nach ähnlichen Entwicklungsmöglichkeiten für die Suche im Web umsehen. Die Auflösung der Suchmaschinen im Internet fortbestand in komplexeren Algorithmen beim Platz, die Merkmalen beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht manipulierbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Recherche, die auf einem mathematischen Matching-Verfahren basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch zusätzliche Suchmaschinen im WWW betreffend in der Folgezeit die Verlinkungsstruktur bspw. als der Linkpopularität in ihre Algorithmen mit ein.