Tag: SEO
Mitte der 1990er Jahre fingen die 1. Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten flott den Wert einer nahmen Positionierung in Suchergebnissen und recht bald entstanden Behörde, die sich auf die Verfeinerung ausgerichteten.
In Anfängen passierte die Aufnahme oft bezüglich der Transfer der URL der speziellen Seite bei der diversen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Web Server der Search Engine, wo ein 2. Software, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu ähnlichen Seiten).
Die damaligen Varianten der Suchalgorithmen basierten auf Infos, die dank der Webmaster eigenhändig vorhanden worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Gesamteindruck via Gehalt einer Seite, doch registrierte sich bald hervor, dass die Inanspruchnahme der Details nicht ordentlich war, da die Wahl der genutzten Schlüsselworte durch den Webmaster eine ungenaue Abbildung des Seiteninhalts spiegeln vermochten. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Webseiten bei individuellen Benötigen listen.[2] Auch versuchten Seitenersteller unterschiedliche Eigenschaften im Laufe des HTML-Codes einer Seite so zu interagieren, dass die Seite richtiger in den Ergebnissen gefunden wird.[3]
Da die damaligen Internet Suchmaschinen sehr auf Kriterien angewiesen waren, die einzig in Händen der Webmaster lagen, waren sie auch sehr instabil für Abusus und Manipulationen im Ranking. Um überlegenere und relevantere Testurteile in Serps zu erhalten, musste ich sich die Inhaber der Search Engines an diese Rahmenbedingungen einstellen. Weil der Triumph einer Suchseite davon abhängig ist, wichtigste Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, vermochten unpassende Vergleichsergebnisse dazu führen, dass sich die Benutzer nach sonstigen Möglichkeiten zur Suche im Web umblicken. Die Rückmeldung der Suchmaschinen lagerbestand in komplexeren Algorithmen für das Ranking, die Gesichtspunkte beinhalteten, die von Webmastern nicht oder nur schwierig kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Vorläufer von Suchmaschinen – eine Recherche, die auf einem mathematischen Algorithmus basierte, der mit Hilfe der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch übrige Search Engines überzogen pro Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine