Tag: SEO
Mitte der 1990er Jahre fingen die anfänglichen Internet Suchmaschinen an, das frühe Web zu systematisieren. Die Seitenbesitzer erkannten zügig den Wert einer lieblings Positionierung in Serps und recht bald entstanden Behörde, die sich auf die Besserung spezialisierten.
In den Anfängen ereignete sich der Antritt oft zu der Übermittlung der URL der speziellen Seite an die verschiedenartigen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Homepage auf den Webserver der Suchmaschine, wo ein zweites Softwaresystem, der bekannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu weiteren Seiten).
Die damaligen Versionen der Suchalgorithmen basierten auf Angaben, die durch die Webmaster auch vorhanden werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick über den Thema einer Seite, jedoch stellte sich bald raus, dass die Nutzung dieser Vorschläge nicht gewissenhaft war, da die Wahl der benutzten Schlüsselworte dank dem Webmaster eine ungenaue Erläuterung des Seiteninhalts reflektieren hat. Ungenaue und unvollständige Daten in den Meta-Elementen vermochten so irrelevante Internetseiten bei besonderen Suchen listen.[2] Auch versuchten Seitenersteller unterschiedliche Merkmale innert des HTML-Codes einer Seite so zu lenken, dass die Seite größer in Serps gelistet wird.[3]
Da die späten Search Engines sehr auf Aspekte angewiesen waren, die alleinig in Händen der Webmaster lagen, waren sie auch sehr empfänglich für Straftat und Manipulationen im Ranking. Um tolle und relevantere Resultate in den Serps zu bekommen, mussten sich die Anbieter der Suchmaschinen im Internet an diese Rahmenbedingungen integrieren. Weil der Erfolg einer Suchseite davon zusammenhängt, essentielle Ergebnisse der Suchmaschine zu den inszenierten Keywords anzuzeigen, vermochten unangebrachte Ergebnisse zur Folge haben, dass sich die Mensch nach sonstigen Entwicklungsmöglichkeiten zur Suche im Web umschauen. Die Antwort der Search Engines lagerbestand in komplexeren Algorithmen fürs Rangfolge, die Faktoren beinhalteten, die von Webmastern nicht oder nur kompliziert beeinflussbar waren. Larry Page und Sergey Brin entworfenen mit „Backrub“ – dem Urahn von Bing – eine Recherche, die auf einem mathematischen Matching-Verfahren basierte, der anhand der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch zusätzliche Search Engines bezogen bei Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine