Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen im Internet an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten direkt den Wert einer bevorzugten Positionierung in den Resultaten und recht bald fand man Behörde, die sich auf die Verbesserung spezialisierten.
In Anfängen bis zu diesem Zeitpunkt die Aufnahme oft über die Übertragung der URL der richtigen Seite an die vielfältigen Suchmaschinen im Netz. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Server der Suchseiten, wo ein weiteres Angebot, der die bekannten Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu sonstigen Seiten).
Die zeitigen Varianten der Suchalgorithmen basierten auf Angaben, die dank der Webmaster sogar vorliegen werden konnten, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Überblick per Inhalt einer Seite, doch stellte sich bald heraus, dass die Verwendung der Details nicht ordentlich war, da die Wahl der genutzten Schlüsselworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts repräsentieren hat. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Internetseiten bei besonderen Ausschau halten listen.[2] Auch versuchten Seitenersteller mehrere Attribute im Laufe des HTML-Codes einer Seite so zu beherrschen, dass die Seite stärker in Serps gefunden wird.[3]
Da die damaligen Suchmaschinen sehr auf Faktoren dependent waren, die allein in den Händen der Webmaster lagen, waren sie auch sehr empfänglich für Falscher Gebrauch und Manipulationen im Ranking. Um bessere und relevantere Testurteile in den Ergebnissen zu erhalten, mussten wir sich die Betreiber der Search Engines an diese Gegebenheiten einstellen. Weil der Riesenerfolg einer Suchmaschine davon anhängig ist, wichtigste Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, vermochten unpassende Testurteile dazu führen, dass sich die Benutzer nach sonstigen Chancen für den Bereich Suche im Web umgucken. Die Lösung der Suchmaschinen fortbestand in komplexeren Algorithmen fürs Ranking, die Punkte beinhalteten, die von Webmastern nicht oder nur nicht leicht beherrschbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Stammvater von Google – eine Suchseiten, die auf einem mathematischen Algorithmus basierte, der anhand der Verlinkungsstruktur Websites gewichtete und dies in Rankingalgorithmus einfließen ließ. Auch zusätzliche Suchmaschinen im Netz überzogen pro Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine