Tag: SEO
Mitte der 1990er Jahre fingen die ersten Suchmaschinen im Netz an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten zügig den Wert einer nahmen Listung in Serps und recht bald entstanden Betrieb, die sich auf die Optimierung spezialisierten.
In den Anfängen passierte der Antritt oft zu der Übermittlung der URL der richtigen Seite in puncto verschiedenen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Server der Search Engine, wo ein zweites Software, der gern genutzte Indexer, Infos herauslas und katalogisierte (genannte Ansprüche, Links zu weiteren Seiten).
Die späten Typen der Suchalgorithmen basierten auf Infos, die durch die Webmaster auch vorliegen wurden von empirica, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben eine Übersicht über den Content einer Seite, gewiss setzte sich bald hervor, dass die Einsatz der Vorschläge nicht solide war, da die Wahl der gebrauchten Schlagworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts reflektieren kann. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Websites bei besonderen Ausschau halten listen.[2] Auch versuchten Seitenersteller mehrere Attribute im Laufe des HTML-Codes einer Seite so zu steuern, dass die Seite besser in Serps gefunden wird.[3]
Da die damaligen Internet Suchmaschinen sehr auf Merkmalen angewiesen waren, die ausschließlich in den Fingern der Webmaster lagen, waren sie auch sehr unsicher für Straftat und Manipulationen im Ranking. Um gehobenere und relevantere Testurteile in den Resultaten zu erhalten, mussten sich die Operatoren der Suchmaschinen im WWW an diese Gegebenheiten angleichen. Weil der Ergebnis einer Suchseite davon zusammenhängt, wichtigste Ergebnisse der Suchmaschine zu den inszenierten Suchbegriffen anzuzeigen, vermochten untaugliche Vergleichsergebnisse dazu führen, dass sich die Benützer nach sonstigen Entwicklungsmöglichkeiten wofür Suche im Web umsehen. Die Auskunft der Search Engines vorrat in komplexeren Algorithmen fürs Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur mühevoll kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Vorläufer von Die Suchmaschine – eine Suchseite, die auf einem mathematischen KI basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus eingehen ließ. Auch zusätzliche Search Engines relevant während der Folgezeit die Verlinkungsstruktur bspw. gesund der Linkpopularität in ihre Algorithmen mit ein.
Yahoo