Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Suchmaschinen an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten zügig den Wert einer nahmen Positionierung in den Serps und recht bald entstanden Unternehmen, die sich auf die Besserung ausgebildeten.
In den Anfängen geschah die Aufnahme oft zu der Transfer der URL der entsprechenden Seite in puncto unterschiedlichen Internet Suchmaschinen. Diese sendeten dann einen Webcrawler zur Untersuchung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Webserver der Search Engine, wo ein weiteres Anwendung, der bekannte Indexer, Infos herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten).
Die späten Versionen der Suchalgorithmen basierten auf Infos, die dank der Webmaster selbst vorliegen sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im WWW wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick mit Gegenstand einer Seite, aber registrierte sich bald heraus, dass die Nutzung dieser Details nicht ordentlich war, da die Wahl der eingesetzten Schlagworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts repräsentieren konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Websites bei individuellen Brauchen listen.[2] Auch versuchten Seitenersteller diverse Fähigkeiten in einem Zeitraum des HTML-Codes einer Seite so zu interagieren, dass die Seite größer in den Resultaten gelistet wird.[3]
Da die zeitigen Internet Suchmaschinen sehr auf Merkmalen angewiesen waren, die nur in den Händen der Webmaster lagen, waren sie auch sehr labil für Abusus und Manipulationen in der Positionierung. Um vorteilhaftere und relevantere Testergebnisse in den Resultaten zu bekommen, mussten sich die Besitzer der Suchmaschinen im Internet an diese Voraussetzungen einstellen. Weil der Ergebnis einer Anlaufstelle davon anhängig ist, wichtigste Ergebnisse der Suchmaschine zu den gestellten Keywords anzuzeigen, konnten unpassende Vergleichsergebnisse darin resultieren, dass sich die User nach sonstigen Wege bei dem Suche im Web umgucken. Die Auskunft der Suchmaschinen im WWW fortbestand in komplexeren Algorithmen beim Platz, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht steuerbar waren. Larry Page und Sergey Brin generierten mit „Backrub“ – dem Urahn von Suchmaschinen – eine Suchseiten, die auf einem mathematischen Suchalgorithmus basierte, der mit Hilfe der Verlinkungsstruktur Webseiten gewichtete und dies in den Rankingalgorithmus einfluss besitzen ließ. Auch weitere Suchmaschinen im WWW überzogen zu Beginn der Folgezeit die Verlinkungsstruktur bspw. fit der Linkpopularität in ihre Algorithmen mit ein.
Die Suchmaschine