Tag: SEO
Mitte der 1990er Jahre fingen die 1. Suchmaschinen im WWW an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten direkt den Wert einer nahmen Positionierung in den Suchergebnissen und recht bald entwickelten sich Anstalt, die sich auf die Besserung professionellen.
In den Anfängen geschah der Antritt oft zu der Transfer der URL der richtigen Seite in puncto verschiedenen Suchmaschinen im WWW. Diese sendeten dann einen Webcrawler zur Betrachtung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Website auf den Web Server der Anlaufstelle, wo ein 2. Programm, der allgemein so benannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu diversen Seiten).
Die damaligen Varianten der Suchalgorithmen basierten auf Informationen, die anhand der Webmaster auch existieren worden sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Eindruck per Gegenstand einer Seite, aber registrierte sich bald herab, dass die Anwendung der Vorschläge nicht gewissenhaft war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Beschreibung des Seiteninhalts reflektieren konnte. Ungenaue und unvollständige Daten in Meta-Elementen konnten so irrelevante Websites bei besonderen Brauchen listen.[2] Auch versuchten Seitenersteller vielfältige Attribute innerhalb des HTML-Codes einer Seite so zu manipulieren, dass die Seite besser in den Resultaten aufgeführt wird.[3]
Da die neuzeitlichen Suchmaschinen sehr auf Aspekte dependent waren, die einzig in Taschen der Webmaster lagen, waren sie auch sehr vulnerabel für Schindluder und Manipulationen in der Positionierung. Um höhere und relevantere Ergebnisse in Ergebnissen zu bekommen, mussten sich die Operatoren der Suchmaschinen an diese Ereignisse anpassen. Weil der Riesenerfolg einer Recherche davon anhängig ist, besondere Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, vermochten ungeeignete Ergebnisse dazu führen, dass sich die Benutzer nach ähnlichen Chancen bei dem Suche im Web umgucken. Die Antwort der Search Engines vorrat in komplexeren Algorithmen für das Rangordnung, die Faktoren beinhalteten, die von Webmastern nicht oder nur nicht leicht kontrollierbar waren. Larry Page und Sergey Brin entwarfen mit „Backrub“ – dem Stammvater von Google – eine Recherche, die auf einem mathematischen Routine basierte, der mit Hilfe der Verlinkungsstruktur Unterseiten gewichtete und dies in den Rankingalgorithmus reingehen ließ. Auch zusätzliche Suchmaschinen im Internet orientiert in Mitten der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Bing