Tag: SEO
Mitte der 1990er Jahre fingen die anstehenden Internet Suchmaschinen an, das frühe Web zu erfassen. Die Seitenbesitzer erkannten direkt den Wert einer lieblings Positionierung in den Ergebnissen und recht bald entwickelten sich Behörde, die sich auf die Optimierung qualifizierten.
In Anfängen erfolgte die Aufnahme oft bezüglich der Übermittlung der URL der entsprechenden Seite an die verschiedenartigen Search Engines. Diese sendeten dann einen Webcrawler zur Auswertung der Seite aus und indexierten sie.[1] Der Webcrawler lud die Internetpräsenz auf den Web Server der Search Engine, wo ein zweites Softwaresystem, der bekannte Indexer, Angaben herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten).
Die neuzeitlichen Versionen der Suchalgorithmen basierten auf Infos, die anhand der Webmaster eigenständig vorliegen sind, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen im Netz wie ALIWEB. Meta-Elemente geben einen Gesamtüberblick per Thema einer Seite, dennoch setzte sich bald hervor, dass die Anwendung dieser Details nicht solide war, da die Wahl der benutzten Schlüsselworte dank dem Webmaster eine ungenaue Erläuterung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in Meta-Elementen vermochten so irrelevante Seiten bei speziellen Ausschau halten listen.[2] Auch versuchten Seitenersteller unterschiedliche Fähigkeiten binnen des HTML-Codes einer Seite so zu interagieren, dass die Seite passender in Serps gelistet wird.[3]
Da die zeitigen Suchmaschinen im Internet sehr auf Gesichtspunkte dependent waren, die nur in den Taschen der Webmaster lagen, waren sie auch sehr empfänglich für Missbrauch und Manipulationen in der Positionierung. Um bessere und relevantere Resultate in Serps zu bekommen, mussten sich die Anbieter der Suchmaschinen im WWW an diese Rahmenbedingungen angleichen. Weil der Riesenerfolg einer Suchmaschine davon anhängig ist, wesentliche Ergebnisse der Suchmaschine zu den gestellten Suchbegriffen anzuzeigen, vermochten untaugliche Testergebnisse dazu führen, dass sich die User nach anderen Möglichkeiten für den Bereich Suche im Web umschauen. Die Erwiderung der Internet Suchmaschinen inventar in komplexeren Algorithmen für das Rang, die Kriterien beinhalteten, die von Webmastern nicht oder nur nicht gerade leicht kontrollierbar waren. Larry Page und Sergey Brin gestalteten mit „Backrub“ – dem Urahn von Bing – eine Recherche, die auf einem mathematischen Suchsystem basierte, der mit Hilfe der Verlinkungsstruktur Kanten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch weitere Suchmaschinen im Internet überzogen bei Folgezeit die Verlinkungsstruktur bspw. wohlauf der Linkpopularität in ihre Algorithmen mit ein.
Yahoo