Blog-Eintrag -
Suchmaschinenmarketing: Was macht Google eigentlich auf meiner Webseite?
von Andre Ullmann
Eines gleich vorweg, niemand wird Googles Algorithmus vollständig verstehen außer Google selbst. Sonst wäre es ja auch alles ein wenig zu einfach. Dennoch ist es durchaus sinnvoll, sich etwas tiefer mit den Themen Parsen, Crawling, Indizieren und Ranking zu beschäftigen, um im Ansatz zu verstehen, welche Faktoren auf eine gute Positionierung Einfluss haben und erfolgreiches Suchmaschinenmarketing zu betreiben.
Der Searcher
Als Einstieg wird ein Browser wie der Internet Explorer oder Firefox verwendet. Der Browser stellt für den Nutzer den Zugang zum Internet her und kann über die URL eines Suchmaschinenanbieters seiner Wahl darauf zugreifen. Der Suchmaschinenanbieter stellt eine Webseite wie zum Beispiel google.de zur Verfügung, über die der Nutzer seine Suchanfrage absetzen kann.
Mit dem Searcher bietet die Suchmaschine eine Schnittstelle für Benutzer an, um Suchanfragen an den Suchindex zu stellen. Der Searcher besteht aus einem Abfrage-Prozessor (Query Processor), der die Eingabe des Benutzers entgegennimmt, auf syntaktische Korrektheit prüft und in vielen Fällen auch Tippfehler erkennen kann. Die jeweilige Eingabe wird dann geprüft und eine entsprechende Ergebnisseite (Search Engine Result Page) zurückgeliefert. Ein Searcher ist in der Lage, mehrere zehntausend Abfragen von Benutzern gleichzeitig zu bearbeiten, in der Regel wird dies über verschiedene Datencenter koordiniert.
Der Crawler
Der Crawler hat die Aufgabe, das Web ständig zu durchsuchen und die gefundenen Informationen zu indizieren. Dabei geht es vorrangig um die Erreichbarkeit der Webseite. Wie beim Surfen durch das Internet gelangt ein Crawler über Hyperlinks von einer Webseite zu anderen. Dabei werden alle aufgefundenen Adressen gespeichert und der Reihe nach besucht. Die neu gefundenen Hyperlinks werden einer Liste mit allen gesammelten URLs hinzugefügt. Zu den erfassten Daten gehören beispielsweise Datei-Namen und Datumsangaben. Auf diese Weise können theoretisch alle erreichbaren Seiten des Internets gefunden werden – theoretisch, weil es Webseiten gibt, die nicht öffentlich im Internet zur Verfügung stehen oder teilweise auch mit Passwörtern oder anderen Ausgrenzungen ausgeschlossen werden.
Der Index
Die Datenbank einer Suchmaschine wird Suchindex genannt. Hier werden die für die Suche wichtigen indizierten Informationen gespeichert. Die Suchindexgröße steht im Verhältnis zum World Wide Web und führt somit zu enormen Kosten des Suchmaschinenbetreibers. Sie bildet quasi das Fundament jeder Suchmaschine. Jede aufgenommene Information bekommt eine eindeutige ID zugeordnet. Durch dynamisches Einfügen, Löschen und Verändern von Datensätzen wird versucht, den Datenbestand konsistent zu halten.
Neben Informationen zu den Inhalten sind hier auch deren Relevanz für bestimmte Schlüsselbegriffe, sowie – je nach System – die Codierungen zum Page Rank, Trust Rank, Link Popularity oder Domain Populartity erfasst. Dieses Vorgehen beeinflusst auch die Platzierung der Webseiten in den Trefferlisten bei Suchanfragen, weshalb es im Suchmaschinenmarketing berücksichtigt werden sollte. Suchmaschinen speichern in ihrem Suchindex das sichtbare Netz, d.h. den über den Crawler erreichbaren Teil des Internets.
Der Indexer erkennt den Text einer Webseite mit deren Unterseiten und weiterführenden Links und speichert jedes identifizierte Wort verbunden mit seiner URL im Suchindex. Interpunktion wie auch Groß- und Kleinschreibung finden dabei keine Bedeutung.
Der Parser
Der Parser selbst leistet einen entscheidenden Beitrag zur Aufbereitung der Information. Der Parser befindet sich zwischen Crawler und Indexer. Im Parser erfolgt die erste Stufe der Informationsverarbeitung einer Suchmaschine. Die vom Crawler übermittelten Inhalte werden systematisch in ein Datenformat übergeben. Hierbei werden die verschiedenen Ebenen einer Webseite (Titel, Überschriften, Textpassagen, Bilder, Meta-Informationen, Sprache) identifiziert und ausgewertet. Parser müssen über ein hohes Maß an Fehlertoleranz verfügen, da viele Webseiten nicht in korrektem (X)HTML erstellt werden, so dass oft syntaktische Fehler vorliegen. Wegen der verschiedenen Wortformen wie zum Beispiel „Buch“, „Bücher“, „Buches“, findet eine Reduktion auf das Stammwort „Buch“ statt. Gleichermaßen werden alle unbedeutenden Stoppwörter wie etwa “der”, “die”, “das”, “und”, “oder” etc. gelöscht. Zudem sind Parser fähig, Formen von Spam zu erkennen und für eine spätere Weiterverarbeitung zu markieren. Dafür werden vom Parser Blacklists eingesetzt, welche die vom Crawler gelieferten Inhalte auf unzulässige Wörter oder URLs überprüfen.
Der Ranker
Die Suchergebnismenge ist für den Nutzer nicht handelbar und wird auch nicht in seiner Gesamtheit begutachtet. Daher ist es entscheidend, welche zehn Ergebnisse auf der ersten Seite ausgegeben werden. Diese Aufgabe übernimmt der Ranker. Im Fall von Google wird dieses Konzept PageRank genannt. Das Ranking-Konzept von anderen allgemeinen Suchmaschinen bezieht sich grundsätzlich auf das Vorkommen eines Suchbegriffs in den Inhalten einer Webseite. Kriterien für die Gewichtung sind die relative Häufigkeit beziehungsweise die Keyworddichte oder auch deren Positionierung. Dazu kommt die Anzahl der eingehenden Links für eine Information als ein grundsätzliches Kriterium für die Bedeutung einer Webseite in der Relevanzbeurteilung. Im Gegensatz zum Konzept der Link-Popularität nutzt das PageRank-Konzept von Google nicht die absolute Anzahl eingehender Links für die Beurteilung der Bedeutung einer Webseite. Vielmehr wird einer Information – völlig unabhängig von ihren Inhalten – ein hoher Rang zugewiesen, wenn sie von anderen bedeutenden Webinhalten verlinkt wird. Die Bedeutung einer Information wird bestimmt aus der Bedeutung der darauf verlinkenden Informationen, rekursiv aus der Bedeutung anderer Informationen. Somit hat die Bedeutung jeder Information eine Auswirkung auf das Ranking einer jeden anderen und beruht letztlich auf der Linkstruktur des gesamten Internets.
Zusammenfassung
Um Suchmaschinenmarketing betreiben zu können, ist es wichtig, nicht nur Keywords, sinnvollen Content und den PageRank jeweils einzeln zu betrachten. Es geht um die Gesamtheit aller Maßnahmen, die Notwendig sind, um ein gute Position in den Suchergebnissen zu erzielen.
Die Gesamtheit besteht aus der vernetzten Optimierung von
- Webseiten Content, bestehend aus strukturierten Texten, Bildern, Videos und Keywords, die für den Parser sinnvolle Daten liefern. Ein Mix zwischen Werbetext und Publisher Text ist hierbei zielführend
- Verlinkungen zu und von anderen vertrauenswürdigen Webseiten, denn nicht die Menge der Links zählt, sondern die Qualität
- Aktivitäten, die dem Crawler neue Informationen über den Webseitenbetreiber liefern. Dazu gehören unter anderem Blogs auf der eigenen Seite sowie Social-Media-Aktivitäten bei Facebook, Twitter und Co. Auch Facebook ist für SEO von signifikanter Bedeutung
- langfristigen Google Adwords und Facebook-Kampagnen, um einerseits das Unternehmen bzw. die Marke zu etablieren und sich andererseits bei den Sucherergebnissen unter den Marktbegleitern der gleichen Branche zu positionieren. Wahrnehmung und Reichweite sind hier das Stichwort für die Bedeutung einer Webseite, welche zu einem guten Ranking führen soll
Andre Ullmann ist Online Marketing Experte mit mehr als 10 Jahren praktischer Erfahrung in der OffPage- und OnPage-Optimierung. Als Geschäftsführer der Firma Pro-Medial berät er Unternehmen in deren Web-Strategie von der Web-Entwicklung bis zur digitalen Kundengewinnung. Als Trainer behandelt er zukunftsweisende Marketing-Aktivitäten wie Augmented Reality, Content Curation oder das Internet der Dinge.
Links
Themen
- Beratung
Regionen
- Baden-Württemberg