Skip to main content

Suchmaschinenoptimierung

Funktionsweise Suchmaschinen

Wenn man sich mit Suchmaschinenoptimierung beschäftigt, muss man zunächst verstehen wie Suchmaschinen arbeiten. Wer einen Begriff bei Google eingibt, bekommt innerhalb weniger Sekunden ein (hoffentlich relevantes) Suchergebnis, das sich über Hunderte Seiten erstreckt. Dabei laufen im Hintergrund drei wichtige Prozesse ab:

– die Suchmaschine untersucht die eingegebenen Begriffe und findet Seiten die dazu passen
– die Suchmaschine sortiert die gefundenen Seiten, so dass die besten Resultate oben stehen
– das Suchergebnis wird angezeigt

Auswahl der Seiten für Suchbegriffe

Natürlich wird das Web nicht in dem Augenblick durchsucht, in dem der Nutzer einen Suchbegriff eingibt. Suchmaschinen verwenden sogenannte Spider oder Crawler um das Internet regelmässig abzusuchen. Von den gefundenen Seiten, wird der eigentliche Inhalt vom HTML Quellcode extrahiert und dieser in den Datencentern der grossen Suchmaschinen gespeichert. Bei einer Suche in Google, wird der so entstandene Index eines Datencenters durchsucht und passende Seiten ausgewählt.

SEO

SEO ©iStockphoto/gustavofrazao

Die Auswahl erfolgt dabei im einfachsten Fall je nachdem, ob der oder die eingegebenen Begriffe auf der gefundenen Seite enthalten sind. Später wird jedoch gezeigt, dass es darüber hinaus noch komplexere Ansätze, zur Bestimmung der gefundenen Seiten gibt.

Allgemeine Regeln für suchmaschinenfreundliche Seiten

Um andere Webseiten im Ranking der Suchmaschinen zu schlagen, ist erst im zweiten Schritt die reine On-Page Suchmaschinen-Optimierung erforderlich. Davor gilt es einige allgemeingültige Vorgehensweisen zu beachten, die in erster Linie dem Nutzer der eigenen Seite zugute kommen. Nicht umsonst lautet einer der Google Grundsätze bei den Webmaster Richtlinien, dass man Seiten für Benutzer bauen soll und nicht für Suchmaschinen. Die folgenden Richtlinien sollten also vor allem unter dem Aspekt einer besseren Nutzerfreundlichkeit gesehen werden. Dass sie sich gleichzeitig positiv auf die Suchmaschinenbewertung auswirken, darf als nettes Bonbon gesehen werden.

Wer langsam lädt ist raus

Nichts ist frustrierender für den Surfer, als ein gähnend langsamer Seitenaufbau. Die eigene Website sollte immer verfügbar sein und alle Seiten schnell ausliefern. Grosse Seiten mit mehr als 120 KB Seiteninhalt sind unter allen Umständen zu vermeiden, da sie bei Nutzern mit langsamen Internetanschlüssen sehr lange laden. Immerhin zwei Drittel aller AOL Kunden gehen noch über Modem oder IDSN ins Netz. Ist die Seite nach 10 Sekunden nicht ausgeliefert, brechen die meisten Suchmaschinen Crawler das Indizieren ab. Der Nutzer hat bestimmt schon nach 5 Sekunden Wartezeit das Weite gesucht. Für die Seitengrösse existiert bei fast allen Suchmaschinen eine obere Schranke. Es ist davon auszugehen, dass eine Seite nicht mehr von allen Suchmaschinen aufgenommen wird, wenn die Dateigrösse über 210 KB liegt. In diesem Bereich liegt die Schranke der Suchmaschine von Yahoo!. Google ist etwas grosszügiger, mit maximal erlaubten 520 KB. MSN ist quasi generös und indiziert sogar Dateien die über 1 MB gross sind.

Das richtige HTML

Viele Webmaster nehmen es leider billigend in Kauf, wenn der HTML Markup Code ihrer Seite nicht valide ist. Moderne Browser sind in der Lage die Seiten trotzdem richtig anzuzeigen. Für eine Suchmaschine ist es jedoch ein Unterschied, ob eine HTML Seite dem gültigen Webstandard entspricht oder nicht. Alle Seiten einer Webseite sollten mit dem W3C Validator auf Gültigkeit überprüft werden. HTML Konformität kann man auch als Qualitätssiegel gegenüber einer Suchmaschine bezeichnen. Würde man selbst nicht eine zertifizierte Autowerkstatt, dem Schrauber an der Ecke vorziehen?

Bei der Umsetzung des HTML Codes, kann man bereits den Grundstein für eine gute Suchmaschinenplazierung legen, wenn man „schlankes“ HTML Markup produziert und die richtigen semantischen Tags an der richtigen Stelle einsetzt. Hauptüberschriften gehören in ein h2 Tag, Unterüberschriften werden über H2 oder H3 Tags hervorgehoben. Sollen besondere Passagen im Text hervorgehoben werden, kann das durch STRONG Tags geschehen. Das Layout sollte idealerweise unter Verwendung von Cascading Style Sheets (CSS) formatiert werden. CSS versetzt den HTML Programmierer in die Lage, den Quellcode auf ein Minimum zu reduzieren und designtechnische Vorgaben in eine externe Stylesheet Datei auszulagern. Dadurch bestehen die ausgelieferten Seiten fast nur noch aus semantisch korrekter Formatierung. Für das I-Tüpfelchen, baut ein guter CSS Programmierer die eigentlichen Inhalte der Seite ganz oben im Quellcode ein. Dadurch erscheint der Text noch vor den wiederholenden Elementen wie der Navigation und sorgt für die richtige „Keyword Prominence“.

Frames sind out

Frames sind eine alte HTML Technik aus der Anfangszeit des Internet. Suchmaschinen „mögen“ keine Webseiten, die auf Frames basieren. Wer vor die Wahl gestellt ist, sollte auf Frames unbedingt verzichten, da sie auch nicht besonders nutzerfreundlich sind (der Zurück-Knopf des Browsers funktioniert zum Beispiel nicht mehr so gut).

Sitemaps sind in

Wenige Webseiten bieten heutzutage noch eine Sitemap an. Dabei sind Sitemaps eine hervorragende Gelegenheit, um Nutzern und Suchmaschinen Crawlern die Möglichkeit zu geben, schnell in tiefere Ebenen der Webseite vorzudringen. Die Sitemap ist meistens direkt von der Homepage aus verlinkt und für den Spider leicht zu erreichen. Alle Links die sich auf der Sitemap befinden, können leicht indiziert werden.

Suchbegriffe finden

Die hohe Kunst der Suchmaschinenoptimierung fängt unter anderem damit an, die richtigen Suchbegriffe zu finden. Wenn man seine eigenen Ziele definiert hat, ist es an der Zeit zu fragen „Wonach suchen meine potentiellen Nutzer eigentlich?“. Gute Suchbegriffe lassen sich zunächst natürlich durch eigene Überlegung finden. Allerdings besteht dann eventuell die Gefahr die sprichwörtliche „rosarote Brille“ auf zu haben. Vielleicht entsprechen die eigenen Ideen gar nicht dem tatsächlichen Verhalten der Nutzer. Weitere Meinungen kann man sich zum Beispiel im Rahmen eines Brainstormings mit Freunden oder Verwandten einholen. Lassen Sie die ausgewählten Personen einfach eine Liste von 10 Suchbegriffen oder Suchphrasen eingeben, die diese in einer Suchmaschine verwenden würden.

Am Ende der Brainstorming Phase erhält man idealerweise eine Liste von 30 bis 100 Suchbegriffen und Phrasen, die jetzt überprüft werden wollen. Zur Überprüfung eignen sich einige freie Onlinetools aus dem Bereich der bezahlten Suchergebnisse.

Zu jedem erarbeiteten Suchbegriff, kann mit Hilfe dieser beiden Tools leicht bestimmt werden, wie oft danach gesucht wird. Aus der Menge der Begriffe werden die ausgewählt, die weder zu heiss, noch zu kalt sind. Ein Suchbegriff wie „Reise“ wird zwar mehrere hunderttausend Mal im Monat gesucht, ist aber definitiv zu heiss umkämpft. Die SEO Konkurrenz läßt sich leicht ausfindig machen, wenn man in der Suchmaschine den Modifikator „allintitle: Reise“ verwendet. Dann werden nämlich nur die Suchergebnisse angezeigt, bei denen im HTML Title der Begriff „Reise“ vorkommt. Geht man davon aus, dass viele Suchmaschinenoptimierer das Title Tag nutzen, gibt es über sechs Millionen Konkurrenz-Webseiten.

Einen Suchbegriff kann man als „zu kalt“ bezeichnen, wenn danach weniger als 100 Mal im Monat gesucht wird. Gute Suchbegriffe für schnelle Erfolge werden mehr als 500 Mal monatlich gesucht und liefern für den „allintitle:“ Modifikator weniger als 100.000 Treffer zurück. Während man früher davon ausgegangen ist, ausschließlich auf Keywords zu optimieren, die nur aus einem Wort bestehen, kann man heutzutage durchaus erfolgreicher sein, wenn man auf Keywordphrasen bestehend aus mehreren Worten optimiert.

Der „Surfer“ oder der „Informierende“ nutzt häufig Suchbegriffe mit nur einem Wort, während der „Handelnde“ gerne auch zwei oder drei Worte in die Suchbox eintippt. Sind gute Suchbegriffe gefunden, gilt es den Inhalt der eigenen Seite entsprechend darauf zu optimieren.

Wie Suchmaschinennutzer vorgehen

Ganz egal welche Ziele man mit seiner Webseite verfolgen will, die Nutzer haben ihre eigenen Ziele. Um über Suchmaschinenoptimierung Erfolg zu haben, ist es nicht nur wichtig ganz weit oben im Suchergebnis zu stehen, sondern auch den potentiellen Besucher zu kennen und ihm das zu geben, wonach er sucht.

Nutzerverhalten

Benutzer die in einer Suchmaschine suchen, werden auf den Treffer klicken, von dem sie meinen, dass er ihnen das gibt wonach sie suchen. Schaut man sich an, was Leute in eine Suchmaschine eintippen, kann man drei grobe Verhaltensmuster ableiten.

Zum einen gibt es den „Surfer“. Er hat etwas über eine bestimmte Webseite, ein bestimmtes Produkt oder eine bestimmte Dienstleitung gehört und sucht nach der passenden Webseite. Er will keine tiefgehenden Informationen, sondern die Homepage. Typische „Surfer“ suchen nach Begriffen wie „WM 2006“, „Lufthansa“ oder „Robbie Williams“. Normalerweise wird der „Surfer“ immer nur auf die eine offizielle Webseite klicken, die zu seinem Suchbegriff gehört. Ist man selbst der Betreiber der offiziellen Webseite, braucht man eigentlich keine wirkliche Suchmaschinenoptimierung betreiben. Will man jedoch einer offizielle Webseite das Wasser abgraben und den „Surfer“ zum klicken verleiten, wird es schwer. Das ist lediglich über einen besseren Title, einen aussagekräftigeren Textschnipsel und eine hohe Linkpopularität möglich.

Die zweite Gattung von Suchenden, kann man als „Informierende“ bezeichnen. Der „Informierende“ weiss, dass es ein bestimmtes Produkt oder einen bestimmten Dienst gibt. Er weiss jedoch noch nicht genau, wo der beste Platz zum Nachschauen ist. Die erfolgreichsten Suchmaschinenexperten, optimieren auf Suchbegriffe die der „Informierende“ eingibt. Das könnten zum Beispiel Begriffe sein wie: „Sofortkredit“, „Tour de France“ oder „WM Spielplan“. Den „Informierenden“ holt man ab, indem man ihm die Informationen gibt, die er sucht.

Zur letzten Gruppe, fasst man alle Nutzer zusammen, die bereits eine Entscheidung getroffen haben und handeln wollen. Der „Handelnde“ will eine bestimmte Kamera kaufen, einen Flug nach Berlin buchen oder seinen Lieblingssong als Klingelton runterladen. Er gibt Begriffe ein, wie „Flug Berlin“, „Britney Spears Klingelton“ oder „Ipod Kopfhörer“. Wer den „Handelnden“ zum Klick verleiten will, muss viele gute Inhalte zum Thema haben, um im Ranking weit nach oben zu kommen. Beispielsweise eine Seite, die Berlin-Flüge verschiedener Anbieter vergleicht oder eine Britney Spears Fanseite mit Links auf deren Klingeltöne. Title und Textschnipsel müssen den „Handelnden“ zum Handeln bewegen. Gute Title, um beim Beispiel zu bleiben, wären „Flug Berlin – die günstigsten Angebote im Test“ oder „Britney Spears Klingelton zum Runterladen“.

Hilfe für Googlebot & Co.

Die Crawler der Suchmaschinen sind über jede Hilfe dankbar, die ihnen die Webmaster zukommen lassen. Um dafür zu sorgen, dass möglichst viele Seiten indiziert werden, sind bereits in der Website Planungsphase wichtige Entscheidungen zu treffen.

Vermeiden Sie „Spider Traps“. Die Technik der Suchmaschinen Crawler, basiert auf dem Verfolgen von verlinkten Texten oder Bildern aus dem HTML Code. Für normale Benutzer existieren darüber hinaus noch viele andere Möglichkeiten, um von einer Seite A auf eine Seite B zu gelangen. Eine Weiterleitung kann über Javascript realisiert oder durch das Abschicken eines Formulars hervorgerufen werden. Diese beiden Techniken können schnell zu sogenannten Spider Traps werden. Das sind Stellen, an denen der Suchmaschinen Crawler nicht mehr weiterkommt. Wer Javascript oder Formulare einsetzt, sollte alternative Zugangsmöglichkeiten über Links bereitstellen. Das Gleiche kann man analog zur Verwendung von sogenannten Popups sagen, da diese meistens auch via Javascript geöffnet werden. Zusammenfassend kann man sagen, dass die Gefahr eines Spider Trap gross ist, wenn Javascript im Spiel ist.

Zu einem Blocker können auch Bereiche werden, die eine Anmeldung des Nutzers erfordern oder eine installierte Software wie Flash voraussetzen. Kein Suchmaschinen Spider der Welt kann sich selbstständig bei einer Webseite registrieren und anmelden, um in geschützte Bereiche vorzudringen. Diese Bereiche bleiben dem Suchmaschinen Index für immer vorenthalten. Das Gleiche gilt für Flash-Webseiten oder Java Applets. Suchmaschinen lieben Text. Alles was nicht direkt im HTML Quellcode steht, wird gnadenlos ignoriert. Davon ausgenommen sind PDF oder Word Dokumente, die inzwischen ebenfalls indiziert werden.

Sehr viel Schaden kann auch durch eine falsche „robots.txt“ Datei verursacht werden. In der robots.txt Datei können gezielt einzelne Dateien oder ganze Unterverzeichnisse einer Webseite für Suchmaschinen ausgeschlossen werden. Seiten, die über die robots.txt im Wurzelverzeichnis der Webanwendung ausgeschlossen wurden, werden durch einen Suchmaschinen Crawler wie googlebot, nicht mehr besucht. In der Datei gibt es zwei wichtige Anweisungen. Die Anweisung „User-agent:“ gefolgt vom Namen eines Suchmaschinen-Crawlers oder einem Wildcard Symbol, definiert für welche Spider die robots.txt Datei Gültigkeit besitzt. Durch die Anweisung „Disallow:“ gefolgt von einer Pfad- oder Dateiangabe legt fest, welche Bereiche der Webseite nicht besucht werden dürfen. Der Befehl „User-agent: *“ bzw. „Disallow: /“ würde beispielsweise eine komplette Webseite ausschliessen. Änderungen an der robots.txt sind deshalb mit einer gewissen Vorsicht durchzuführen.

Zu beachten ist ausserdem, dass das Ausschliessen in der robots.txt Datei keineswegs bedeutet, dass eine Seite nicht mehr im Suchmaschinen-Index erscheint. Der Ausschluss sorgt lediglich dafür, dass der Crawler die Seite(n) meidet. Diese tauchen bei externer Verlinkung, trotzdem als reiner Textlink ohne Titel und Textschnipsel auf. Werden auf diese Art und Weise überdurchschnittlich viele Seiten ausgeschlossen, die dann aber trotzdem in den Index gelangen, muss damit gerechnet werden, dass eine Bestrafung durch den Suchmaschinenbetreiber erfolgt. Sauber ist es, den Auschluss in der robots.txt vorzunehmen und gleichzeitig das Meta-Robots Tag im HTML Quellcode auf „noindex“ zu setzen.

Eine sehr wichtige Technik, um dem Suchmaschinen Crawler den Zugang zu tieferen Ebenen der Webseite zu ermöglichen, ist das sogenannte „URL-Rewriting“. Fast jeder bekannte Webserver unterstützt diese Technik bereits, zum Beispiel durch die Erweiterung „Mod-Rewrite“ im Apache oder unter ASP2.0 URL-Rewrite für Microsofts IIS Webserver. Beim URL-Rewrite werden dynamische URL-Adressen in suchmaschinenfreundliche URL umgeschrieben. Der Webserver erkennt die geänderten URL Anfragen und leitet diese intern auf die richtige (dynamische) URL weiter.

Als dynamische URL bezeichnet man Anfragen auf Webseiten, die sich nicht in einer fest gespeicherten Datei auf der Festplatte des Servers befinden. Die dynamischen URL Adressen werden meistens mit mehreren Parametern aufgerufen. Das Aussehen und der Inhalt der Seite werden durch verschiedene Werte dieser Parameter bestimmt. Im Zusammenhang mit Suchmaschinen Crawlern, bringt das jedoch mehrere Probleme mit sich.

Zunächst einmal werden dynamische URL Adressen sehr gerne von Suchmaschinen ausgelassen, solange die Webseite nicht über eine sehr hohe Linkpopularität verfügt. Werden in der dynamischen URL mehr als zwei Parameter verwendet, kann man eigentlich schon davon ausgehen, dass die Zielseite nicht im Suchmaschinen Index aufgenommen wird. Durch das Umschreiben in eine suchmaschinenfreundliche URL mittels URL-Rewriting, kann dieser Nachteil beseitigt werden. In der Vergangenheit hat es sich auch als positiv erwiesen, wenn Suchbegriffe in der URL Adresse, also zum Beispiel im Dateinamen, vorhanden waren. Auch das kann durch URL-Rewrite erreicht werden. Google sieht das zwar nicht mehr so stark als Bonus, wie noch vor einigen Jahren, bei anderen Suchmaschinen kann man dadurch allerdings durchaus noch Vorteile erlangen.

Wie die richtige Verlinkung, spielen Gedanken zum „URL Design“ in der Planungsphase einer Webseite also eine entscheidende Rolle. Wann ist einen URL suchmaschinentauglich? Offensichtlich ist die Adresse einer Seite gut wenn

Der erste Schritt – Webseite indizieren lassen

Erinnert man sich an den ersten Abschnitt zurück, geht es zunächst darum, von der Suchmaschine bei Eingabe einer bestimmten Suchphrase ausgewählt zu werden. Eine alte Weisheit sagt, dass man an der Lotterie teilnehmen muss um zu gewinnen. Der erste Schritt der Suchmaschinenoptimierung, sollte darauf abzielen, möglichst viele oder alle Unterseiten der eigenen Webseite bekannt zu machen.

Um zu erfahren, wie viele Seiten der Webseite im Index der Suchmaschine aufgenommen wurden, verwendet man eine bestimmte Abfragesyntax im Suchfeld. In fast allen Suchmaschinen benutzt man dafür: site:www.meine-domain.de (vorher natürlich durch die eigene Domain ersetzen). Als Ergebnis sieht man dann, wie viele Seiten bereits durch den Crawler besucht wurden.

Der schlimmste Fall tritt ein, wenn nicht eine einzige Seite zurückgegeben wird. In diesem Fall kann man entweder davon ausgehen, dass die Webseite durch die Suchmaschine bestraft und gänzlich aus dem Index verbannt wurde oder noch nie besucht wurde. Handelt es sich um eine brandneue Webseite, kann man davon ausgehen, dass die Seite noch unbekannt ist. Erst wenn andere Webseiten auf eine neue Webseite verlinken, wird der Suchmaschinen Crawler diese besuchen. Existiert die Webseite jedoch bereits sehr langer Zeit, kann eigentlich nur vom schlimmsten Fall ausgegangen werden. In diesem Fall kann man nur noch versuchen, die Ursache zu finden, das Problem zu beheben und anschliessend einen Antrag auf Wiederaufnahme zu stellen. Das Ganze ist allerdings ein sehr langwieriger Prozess und kann mehrere Monate dauern.

Befinden sich keine oder nur wenige Seiten der eigenen Webseite im Index, gilt es den eigenen Bekanntheitsgrad zu steigern. Das geht am besten, indem anderen Webseiten auf die Eigene verlinken. Dadurch wird nicht nur die eigene „Authority“ gesteigert, sondern auch dafür gesorgt, dass der Spider der Suchmaschine öfters vorbeischaut und mehr Seiten in den Index aufgenommen werden.

Wie oft der Suchmaschinen Spider die Webseite besucht, lässt sich am besten aus den Logfiles ablesen. Jeder Suchmaschinen Spider hinterlässt nämlich seine eigene Kennung. Die Kennung steht bei einem Suchmaschinen Crawler im Feld „User Agent“ beim Seitenaufruf. In diesem Feld übermitteln „menschliche“ Besucher normalerweise welchen Internet-Browser sie verwenden. Anstelle von „Mozilla/4.0 (compatible; MSIE 5.5; Windows NT 5.0)“ hinterlässt der Google Crawler die Bezeichnung „googlebot“ an dieser Stelle. Der Yahoo! Spider nennt sich „Slurp“ und der MSN Crawler kann durch „msnbot“ identifiziert werden.

Inhalte optimieren

Als Faustregel kann man davon ausgehen, dass man eine einzelne Seite, immer nur auf maximal vier bis fünf ähnliche Suchbegriffe oder Suchphrasen optimieren kann. Das liegt an der beschriebenen „Keyword Prominence“ und „Keyword Density“. Nur eine begrenzte Anzahl an Suchbegriffen lässt sich prominent in Title und Überschrift und mit der geforderten Häufigkeit im Text unterbringen. Wer hier „übertreibt“ und die Nutzerfreundlichkeit der Seite aus den Augen verliert, kann schnell mit einer Bestrafung als Spammer rechnen.

Wie optimiert man denn nun den eigenen Seiteninhalt für Suchmaschinen? Zunächst muss eine Seite erst einmal über genug eigenen Text verfügen, um sich von anderen Seiten der Website zu unterscheiden. Liegt der inhaltliche Text von der Wortzahl her, bereits unter der Wortanzahl für Navigation, Header und Footer, darf man kaum auf eine gute Suchmaschinenplazierung hoffen. Der Inhalt der Seite sollte mindestens 250, jedoch nicht mehr als 1000 Worte umfassen. Ist ein Text länger, wird es für den Nutzer meistens angenehmer zu lesen, wenn der Inhalt auf mehrere Seiten verteilt ist. Dann kann auch wieder jede Seite separiert optimiert werden.

Die zu optimierenden Suchbegriffe sollten auf jeden Fall im Title, in den Überschriften und am Anfang des Textes vorkommen. Die geforderte Worthäufigkeit von mindestens fünf Prozent sollte nicht unterschritten werden. Suchmaschinen sind inzwischen intelligent genug, um auch grammatikalische und semantische Variationen zu erkennen. Wer auf „Satellitenschüssel“ optimieren will, darf ruhig auch „Sat-Schüssel“, „Satellitenschüsseln“ oder einfach nur „Schüssel“ schreiben.

Angemerkt sein noch, dass die Optimierung auf einen bestimmten Suchbegriff nicht nur auf eine einzelne Seite beschränkt ist. Betreibe ich eine Webseite zum Thema Basketball und erstelle eine top-optimierte Seite zu Thema Forellenfischen, darf ich trotzdem nicht damit rechnen von Anglern gefunden zu werden. Das Thema meiner Seite bestimmt ganz stark, in welchem Terrain ich erfolgreiche Suchmaschinenoptimierung betreiben kann. Die Begriffe, die Google mit dem Gesamtinhalt meiner Webseite assoziiert, lassen sich übrigens prima in Google Sitemaps unter dem Menüpunkt „Statistiken – Seitenanalyse“ ablesen.

Wer klickt wo?

Nachdem man die Motivationen seiner Besucher kennt, kann man geeignete Titel, Überschriften und Texte für seine Seiten erstellen. Die Entscheidung darüber, ob man über einen bestimmten Suchbegriff Besucher erhält, hängt zum einen davon ab, ob man es auf die ersten drei Seiten im Suchergebnis schafft. Doch auch auf Seite zwei oder drei wird es schwer. Das Suchverhalten der Nutzer hat sich in den letzten Jahren verändert. Wird der Benutzer von den gefundenen Treffern auf der ersten Ergebnisseite nicht zufrieden gestellt, gibt er lieber einen neuen, spezielleren Suchbegriff ein, statt zu blättern. Das Verhalten lässt sich darauf zurückführen, dass man modernen Suchmaschinen wie Google inzwischen zutraut, die besten Ergebnisse auf der ersten Seite zu plazieren.

Wer auf Seite eins steht, muss durch guten Title und Textschnipsel und über die Motivation des Suchenden, zum Klick verleiten. In einer Umfrage der Cornell Universität, haben 44 Prozent der Befragten angegeben, dass sie über den Textschnipsel auswählen, welchen Treffer sie anklicken. Bei der Title Zeile waren es 30 Prozent und 21 Prozent entscheiden über die URL. Die restlichen Prozent entfallen auf andere Faktoren.

Leider ist das Spiel nach dem Klick auf den Suchergebnis-Treffer noch nicht gespielt. Wer dem Nutzer nicht geben kann, wonach er sucht, dem nutzt die beste Suchmaschinenoptimierung nichts, um die Ziele zu erfüllen, die mit der eigenen Webseite verfolgt werden. Normalerweise entscheiden Besucher innerhalb von weniger als 10 Sekunden, ob die gefundene Webseite ihre Motivation befriedigt. In der Regel erwarten Nutzer auf der Zielseite:

  • die exakten Suchbegriffe in der Überschrift oder einer anderen guten Plazierung
  • Bilder aus dem Themenbereich des Suchbegriffs
  • weitere Informationen („der Informierende“)
  • Preise, Features, Links oder sonstige Inhalte („der Handelnde“)
  • Sortieren der gefundenen Seiten – das Ranking

    Nachdem im ersten Schritt alle Kandidaten für das Suchergebnis bestimmt wurden, gilt es diese nun zu sortieren. Der dabei angewendete Algorithmus, ist das wohl am besten gehütete Geheimnis einer jeden Suchmaschine. Wie die Suchmaschine das Ranking bestimmt, kann nur aus Erfahrungswerten vieler tausender Suchmaschinenoptimierer (SEO’s) abgeleitet werden, jedoch niemals hundertprozentig genau bestimmt werden.

    Zunächst unterscheiden moderne Suchmaschinen nach den sogenannten On-Page Faktoren. So bezeichnet man Faktoren, auf die ein Webseiten Betreiber direkt Einfluss nehmen kann. Die beiden wichtigsten On-Page Faktoren sind „Keyword Density“ und „Keyword Prominence“.

    Als „Keyword Density“ oder Keyword-Dichte, bezeichnet man die Eigenschaft die ausdrückt, wie oft ein gesuchter Begriff oder eine gesuchte Phrase auf einer Seite vorkommen. Wären alle anderen Faktoren zweier Webseiten gleichwertig, würde die Webseite mit der höheren Keyworddichte besser plaziert werden. Vorsicht ist jedoch geboten. Wenn der prozentuale Anteil der oder des Suchbegriffs am Gesamttext der Seite zu hoch ist, kann die Seite von der Suchmaschine sehr leicht als Spam eingestuft werden. Dadurch soll verhindert werden, dass man mit einem „vollstopfen“ einer Webseite mit dem gewünschten Suchbegriff, durch gute „Keyword Density“ manipulieren kann. Unter Suchmaschinenoptimierern, gelten 5 bis 7 Prozent Anteil am Gesamttext der Seite, als eine gute Suchbegriffsdichte.

    Ein weiterer On-Page Faktor ist die „Keyword Prominence“. Sinngemäß bedeutet das, je weiter oben im Quellcode einer Seite der gesuchte Begriff oder die gesuchte Phrase erscheinen, desto wichtiger gehen sie in die Bewertung einer Seite mit ein.

    Diese Eigenschaft wurde erst relativ spät von den Suchmaschinen entdeckt. Die meisten Webseiten sind nach demselben Muster aufgebaut. Am Anfang des HTML Codes stehen das Title Tag, Überschriften, Zusammenfassungen und erst dann folgen die eigentlichen Inhalte. Kommt der Suchbegriff im Title und der Seiten-Überschrift vor, gilt das für eine Suchmaschine als starker Indikator dafür, dass auch der Seiteninhalt mit dem gesuchten Begriff verbunden ist. Andersrum gelten Begriffe, die erst am Ende einer Seite im Text vorkommen, als weniger assoziativ zum eingegebenen Suchbegriff.

    Auch für die „Keyword Prominence“ gilt es, die Regeln des gesunden Menschenverstandes einzusetzen und Title Tag oder Headlines, nicht mit dem gewünschten Suchbegriff zu überladen.

    Neben den On-Page Faktoren, gibt es ein weiteres enorm wichtiges Kriterium, welches das Suchmaschinen Ranking beeinflusst – die Linkpopularität. Dieser Off-Page Faktor ist eigentlich so simpel, dass es fast schon grotesk ist, dass er von alten Suchmaschinen wie Altavista oder Yahoo! früher nie eingesetzt wurde. Linkpopularität bedeutet anders ausgedrückt, Webseiten auf die viele andere Webseiten verlinken, müssen besser sein als Webseiten auf die nicht verlinkt wird. Da Links ein Faktor sind, den man für die eigene Webseite nur bedingt beeinflussen kann, hat die Linkpopularität oder deren Ableitung Domainpopularität (Links von unterschiedlichen Domains bzw. Ips) immer mehr an Bedeutung gewonnen.

    Für die Ermittlung der Linkpopularität, wird jeder Webseite im Internet ein sogenannter Autoritätswert zugewiesen. Die „Authority“ für eine Webseite, berechnet sich aus der Anzahl der Links, die auf diese Seite verlinken. Für die Berechnung werden unter anderem die verwendeten Linktexte mit einbezogen. Sucht man nach dem Begriff „ipod“, wird die Ipod Unterseite auf apple.com als erste Seite angezeigt. Offensichtlich gibt es sehr viele Seiten, die zu Apple verlinken und im Linktext irgendwo das Wörtchen „ipod“ verwenden. Apple ist quasi eine Autorität für den Suchbegriff „ipod“.

    Ein Beispiel, welches zeigt wie viel stärker die Linkpopularität inzwischen gegenüber den alten On-Page Faktoren wiegt, ist die Suche nach dem Begriff „laptop“ auf google.com. Auch hier wird eine Apple Unterseite als erstes Ergebnis geliefert (Stand 10.07.2006). Auf der Seite, die das Apple PowerBook beschreibt, findet sich jedoch nicht ein einziges Mal das Wörtchen „laptop“. Tausende Seiten müssen mit dem Linktext „Laptop“ auf die Apple PowerBook Seite verlinkt haben und haben den amerikanischen Hersteller damit zu einer Autorität im Bereich Laptop werden lassen.

    Anzeige der Treffer im Suchergebnis

    Nachdem die Seite von der Suchmaschine als Kandidat ausgewählt und durch den Ranking Algorithmus nach vorne gespült wurde, gibt es einen weiteren entscheidenden Faktor – die Darstellung des Treffers im Suchergebnis. Google beispielsweise, gibt zu jedem Treffer das Title Tag der HTML Seite und einen kurzen Textschnipsel aus der Umgebung des eingegebenen Suchbegriffes aus. Nur in Ausnahmefällen wird anstatt des Schnipsels der Text aus dem Meta Description Tag angezeigt.

    Was nutzt es auf dem ersten Platz zu stehen, wenn unser Title und Textschnipsel keinen Nutzer dazu verleiten können, auf unsere Seite zu klicken. Einige Hinweise zur optimalen Gestaltung von Title und Textschnipsel gibt es im nächsten Abschnitt.

    Ziele definieren und messbar machen

    Bevor es ans Eingemachte geht, sollte sich jeder klar machen, welches Ziel mit der eigenen Webseite verfolgt wird. Will ich etwas verkaufen, will ich einen Nutzer dazu bewegen sich irgendwo anzumelden oder einfach nur mein Image aus der Offline Welt ins Internet transportieren. Sind diese Ziele identifiziert, müssen Sie messbar gemacht werden. Jedes Mal wenn ein Benutzer, die von mir beabsichtigte Aktion ausführt, findet eine sogenannte „Conversion“ statt. Der Begriff stammt daher, dass man einen unbekannten Nutzer in einen potentiellen Kunden „konvertiert“ hat.

    Im ersten Schritt geht es also nicht nur darum, den reinen Traffic zu messen, den man aus Suchmaschinen erhält, sondern auch festzuhalten, für welche Suchbegriffe der Benutzer meine avisierte Aktion ausführt. In diesem Zusammenhang werden sich schnell Begriffe finden lassen, die „stärker“ sind als andere. Für diese Begriffe gilt es dann andere Kombinationen oder artverwandte Suchphrasen zu identifizieren, um dafür ebenfalls Suchmaschinenoptimierung zu betreiben.