Frames und Suchmaschinen

Es ist sehr schwierig, gute Platzierungen in Suchmaschinen zu erhalten, wenn Ihre Website Frames verwendet.

Das Problem ist, dass Suchmaschinen Webseiten in Frames nur sehr schlecht indizieren können. Suchmaschinen sind darin so schlecht, dass wir Ihnen wärmstens empfehlen, ganz auf Frames zu verzichten und Ihre Website gegebenenfalls neu zu gestalten. Eine Neugestaltung ohne Frames ist bei einigen Suchmaschinen der einzige Weg, überhaupt aufgenommen zu werden.

Wenn Sie unbedingt Frames verwenden müssen, stellen Sie sicher, dass Sie das NoFrames-Tag verwenden, so dass Suchmaschinen zumindest etwas Text finden können, der indiziert werden kann. Das NoFrames-Tag ist ein Tag, das speziell für Suchmaschinen entwickelt wurde, die den Inhalt Ihrer Frame-Seiten nicht lesen können.

Manche Suchmaschinen können dieses Tag auslesen. Die Inhalte des NoFrames-Tag sollten Wörter sein, die mit Ihrer Website zu tun haben. Sie sollten Ihre wichtigsten Schlüsselwörter verwenden und darauf achten, dass der Text auch für normale Menschen lesbar bleibt.

Das NoFrames-Tag sollte unmittelbar vor dem -Tag in Ihrem Frameset kommen:




Ein einfacher weg, Inhalte für das NoFrames-Tag zu erzeugen ist es, eine Webseite zu erstellen, die Ihre Produkte und Dienstleistungen beschreibt. Häufig kann der Inhalt dafür aus einer der Webseiten in den Frames genommen werden.

Nachdem Sie diese neue Seite erstellt haben, sehen Sie sich den HTML-Code der Seiten an und kopieren Sie alles innerhalb der und -Tags zwischen die NoFrames-Tags in Ihrem Frameset.

Beachten Sie, dass der Text zwischen den NoFrames-Tags in unserem Beispiel einen Links zur Hauptseite des Framesets enthält. Auf diese Weise können Websurfer mit alten Webbrowsern trotzdem Ihre Website besuchen.

Verwenden Sie keine lange Schlüsselwort-Liste in Ihrem NoFrames-Tag und versuchen Sie nicht, dieses Tag bis zum letzten auszureizen. Manche Suchmaschinen betrachten dies als Spamming.

Auch mit dem NoFrames-Tag bleibt es weiterhin sehr schwierig, gute Platzierungen in Suchmaschinen zu erhalten, wenn ihre Website Frames verwendet. Wenn möglich, vermeiden Sie Frames auf alle Fälle.

Filter- und Stoppwörter

Google und andere große Suchmaschinen ignorieren Wörter die "das", "bei", "wo" sowie verschiedene andere einstellige Zahlen und Buchstaben. Diese Wörter nennen man "Filterwörter". Sie werden ignoriert weil sie dazu neigen, eine Suche zu verlangsamen, ohne die Qualität der Ergebnisse zu verbessern.

Natürlich hat jede Suchmaschine seine eigenen Filterwörter. Die folgenden Wörter scheinen jedoch am häufigsten gefiltert zu werden:

Deutsch: am, auf, an, bei, wie, wo, was, wer, wann, in, die, das, der, ein, eine, zu, nach, ich, von, vom

Englisch: a, about, an, and, are, as, at, be, by, from, how, i, in, is, it, of, on, or, that, the, this, to, was, we, what, when, where, which, with


Was bedeutet das für Ihre Website?

Suchmaschinen betrachten die Schlüsselwörter in Ihrem Webseitentitel, dem Haupttext und in den Linktexten als wichtiges Platzierungskriterium.

Achten Sie bei der Gestaltung Ihrer Webseitentitel und der sonstigen Inhalte darauf, dass sie nicht zuviele Filterwörter verwenden. Wenn Ihr Webseitentitel lediglich aus einer Liste von Filterwörtern besteht, dann werden Sie keine guten Ergebnisse erhalten. Sie können auch die Effektivität Ihrer anderen Schlüsselwörter verwässern, wenn Sie zuviele Filterwörter im Titel verwenden.

Viele Suchmaschinen empfehlen, die Anzahl der Zeichen im Webseitentitel und in den Meta-Tags zu begrenzen. Wenn Sie zu viele Filterwörter verwenden, dann kann dieses Limit erreicht sein, bevor die wichtigen Schlüsselwörter erscheinen.


Manche Wörter können zum Ausschluss in Suchmaschinen führen

Während Filterwörter lediglich die Effektivität Ihrer normalen Suchbegriffe verwässern, können andere Wörter dazu führen, dass Ihre Website komplett von Suchmaschinen ausgeschlossen wird. Diese Wörter nennt man "Stoppwörter".

Häufig handelt es sich dabei um Wörter mit sexuellem Inhalt, die von Suchmaschinen nicht angezeigt werden. Manche Suchmaschinen erzeugen jedoch individuelle Stoppwort-Listen, um Webseiten abzustrafen, die Schlüsselwörter zu häufig verwenden (sogenanntes "Keyword Stuffing"). Manche Websites verwenden das gleiche Schlüsselwort extrem häufig, um dafür gut platziert zu werden, selbst wenn die Website nichts mit dem Schlüsselwort zu tun hat.

Natürlich versuchen Suchmaschinen, diese Seiten zu finden, um sie dann entsprechend abzustrafen. Unglücklicherweise werden manche Webseiten abgestraft, obwohl der Webmaster die Suchmaschinen nicht betrügen wollte. Aus diesem Grund ist es sehr wichtig, dass Sie Ihre Suchbegriffe nicht zu häufig verwenden. Mit guten Suchmaschinen Optimierungstipps's Top 10 Optimierer finden Sie die optimale Schlüsselwort-Dichte für Ihre Website.


Zusammenfassung

  1. Verwenden Sie Ihre wichtigsten Schlüsselwörter am Anfang Ihres Webseiten-Titels, der META-Tags, in Ihren Linktexten und im Haupttext der Webseite.

  2. Vermeiden Sie Filterwörter, um die Effektivität Ihrer Schlüsselwörter nicht zu beeinträchtigen.

  3. Stellen Sie sicher, dass Ihre Website die richtige Schlüsselwort-Dichte und keine Stoppwörter enthält.

Die richtige Schlüsselwort-Mischung auf Ihren Seiten führt zu guten Platzierungen in allen wichtigen Suchmaschinen. Die richtige Dichte für Ihre Webseiten finden Sie mit guten Suchmaschinen Optimierungstipps's Top 10 Optimierer.

Ethische Suchmaschinen-Optimierung

Manche Suchmaschinenoptimierer und Softwareentwickler verwenden unethische Tricks und Techniken, um die Platzierung einer Website in Suchmaschinen künstlich zu erhöhen. Das verwässert die Qualität der Suchergebnisse und die Qualität von Suchergebnissen wird dadurch fragwürdig.

Aus diesem Grund arbeiten Suchmaschinen ständig daran, Webmaster, die diese sogenannte SPAM-Techniken verwenden, aufzuspüren und deren Webseiten abzustrafen oder ganz aus dem Index zu verbannen.

Suchmaschinen verbessern ständig ihre Algorithmen um zu verhindern, dass Spammer die Suchergebnisse mit irrelevanten oder qualitativ schlechten Inhalten überfluten.

Wenn Sie ein Website-Promotion-Werkzeug benutzen, das diese unethischen Tricks und Techniken verwendet, dann setzen Sie Ihr Internet-Geschäft einem ernsten Risiko aus.

Sie sollten unbedingt nur ethisch korrekte Optimierungsmethoden verwenden.

Unsere Produkte verwenden nur ethisch korrekte Suchmaschinen-Optimierungsmethoden. Sie verwenden nur Methoden, die anhaltende Ergebnisse liefern und Suchmaschinen nicht belästigen.

Suchmaschinen betrachten die folgenden Techniken als SPAM. Aus diesem Grund werden sie von Axandra-Produkten NICHT benutzt oder empfohlen:

  • automatisch erzeugte "Doorway"-Seiten
  • Cloaking und irreführende Weiterleitungen
  • Keyword-Stuffing
  • Versteckter Text oder versteckte Links
  • Mit irrelevantem Inhalt überladene Seiten
  • duplizierter Inhalt oder verdoppelte Seiten
  • Falschschreibung bekannter Webseiten
  • unzusammenhängende und zentrale
  • andere Methoden, die versuchen, Suchmaschinen auszutricksen
Mit diesen Methoden erhalten Sie vielleicht kurzfristig ein gutes Ergebnis. Langfristig ist es jedoch sehr wahrscheinlich, dass Ihre Website von Suchmaschinen ausgeschlossen wird, wenn Sie diese Techniken verwenden. Sie setzen Ihr Internet-Geschäft einem ernsten Risiko aus, wenn Sie eine dieser Techniken verwenden.

Gute Website-Promotion-Werkzeuge verwenden nur ethisch korrekte Suchmaschinen-Optimierungsmethoden, die anhaltende Ergebnisse liefern.

Bei ethischer Suchmaschinen-Optimierung geht es darum, dass alle gewinnen

Ethische Suchmaschinen-Optimierung führt zu einer symbiotischen Beziehung zwischen allen Beteiligten:

  • Suchmaschinen: Diese gewinnen, weil sie Seiten erhalten, die einfach zu verstehen sind und die Qualitätsinformationen enthalten, die Suchmaschinen Websurfern bieten möchten.
  • Web-Surfer: Diese gewinnen, weil sie das als Ergebnis erhalten, wonach sie bei Suchmaschinen suchen. Eine Suche nach "grünem dies und das" führt zu Ergebnissen für "grünes dies und das".
  • Website-Besitzer: Diese gewinnen, weil sie mehr qualitativ hochwertige Besucher erhalten, die an dem interessiert sind, was auf der Website angeboten wird.

Moppes Media hilft Ihnen dabei, Seiten zu erstellen, die nützlich für Web-Surfer, Website-Besitzer und Suchmaschinen sind.

Die robots.txt-Datei

Obwohl die robots.txt-Datei eine wichtige Datei ist, wenn Sie gute Suchmaschinenplatzierungen haben möchten, bieten viele Websites diese Datei nicht an.

Wenn Ihre Website keine robots.txt-Datei besitzt, dann erfahren Sie in diesem Artikel, wie Sie so eine Datei erzeugen können. Wenn Sie bereits eine robots.txt-Datei haben, dann lesen Sie diesen Artikel, um sicher zu stellen, dass die Datei keine Fehler enthält.


Was ist robots.txt?

Wenn ein Suchmaschinen-Spider Ihre Website besucht, dann sucht er eine bestimmte Datei auf Ihrer Website. Dieses Datei heißt robots.txt und sie sagt dem Suchmaschinen-Spider, welche Dateien Ihrer Website indiziert werden und welche Dateien ignoriert werden sollen.

Die robots.txt-Datei ist eine einfache Textdatei (kein HTML), die im Hauptverzeichnis Ihrer Internet-Präsenz gespeichert werden muss, zum Beispiel:

    http://www.beispiel.de/robots.txt

Wie erstelle ich eine robots.txt-Datei?

Wie bereits erwähnt sind robots.txt-Dateien einfache Text-Dateien. Verwenden Sie einen einfachen Text-Editor, um die robots.txt-Datei zu erstellen. Der Inhalt der robots.txt-Datei besteht aus sogenannten "Records".

Ein "Record" enthält die Anweisungen für eine bestimmte Suchmaschine. Jeder "Record" besteht aus zwei Feldern: der Zeile für den User-Agent (das ist der Name des Suchmaschinen-Spiders) und einer oder mehreren Zeilen für die "Disallow"-Befehle. Hier ist ein Beispiel:

User-agent: googlebot
Disallow: /cgi-bin/

Diese robots.txt-Datei würde dem Suchmaschinen-Spider Googlebot (dem Spider von Google) erlauben, alle Seiten bis auf das cgi-bin-Verzeichnis zu indizieren. Alle Dateien im Verzeichnis "cgi-bin" werden vom Googlebot ignoriert.

Der Disallow-Befehl funktioniert wie ein Joker. Wenn Sie folgendes eingeben

User-agent: googlebot
Disallow: /support

dann werden die Dateien "/support-desk/index.html" und "/support/index.html" sowie alle anderen Dateien im "support"-Verzeichnis nicht von Suchmaschinen indiziert.

Wenn Sie nichts in der "Disallow"-Zeile eintragen, dann teilen Sie den Suchmaschinen mit, dass alles indiziert werden darf. Auf jeden Fall müssen Sie für jeden User-Agent-Eintrag eine Disallow-Zeile einfügen.

Wenn Sie möchten, dass alle Suchmaschinen die gleichen Rechte erhalten, verwenden Sie folgenden Inhalt für Ihre robots.txt-Datei:

User-agent: *
Disallow: /cgi-bin/


Wo finde ich die Namen von User-Agents?

Sie finden die Namen in den Log-Dateien Ihrer Website, indem Sie nach robots.txt suchen. In der Regel sollten alle Suchmaschinen die gleichen Rechte erhalten. Dann verwenden Sie einfach "User-agent: *" wie oben erwähnt.


Dinge, die Sie vermeiden sollten

Wenn Sie Ihre robots.txt-Datei nicht ordentlich formatieren, dann können manche oder alle Dateien auf Ihrer Website eventuell nicht von Suchmaschinen indiziert werden. Um dies zu vermeiden, tun Sie bitte folgendes:

  1. Verwenden Sie keine Kommentare in Ihrer robots.txt-Datei.

    Obwohl Kommentare generell erlaubt sind, können manche Suchmaschinen-Spider davon verwirrt werden.

    "Disallow: support # Das Support-Verzeichnis nicht indizieren" könnte missverstanden werden als "Disallow: support#Das Support-Verzeichnis nicht indizieren".


  2. Verwenden Sie keine Leerzeichen am Zeilenanfang. Schreiben Sie zum Beispiel nicht

    placeholder User-agent: *
    place Disallow: /support

    sondern

    User-agent: *
    Disallow: /support

  3. Verändern Sie die Reihenfolge nicht. Die robots.txt-Datei funktioniert dann nicht mehr richtig. Schreiben Sie nicht

    Disallow: /support
    User-agent: *

    sondern

    User-agent: *
    Disallow: /support

  4. Benennen Sie nicht mehr als ein Verzeichnis pro Disallow-Zeile. Schreiben Sie nicht

    User-agent: *
    Disallow: /support /cgi-bin/ /../images/

    Suchmaschinen-Spider verstehen dieses Format nicht. Das korrekte Format sieht so aus:

    User-agent: *
    Disallow: /support
    Disallow: /cgi-bin/
    Disallow: /../images/

  5. Achten Sie auf Groß- und Kleinschreibung. Die Dateinamen auf Ihrem Webserver unterscheiden Groß- und Kleinbuchstaben. Wenn der Name des Verzeichnisses "Support" ist, schreiben Sie nicht "support" in Ihre robots.txt-Datei.


  6. Listen Sie nicht alle Dateien auf. Wenn Sie alle Dateien in einem bestimmten Verzeichnis schützen wollen, dann müssen Sie diese nicht alle aufführen:
    User-agent: *
    Disallow: /support/orders.html
    Disallow: /support/technical.html
    Disallow: /support/helpdesk.html
    Disallow: /support/index.html

    Dies können Sie ersetzen mit:

    User-agent: *
    Disallow: /support


  7. Es gibt keinen "Allow"-Befehl.

    Verwenden Sie keinen "Allow"-Befehl in Ihrer robots.txt-Datei. Erwähnen Sie nur Dateien, die Sie nicht indiziert haben möchten. Alle anderen Dateien werden automatisch indiziert, wenn diese durch Links auf Ihrer Website gefunden werden können.

Tipps und Tricks:

1. Wie Sie allen Suchmaschinen-Spidern erlauben, alle Dateien zu indizieren:

    Verwenden Sie den folgenden Inhalt für Ihre robots.txt-Datei, wenn Sie möchten, dass alle Suchmaschinen-Spider alle Dateien Ihrer Website indizieren:

    User-agent: *
    Disallow:

2. Wie Sie alle Dateien für alle Suchmaschinen sperren:

    Wenn Sie möchten, dass Suchmaschinen überhaupt keine Dateien Ihrer Website indizieren, verwenden Sie folgenden Inhalt für Ihre robots.txt-Datei:

    User-agent: *
    Disallow: /

3. Wo Sie komplexere Beispiele finden:

    Wenn Sie komplexere Beispiele sehen möchten, sehen Sie sich einfach die robotx.txt-Dateien einiger großer Websites an:

Ihre Website sollte eine ordentliche robots.txt-Datei besitzen, wenn Sie in Suchmaschinen gut platziert werden möchten. Nur wenn Suchmaschinen wissen, wie sie mit Ihrer Website umgehen sollen, dann können Sie gute Platzierungen erhalten.

Die richtige Suchmaschinen-Optimierungsstrategie

Moppes Media ist eine professionelle Website-Promotion-Agentur, die Ihnen dabei hilft, hohe Platzierungen in Suchmaschinen für Ihre Website zu erhalten. Hohe Platzierungen in Suchmaschinen führen zu mehr Besuchern, mehr Kunden und mehr Verkäufen.

Die richtige Strategie ist sehr wichtig, wenn Sie mit Ihren Suchmaschinen-Optimierungsaktivitäten erfolg haben möchten.

Suchmaschinenbenutzer gehören zu den zielgruppengenauesten Besuchern, die Ihre Website je haben wird. Immerhin haben diese Benutzer eine Suche nach einem bestimmten Thema gemacht und dann auf Ihren Suchmaschineneintrag geklickt, um mehr über Sie zu erfahren.

Allerdings hilft Ihnen ein Platzierung in Suchmaschinen überhaupt nicht, wenn Sie auf Position 415 von 1.269.000 Ergebnissen gelistet werden. Die meisten Suchmaschinen zeigen 10 Ergebnisse auf der ersten Seite an. Nur sehr wenige Surfer machen sich die Mühe, auf die zweite Ergebnisseite zu schauen.

Mit unseren Tipps u. Tricks wird Ihre Website die bestmögliche Position in Suchmaschinen erhalten und Sie werden so viele Besucher wie möglich erhalten. Hohe Suchmaschinenplatzierungen leisten einen großen Beitrag zum Erfolg Ihres Internet-Geschäftes.

Der Schlüssel zu hohen Platzierungen in Suchmaschinen ist, die richtigen Dinge in der richtigen Reihenfolge zu tun:

  1. Finden Sie die richtigen Schlüsselwörter für Ihre Website.

  2. Optimieren Sie Ihre Webseiten für diese Schlüsselwörter, so dass Sie dafür gut platziert werden können.

  3. Melden Sie Ihre Website bei allen wichtigen Suchmaschinen und Internet-Verzeichnissen an, so dass diese Sie finden können.

  4. Besorgen Sie sich Links von anderen Webseiten und stellen Sie sicher, dass diese Links Ihre Schlüsselworte enthalten.

  5. Überprüfen Sie die Ergebnisse.

Moppes Media hilft Ihnen in allen Punkten. Mit uns können Sie Ihre Seiten so schnell und einfach wie möglich optimieren und anmelden.