Zurzeit sind 752 Mitglieder online.
Zurzeit sind 752 Mitglieder online.
Diskutiere hier wie Du effektiver investieren und deinen Return on Investment (ROI) steigern kannst.
Anleitung
favorite_border
Antworten

Landing Pages und Robots.txt

Rang 8
# 1
Rang 8

Unsere AdWords-Anzeigen verlinken auf spezielle Landing Pages, die ausschließlich zu diesem Zweck verwendet werden.

Alle Landing Pages liegen in einem eigenen Verzeichnis (landing-pages), außer den Anzeigen gibt es keine Links auf diese Seiten.

 

Da wir nicht möchten, dass diese Landing Pages bei der organischen Suche als Ergebnis geliefert werden, haben wir die Landing Pages gesperrt (Disallow: /landing-pages). Dadurch soll gleichzeitig auch vermieden werden, dass die Landing Pages Duplicate Content erzeugen.

 

Ein Fehler? Uns sind Bedenken gekommen, ob es die Anzeigenqualität verschlechtern könnte, weil Google wegen des disallow möglicherweise die Landing Pages nicht liest und nicht bewertet (obwohl es Google natürlich möglich wäre, die Landing Pages mit Hilfe der Links in den Anzeigen zu lesen).

 

Wie ist es also: Darf man die Landing Pages in der Robots.txt ausschließen? (Gibt es einen Link, der diese Frage beantwortet?)

 

Hinweis: Der Agent an der Google-AdWords-Hotline meinte, man dürfe die Landing Pages auf keinen Fall ausschließen. Ich vertraue ihm aber nicht!

 

Danke für Euer Feed-back, Ulrich

3 Expertenantwort(en)verified_user

Landing Pages und Robots.txt

Top Beitragender
# 2
Top Beitragender

Hallo Ulrich,

 

es gibt einen speziellen AdWords Bot (AdsBot), dem Du den Zugriff explizit gewähren kannst. Eine Liste der Bots findest Du hier:

https://support.google.com/webmasters/answer/1061943?hl=de

 

Landing Pages und Robots.txt

Top Beitragender
# 3
Top Beitragender

Hallo,

 

eine robots.txt soll das crawlen steuern.

Wenn du etwas nicht im Index haben willst dann muss die Landingpage ein noindex ausgeben.

Damit das dann auch ankommt darf das crawlen nicht verboten sein in der robots.txt.

 

Gruß en001

 

Betreff: Landing Pages und Robots.txt

Rang 8
# 4
Rang 8

Danke, ich habe nun zwei Antworten mit zwei Lösungsvorschlägen erhalten.

 

Nichts gesagt wurde zu meiner Frage, ob die Landing Page für den Bot freigegeben werden muss. Implizit entnehme ich den Antworten, dass sie zumindest für den AdWords-Bot freigegeben werden müssen, um zu vermeiden, dass sonst der Qualitätsfaktor der Anzeige herabgesetzt wird. Ist das korrekt? (Eigentlich hätte ich erwartet, dass Google so clever ist, die in den Anzeigen angegebenen Zielseiten auch ohne Berücksichtigung von Robots.txt-Einträgen auszuwerten.)

 

Zu den beiden Lösungsvorschlägen:

 

Vorschlag 1 (Thomas Grübel)

User-agent: *
Disallow: /landing-pages
User-agent: Adsbot-Google
Allow: /landing-pages

 

Vorschlag 2 (en001)

In den Landing Pages einsetzen:
<meta name="robots" content="noindex" />

 

Frage dazu: Sind beide Lösungen gleichwertig? Hat die eine oder andere Vorteile?

Bei Vorschlag 1 (Allow: /landing-pages) erleichtert man dem AdWords-Bot die Arbeit, indem er nur die tatsächlichen Landing Pages verarbeiten muss.


Ulrich

 

 

Landing Pages und Robots.txt

Top Beitragender
# 5
Top Beitragender

Hallo Ulrich,

 

im Ergebnis sollten beide Lösungen das gleiche bringen. Ich denke, (je nach CMS) die zwei Zeilen in der robots.txt sind evtl. schneller implementiert.

 

@en001 - siehst Du das ähnlich?

Betreff: Landing Pages und Robots.txt

Top Beitragender
# 6
Top Beitragender

Hallo @Ulrich v,

 

wie @en001 bereits geschrieben hat ist das ausschließen via robots.txt nicht das gleiche wie noindex. Das Ausschließen mittels robots.txt heißt nicht das die Seite nicht indexiert wird.

 

Grundsätzlich würde ich keine LP für AdWords auschlisen egal wie oder womit.

 

Anmerkung:

Ich verstehe den Grund dafür auch nicht?

 

 

Gruß Kai
SUMAFA Online Marketing Lösungen | G+ Kai de Wals | Google Partner | Google Advertising Professional


Landing Pages und Robots.txt

Top Beitragender
# 7
Top Beitragender

Hallo,

 

es ist schon gleichwertig aber ich halte eine gefüllte robots.txt auch für ein Sicherheitsrisiko. 

Die Datei ist immer öffentlich.

 

Gruß en001

 

Betreff: Landing Pages und Robots.txt

Rang 8
# 8
Rang 8

Kai-de-Wals schrieb:


[...]

Ich verstehe den Grund dafür auch nicht?


1. Unsere Landing Pages sind Spezialseiten, die für die Anzeigen-Leser designt und mit den Anzeigen abgestimmt werden.

2. Hauptgrund: Vermeidung von Duplicate Content.

 

Gruß, Ulrich

Betreff: Landing Pages und Robots.txt

Rang 8
# 9
Rang 8

Ich muss doch noch einmal nachfassen:

 

Ziel ist es zu vermeiden, dass durch die Landing Pages Dublicate Content geschaffen wird.

 

Es hieß, die Indizierung könne sicher nur durch ein

<meta name="robots" content="noindex" />

in der Landing Page ausgeschlossen werden.

 

Wird aber dadurch nicht auch der AdWords-bot ausgeschlossen, der ja gerade eine Bewertung der Seite durchführen soll!?

 

Ulrich

 

Betreff: Landing Pages und Robots.txt

Top Beitragender
# 10
Top Beitragender

Hallo @Ulrich v,

 

die robts.txt ist nicht dafür da um Duplicate Content zu vermeiden, dazu verwendet man das Canonical Tag. 

 

Info:

Das Canonical Tag ist eine Angabe im Quellcode einer Website. Es verweist auf eine Standardressource – eine kanonische URL – bei Websites mit gleichen oder fast gleichen Inhalten. Grundsätzlich ist es sinnvoll, das Canonical Tag auf jeder Unterseite einzubauen, sodass jede Seite auf sich selbst zeigt. Damit werden unerwartete Fehler und falsche Verlinkungen korrigiert oder vorgebeugt.

 

 

Gruß Kai
SUMAFA Online Marketing Lösungen | G+ Kai de Wals | Google Partner | Google Advertising Professional