AdWords Zielseiten Check mit Screaming Frog: 5 Anwendungsfälle

Wer kann in diesem Moment von seinen Konten behaupten, dass alle Ziel-URLs 100% fehlerfrei sind?

Wenn die Antwort „100% ja” ist, ist sicherlich ein Tool im Einsatz, in welches entsprechende Vorkonfiguration und Tests einflossen. Es werden wohl auch keine Kategorie- oder Suchlinks verwendet, vielleicht sollten diese Leser das in Erwägung ziehen.

Die Antwort der meisten Leser ist wahrscheinlich „Ich denke schon, ich prüfe das regelmäßig mittels xyz“.  Egal ob vollautomatisch oder halbautomatisch tool-gestützt, um diese regelmäßige Prüfung der Links soll es in diesem Beitrag gehen. Ziel ist es, keine Klicks an nicht erreichbaren oder suboptimalen Zielseiten zu verlieren. Der Artikel wird sich schwerpunktmäßig auf Online-Shops beziehen, da in der AdWords-Vermarktung häufig Kategorie- oder Suchlinks verwendet werden.

AdWords lehnt nur tatsächliche (4xx) Fehlerseiten ab

Um einem weit verbreiteten Missverständnis vorauszugreifen: Es stimmt zwar, dass AdWords Anzeigen oder Keywords URLs mit HTTP-Status 4xx ablehnt und eine Emailbenachrichtigung – wenn eingestellt – auslöst. Das ist eine sehr bequeme Funktionalität. Doch wie verhält es sich mit temporären Seiten, welche nach einer Zeit auf 503 gesetzt werden (Status Access Denied) oder mittels 301 Redirect auf eine thematisch verwandte, aber nicht äquivalente Seite geleitet werden? Diese Arten fallen unter die Kategorie der „weichen Fehlerseiten”, auch „Soft 404s” genannt. Genau wie ein Suchlink, welcher nur ein Suchergebnis liefert, ist die Seite nicht fehlerhaft, bietet aber dennoch eine schlechte Nutzererfahrung.

Enter: Screaming Frog, der flinke Link-Crawler

Ich bin in keinster Weise kommerziell mit Dan Sharp’s Screaming Frog Tool verbunden, nur ein sehr zufriedener Nutzer der Gratis-Version. Das Tool tut genau das, was es tun soll, und zwar kostenfrei. Das große Zusatzfeature zum bekannten Xenu Link Sleuth ist, dass es neben den HTTP-Statuscodes auch die HTML Seitenobjekte liefert, wie z. B. Title, h1, h2 oder h3. Je nach Shopkonfiguration, lässt sich sehr einfach die Trefferanzahl von Suchlinks überprüfen (mehr dazu Case 3). Screaming Frog hat die SEO-Community schon lange überzeugt, hier geht es also um die Einsatzmöglichkeiten für SEA.

Case 1: Linkprüfung PLA & Productfeed

Für viele Werbende sind Product Listing Ads (oder Produktanzeigen) ein „Set it & forget it”-Kanal. Einmal mühevoll aufgesetzt, performen die PLAs meist besser als die Searchkampagnen. Da die inaktiven Produkte ja automatisch aus dem Feed fliegen, muss man sich doch nicht weiter kümmern, oder? Nicht unbedingt. Man sieht regelmäßig Produktfeeds von Neukunden, bei denen 10 – 20 % der Produktlinks nicht erreichbar waren und das Shopsystem per default mittels 301 auf die Startseite weiterleitet. Für den Werbenden unnötige Kosten, für den Nutzer frustrierend. Hier ist es sinnvoll, zumindest einmal nach Aufsetzen des Feeds alle Produktlinks zu prüfen. Das Ergebnis sollte eine Validierung der Feedkonfiguration sein, so dass die entsprechenden Filter richtig gesetzt oder entsprechend erweitert werden.

Case 2: Prüfung aller aktiven Ziel URLs – inklusive Suchlinks

Regelmäßig alle Ziel URLs zu prüfen, ist ein anerkannter Bestandteil des AdWords Kampagnen-Managements, so behauptet auch PPC-Großmeister Brad Geddes. Im Unterschied zur reinen Prüfung von HTTP-Statuscodes kann man mit Screaming Frog noch einen Schritt weiter gehen, nämlich mittels „List-Mode“ (Erklärung weiter unten) die Suchtreffer von Suchlinks mit berücksichtigen. So lässt sich schnell pro Link beurteilen, ob 2 Suchergebnisse eine ausreichende Anzahl für eine generische Suche “Nike Sneaker” sind und ob die Anzeige oder Adgroup temporär pausiert werden soll.

Je nach Shopsystem wird die Anzahl der Suchtreffer in einem unterschiedlichen HTML-Element ausgegeben: bei Amazon ist es die h2, bei Zalando die h1. Diese Elemente lassen sich einfach in Screaming Frog filtern und selektiv darstellen.

Wenn die Mindestanzahl der Suchtreffer festgelegt ist, können rasch die Links unter der Mindesttrefferanzahl gefiltert und pausiert werden. Es ist beim Pausieren empfehlenswert, die Anzeigen oder Adgroups mit einem entsprechenden Kommentar zu versehen. Dies ist für den Anwendungsfall 3 äußerst hilfreich.

Case 3: Prüfung (wegen ungenügend Sortiment) pausierter Ziel URLs

Häufig werden Anzeigen oder AdGroups wegen der Ziel-URLs pausiert, genauer gesagt: weil die Zielseiten nicht ausreichend Sortiment bieten. Falls ein solche Pausierung (wie in Case 2 beschrieben) mit einer entsprechenden Kennzeichnung stattfindet, kann mittels Screaming Frog schnell diese Liste der pausierten URLs gecrawlt und gegebenenfalls bei stärkerem Sortiment wieder reaktiviert werden.

Case 4: Proaktive Prüfung gebauter Suchlinks

Suchanfragen unterscheiden sich häufig von der Terminologie der Hersteller und können daher nur oft schwer automatisiert mit Produkt- oder Kategorielinks abgeglichen werden. Hier führen Suchlinks schnell zum Ziel, insbesondere wenn vorab per Bulk die Sinnhaftigkeit einer großen Zahl an Suchlinks abgefragt werden kann. Analog zur Linkprüfung in Case 2 wird also eine Liste  – wieder „List“ Mode – an gebauten URLs in Screaming Frog geladen.

Case 5. Schnelle Kategorieanalyse von Domains

Gerade bei Neukunden oder Leads kann es hilfreich sein, eine schnelle Übersicht über die Kategoriestruktur zu erhalten. Hier hilft ein Crawl der gesamten Domain oder einer Unterkategorie, um bspw. einen Kampagnensetup- oder Optimierungsaufwand zu beurteilen: Die URL-Liste des Crawls wird in ein Excel-Dokument kopiert und die Struktur segmentiert. So erkennt man in wenigen Schritten, dass ein Shop bspw. 12 Hauptkategorien mit jeweils 4-6 Unterkategorien besitzt, wodurch schnell potentielle Lücken der aktuellen Kampagnenstruktur offenkundig werden.

Crashkurs: Nutzung von Screaming Frog

Zuletzt möchte ich kurz auf die Nutzung des Tools eingehen, um obige Cases ohne großen Zeitverlust durchzuexerzieren. Die Basisversion von Screaming Frog verfügt über zwei wichtige Crawl-Modi, einsehbar im Menüpunkt „Mode“:

  1. Spider: Dieser Modus ist quasi selbsterklärend. Man gibt eine URL ein und das Programm crawlt alle darunter liegenden Verzeichnisse und weiterführenden Links.
  2. List: Dieser Modus verarbeitet eine Linkliste in Form einer .txt Datei. Wichtig (!) ist bei dieser Datei, dass
    • alle URLs mit http:// angegeben werden
    • die Datei als UTF-8 mit Zeichenendkodierung Unix LF gespeichert wird

Anschließend wird über die Auswahl „Select url list file“ die Datei geladen und der Crawl kann mit dem Drücken des„Start“-Buttons beginnen.

Das Ergebnis des Crawls ist eine Reihe wertvoller Attribute pro Seite, wie Status Code, Title, aber auch h1 und h2 Überschriften.
Ein Nachteil der Gratis-Version ist die Begrenzung der Crawlmenge auf etwa 15.000 Links. Hier wirft das Tool eine Meldung aus, dass ein Upgrade sinnvoll wäre. Wenn Blöcke von 10.000 Links durchgeprüft werden, ist der Crawl meist in unter 10 Minuten durchgeführt. In der Zeit können andere Tasks angegangen werden.

Fazit: Screaming Frog, ein unverzichtbares Tool zur Ziel-URL Überprüfung

Wir wünschen viel Erfolg mit dem Tool und viele ersparte Kosten durch Minimierung falscher Verlinkung. Lasst uns in den Kommentaren wissen, was Eure Erfahrungen sind und liked/followed/+1 uns auf allen Kanälen!