Ich habe kürzlich festgestellt, dass 10 Seiten auf unserer Website über 61,2 % unserer gesamten Klicks, die in den letzten drei Monaten in der Google Search Console (GSC) gemeldet wurden!
Dies ist eine Website mit rund 300 Kategorien und 20.000 Produkt-SKUs.
10 Seiten!
Ebenso schockierend ist, dass fast 74,8 % aller in GSC gemeldeten Seiten überhaupt keine Klicks erhalten haben.
Heute werde ich ein Python-Skript teilen, das diese Informationen aus der Google Search Console abruft und exportiert Deckfertige Grafiken und eine Microsoft Excel-Tabelle, bereit zum Handeln.
Screenshot von Google Colaboratory, August 2022
Das Excel-Sheet ist äußerst umsetzbar, da es Bereiche mit hohem und niedrigem Datenverkehr aufschlüsselt ihre eigenen Registerkarten zum Handeln.
Screenshot von Microsoft Excel, August 2022
Die Ausgabe ist vollständig automatisiert und funktioniert für jedes Konto, für das Sie GSC-Zugriff haben.
Contents
Was wir heute lernen werden
<
Erste Schritte
Das Ausführen des Skripts ist einfach, aber es ist ein wenig Vorbereitung erforderlich, um den Zugriff auf die Google Search Console-API einzurichten und eine Datei mit Anmeldeinformationen herunterzuladen.
Die gute Nachricht ist, dass diese Datei immer wieder verwendet werden kann für andere Python-Projekte, also lohnt es sich, es zu tun und sicher aufzubewahren.
Es sollte nicht länger als 5 bis 10 Minuten dauern.
Hier gibt es eine ausgezeichnete Anleitung, die ich befolgen sollte .
Sobald Sie diese Datei haben, speichern Sie sie an einem sicheren Ort, bereit zum Hochladen.
Jetzt der lustige Teil: Ausführen des Skripts!
Ausführen des Skripts
Das Ausführen des Skripts ist unkompliziert.
Die Idee ist, alle Zellen gleichzeitig auszuführen und hochzuladen Credentials-Datei, wenn Sie dazu aufgefordert werden.
Das Skript generiert und speichert die Balkendiagramme, Statistiken und das Excel-Dokument automatisch ohne weitere Aufforderung.
Schritt 1: Öffnen Sie das Google Collaboratory-Blatt.
Schritt 2: Wählen Sie oben auf der Seite Laufzeit > Alle ausführen (Oder drücken Sie die Tastenkombination Strg + F9).
Schritt 3: Wenn Sie dazu aufgefordert werden, laden Sie die Datei mit den Anmeldeinformationen hoch, die nach dem Aktivieren der Search Console API heruntergeladen wurde.
Screenshot von Google Colaboratory, August 2022
Sobald die Datei hochgeladen wurde, werden Sie in der nächsten Zelle aufgefordert, eine URL aufzurufen, um die Anwendung zu autorisieren und den Autorisierungscode einzugeben.
Screenshot von Google Colaboratory, August 2022
Klicken Sie darauf und wählen Sie das Konto aus, das mit dem GSC-Konto verknüpft ist, von dem Sie Daten erhalten möchten.
Screenshot von Google.com, August 2022
Als nächstes müssen wir die Variablen festlegen.
Es sollte selbsterklärend sein, aber ich werde jede Einstellung durchgehen und ein Beispiel geben.
URL
Die URL muss genau so aussehen, wie sie in GSC angezeigt wird.
Wenn es Probleme gibt, liegt es daran, dass normalerweise ein abschließender Schrägstrich fehlt!
Beachten Sie auch, dass die Syntax für Konten auf Domänenebene lautet:
sc-domain:example.com
Ich habe eine Option zum Drucken der verfügbaren GSC-Konten hinzugefügt, falls Sie Probleme haben.
Screenshot von Google Colaboratory, August 2022
Kommentieren Sie einfach die Zeile:
#print(account.webproperties)
… um die Liste der verfügbaren Konten anzuzeigen.
Kopieren Sie den Kontonamen und fügen Sie ihn genau in die Zelle darüber ein.
Länderfilter
Eine einfache Variable zum Filtern des Datenverkehrs nach Land. Um weltweit festzulegen, kommentieren Sie einfach diese Zeile:
df_gsc = df_gsc[df_gsc[“country”].str.contains(country_filter)] # comment this line for worldwide data
Eine Liste der Ländercodes finden Sie hier.
Suchtyp
Hier verfügbare Optionen sind Web, Nachrichten, Video, Bild, Entdecken & GoogleNews.
Start-/Enddatum
Geben Sie die Start- und Enddaten ein, für die GSC-Daten abgerufen werden sollen. Ich empfehle nach Möglichkeit mindestens drei Monate. Das Datumsformat ist:
JJJJ-MM-TT
Hier sind meine Einstellungen, um die Daten der letzten drei Monate aus der GSC-Eigenschaft abzurufen für Search Engine Journal.
url = “https://www.searchenginejournal.com/” country_filter = „usa” search_type = “web” # verfügbare optionen sind: web, nachrichten, video, bild, entdecken & googleNews start_date = “2022 -05-01“ end_date = „2022-08-01”
Die Daten werden aus GSC gezogen. Dies kann je nach Größe der Website und der Anzahl der angeforderten Monate eine Weile dauern. Sobald der Datenabruf abgeschlossen ist, erstellt die nächste Zelle den Datenrahmen aus den GSC-Daten. Die ersten 10 Zeilen werden in der Vorschau angezeigt, sodass Sie überprüfen können, ob die Daten korrekt sind. Wenn Sie die Seite nach unten scrollen, werden Sie feststellen, dass ein Balkendiagramm erstellt wurde. Dieses Diagramm gruppiert Seiten entsprechend der Anzahl der ihnen zugeordneten Klicks in Bereiche. Dadurch ist die Klickverteilung der Klicks zwischen den Seiten auf einen Blick ersichtlich.
Screenshot von Google Collaboratory, August 2022
Das Balkendiagramm kann nach Bedarf in Präsentationen kopiert werden und erzählt normalerweise eine aussagekräftige Geschichte mit den Daten.
Beim Testen habe ich festgestellt, dass die meisten Websites die gleiche Art von Verkehrsaufschlüsselung aufweisen.
Zu wissen, welche Seiten für einen hohen Prozentsatz des Traffics verantwortlich sind, macht es einfach, Aufgaben für die Optimierung zu priorisieren.
Direkt unter dem Balkendiagramm werden einige Statistiken erstellt und angezeigt.
- Der Prozentsatz der Seiten in GSC ohne Klicks.
- Der Prozentsatz der Klicks, die die Top 10 Seiten in GSC generiert haben.
Screenshot von Google Colaboratory, August 2022
Screenshot von Google Colaboratory, August 2022
Schließlich wird ein Microsoft Excel-Dokument zur Bearbeitung gespeichert.
Dieses Dokument enthält alles, was Sie zum Erstellen eines Aktionsplans zum Optimieren von Seiten am oberen und unteren Ende der Skala benötigen.
Wie können diese Daten verwendet werden?
Davon gibt es viele kreative Möglichkeiten, wie diese Erkenntnisse in Aktionen umgewandelt werden können.
Top-Seiten
Überprüfen Sie das Erscheinungsbild jeder Seite in den SERPs
- Wird das relevante Schema korrekt ausgelöst?
- Sind Seitentitel/Meta-Beschreibungen abgeschnitten?
- Entfernen Seitentitel/Meta-Beschreibungen Schlüsselwörter?
- Könnten Seitentitel/Meta-Beschreibungen durch bessere Botschaften, zusätzliche Keywords, bessere CTAs usw. verbessert werden?
- Lösen die richtigen Sitelinks aus?
Conversion-Rate Optimierung
- Seiten mit hohem Traffic sind ideale Kandidaten für A/B-Tests – Erhalten Sie statistisch signifikante Daten schneller!
- Überprüfen und aktualisieren Sie Inhalte.
Analyse
- Führen Sie einen Konkurrenten durch Analyse.
- Rückentwickeln, was funktioniert. Was unterscheidet diese Seiten?
Seiten ohne Zugriffe
Seiten in der Search Console überprüfen
- Überprüfen Für technische Blocker entdeckt, nicht indiziert/gecrawlt, nicht indiziert.
- Sind Seiten in Sitemaps enthalten?
Inhalt
- Inhalt überprüfen. Ist der Inhalt dünn oder fehlt er?
- Gibt es ein Muster für die Seiten, die keinen Traffic erhalten?
Schlussfolgerung
Dies sind nur einige Ideen wie jemand unter Verwendung der Daten Maßnahmen ergreifen könnte, aber ich bin sicher, dass es noch viel mehr Ansätze gibt, die verfolgt werden könnten.