onpage seo mit prozessen und strukturen effizient organisieren
TRANSCRIPT
Onpage SEO mit Prozessen und Strukturen effizient
organisieren
Stefan Keil 17.11.2017
Standort Berlin
Wielandstraße 9, 12159 Berlin
☎ 030 / 85 75 74 67
Standort Frankfurt
Myliusstraße 14, 60323 Frankfurt a.M.
SEO-Prozesse: viele kleine Teiltätigkeiten
Auslöser/Trigger
Verantwortlicher
Ergebnis / Maßnahme
Ereignis: Worst-Case ist
Performanceverlust, im
besten Fall, nur eine E-Mail
vs.
turnus: regelmäßige
Betrachung und ggf.
Analyse
Immer ein SEO:
Technisch, Redaktion,…
Anpassungen an:
- Content
- IT
- Informationsarchitektur
Tools und Werkzeug
Checklisten, Crawler, Tools,
Dokumentationen
Der SEO-Prozess im groben Überblick
IT-SEOInformations-
architektur
Zielgruppe und Angebote
Nachfragesituation
(Keyword-Analyse)
Wettbewerbsanalyse (Wer
wird gefunden? Was wird
angeboten?
Angebotsdefinition
Domain & URL
Management
Website Architecture
(Duplicate Content)
Geschwindigkeit /
Ladezeit
HTML-Optimierung
IT-Flexibilität
Feeds & Sitemaps
Strukturierte Daten
(schema.org)
Mobile Optimierung
Aufbau
nachfrageorientierte
Informationsarchitektur
Place of Information
Information Scent
Siloing
Verlinkungsziele pro
Seitentyp
Inhaltliche Erschließung
und Vernetzung
Visualisierung &
Funktionale Wireframes
Redaktionsplanung
SEO im
Redaktionsprozess
Bestandsoptimierung und
Content Maintenance
Ausbau und Pflege vs.
Neuerstellung
Cornerstone-Inhalte und
Republishing
Zieldefinition Outreach
Content Planung &
Erstellung
Bedeutung von Links
Optimierung bestehender
Linkprofile
Identifikation von
Linkopportunitäten
Social Media Optimization
Linkbaits
Controlling
und Forecast
Suchanfragen (offene
Potenziale? Erreicht der
Nutzer die Seiten am
richtigen Ort?)
Webanalyse (Quanitative
Betrachtung, Trafficqualität,
Nutzerverhalten)
IT-Hygiene (Crawlen der
Seite, IT-Fehler finden und
beheben)
Content-
planung & -
erstellung
Prozessthemen im Onpage-SEO
Onpage-SEO
Prozesse
Weiterleitungen
• Weiterleitungs-
ketten
404 / 410 / soft-404
Doppelte Titles und
Descriptions
Aktualisierung der
Inhalte
Anpassung an das
Suchverhalten
Depublizieren und
Löschen
Ausrichtung Titles und
Description
Anpassung h1
Erfassung Suchmuster
und Facetten
Alerting-System
Regelmäßiges
Monitoring
• IT
• Content
IT-SEOInformations-
architekturContent
Alerting &
Monitoring
You know all the tasks and your priorities suck….
Kontext der Themen betrachten
„Wann sollte meine IT mir Sorgen bereiten?“
Jedes Projekt ist anders – Relevanz und Impact nach Case
▪ Ca. 5.000 Seiten
▪ Shop- und Content-
Bereich
▪ Wordpress und
Magento
▪ Kurze Wege (3
Mann Online
Abteilung)
▪ Entwicklung und
Update nach Bedarf
▪ Ca. 800.000 Seiten
▪ 50-150 Artikel pro
Tag
▪ Hoher
Abstimmungsbedarf
zwischen IT –
Marketing und
Redaktion
▪ 2 Wochen Sprints:
SEO ein „kleiner“
Stakeholder von
vielen
▪ Ca. 100.000 Seiten
▪ Shop- und Content
eng vermischt
▪ Filialist: Hohe
Abstimmung
zwischen online und
offline
▪ Online Marketing
intern – IT extern
▪ 3 Wochen Sprints:
SEO ein „kleiner“
Stakeholder von
vielen
Mittelstand Retailer Publisher
▪ Ca. 1.500.000 Seiten
▪ Verzeichnisse oder
Kleinanzeigen
▪ UGC – Anzeigen oder
Detailseiten und fixe
Kategorie
▪ Hohe Abstimmung
zwischen IT und
Marketing
▪ externe Texter für
SEO
▪ 2 Wochen Sprints
Index-Riese
▪ Jedes Setup birgt eigene
Risiken – große und
komplexe Systeme mit
verteiltem Arbeiten sind
z.B. fehleranfälliger
Wo liegen die Wachstumshebel und Risiken?
▪ Wie häufig sollte ich den
Prozess anstoßen?
▪ Jeder Prozess behandelt
hier ein Problem oder eine
Chance – wie groß sind die
Auswirkungen wenn es
eintritt?
Risiko Auswirkung Monitoring / Frequenz
Mittelstand Retailer Publisher Index-Riese
Relevanz
Auslöser / Trigger:
Ereignis vs. Turnus
Relevanz
1.4k seite n oder so :O
Grundoptimierung muss vorhanden sein
Und noch eine Anmerkung…
IT-SEO
Prozesse zur
Sicherung der
Basis
Ziel: Nutzbarkeit und Crawlbarkeit erhalten!
Nutzung und NutzbarkeitCrawling und Crawlbudget
▪ „Taking crawl rate and crawl demand
together we define crawl budget as the
number of URLs Googlebot can and wants to
crawl. “
▪ Crawl rate limit:
▪ „ … limits the maximum fetching rate for
a given site”
▪ Crawl demand:
▪ „… if there's no demand from indexing,
there will be low activity from
Googlebot.”
▪ Einstiege auf Fehlerseite
▪ Intern verlinkte Fehlerseiten
▪ Verzögerungen im Laden der Seite durch
(interne) Weiterleitungen und
Weiterleitungsketten
▪ Einstieg auf Seitenfragmenten (keine weitere
Aktion durchführbar)
Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html
Kritische Stolpersteine in der Crawlability
▪ We found that the low-value-add URLs fall
into these categories, in order of significance:
▪ Faceted navigation and session identifiers
▪ On-site duplicate content
▪ Soft error pages
▪ Hacked pages
▪ Infinite spaces and proxies
▪ Low quality and spam content
Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html
Soft 404
Status 200, „index, follow“
Nutzern ermöglichen, meine Seite sinnvoll zu nutzen
Mobile to Responsive Umzug
m.domain.de
45 ms
www.domain.de/
page?id=12
81 ms
www.domain.de/
sprechende-url
166 ms
302 301
81 ms (28%) unnötige Ladezeit
„klassische IT-Fehler“ interne und externe Fehlersichten
Tools (intern) Tools (extern)
Weiterleitungen
Fehlerseiten
Doppelte
Metaangaben
Doppelte H1
Und viele mehr…
Alles was crawlt….
Achtung: Problemseiten
müssen intern Verlinkt sein!
Und andere
Webanalyse-Tools
Redirect(-ketten) identifizieren und abbauen
▪ Crawlbudget schonen
▪ Ladezeit (vor allem mobil) nicht unnötig
erhöhen
Warum?
1. Regelmäßige Crawls durchführen
2. Redirects identifizieren
a. Priorisierung nach Häufigkeit der
internen Verlinkung
b. Templatebasierte Verlinkungen
(Seitenweit u.ä.) zuerst!
3. Automatische Verlinkungen
korrigieren lassen
4. „Redaktionelle Fehler“ korrigieren
und Redakteure sensibilisieren!
Redirect Chains mit dem Screaming Frog
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Fehlerseiten (404, soft 404, 410) identifizieren und abbauen
▪ Schlechte Nutzererfahrung
▪ Konversionskiller
▪ Crawlbudget besonders bei internen Fehlern
stark beansprucht
▪ Seitenhygiene
Warum?Intern verlinkt Externe Meldung
▪ Google Analytics /
Webanalyse
▪ Google Search Console
▪ Crawler
▪ Google Analytics /
Webanalyse
▪ Google Search Console
1. Monitoring (GSC) / Regelmäßige
Crawls durchführen
2. Fehlerseiten identifizieren
a. Priorisierung nach Häufigkeit der
internen Verlinkung
b. Templatebasierte Verlinkungen
(Seitenweit u.ä.) zuerst!
3. Automatische Verlinkungen
korrigieren lassen
4. „Redaktionelle Fehler“ korrigieren
und Redakteure sensibilisieren!
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus oder Event
Fehlerseiten (404, soft 404, 410) identifizieren und abbauen
▪ Ab einer gewissen Fehlermenge ist die
Fehleranalyse und Fehlersichtung nur noch
sehr schwer möglich.
▪ Detailliertes Monitoring (Verzeichnisebene)
der Fehler laut GSC hilft für einen groben
Überblick.
▪ Relevanz beachten:
▪ 4.000 Fehler als „stabiles Grundniveau“
▪ 200 neue Fehler
▪ Fehleranalyse mit „schlechter Sicht“ aufwändig
▪ Wirkung gering
▪ Warten bis eröffnete Tickets bearbeitet wurden
Nicht jeder 404er ist schlecht!
Die echten Fehler finden
Seiten löschen ist erlaubt. Wobei bei einer
dauerhaften Löschung der Statuscode 410
vorzuziehen ist.
Gelöschte Inhalte sollten aber nicht mehr verlinkt
sein.
Arbeitsschritte:
▪ Angeblichen 4XXer prüfen, ob er auch 4XX ist
▪ 4XXer klicken um Pop-Up der verlinkten Seiten
zu bekommen
▪ Prüfen, ob die verlinken Seiten noch erreichbar
sind
▪ Prüfen, ob die Verlinkung noch vorhanden ist
ToDos:
▪ Intern: Links entfernen oder auf neues Ziel
setzen
▪ Extern: Wenn guter Link, Zielseite weiterleiten
Nicht jeder 404er ist schlecht!
Die echten Fehler finden
Das will natürlich niemand per Hand machen,
also bemühen wir R:
▪ Prüft, ob 4XXer noch 4XXer ist.
▪ Prüft, ob die linkgebenden Seiten noch
vorhanden sind.
▪ Prüft, ob die Links auf den linkgebenden
Seiten noch vorhanden sind.
▪ Erzeugt eine Excel-Datei mit den wirklich
vorhandenen 404ern sowie den echten
linkgebenden URLs
▪ Alle anderen URLs werden als „behoben“ an
die GSC gemeldet.
404-Fehler prüfen und entfernen: Das Script zum Download
https://www.gettraction.de/blog/gsc-
404er-mit-r-automatisert-pruefen/
GSC-Report: doppelte Titles und Descriptions identifizieren
▪ Etwas versteckter Bericht in der Google
Search Console.
▪ Vorteil: findet Fehler, die nicht intern verlinkt
sind
▪ Nachteil: Bericht ist oft veraltet
▪ Seiten sind bereits kanonisiert
▪ Seiten sind auf „noindex, follow“
▪ Seiten bereits 404/410
▪ Seiten werden via 301 weitergeleitet
▪ Explodiert oft bei einem Relaunch oder
Umstrukturierungen
Beispiel-
URLs
Doppelte Titles und Descriptions identifizieren
▪ Zeigen Duplicate Content Probleme an
▪ Eindeutigkeit von Seiten gewährleisten
▪ Nutzer wissen nicht welcher Treffer relevant
ist
▪ Titel hat Rankingrelevanz
Warum?
Sprachverzeichnisse
Hosts
Trailing-Slash
Sprechende vs. Nicht sprechende URLs
▪ http://www.domain.de/de-de/
▪ http:// www.domain.de/en/
▪ http://www.domain.de/
▪ https://www.domain.de/
▪ https://www.domain.de/produkte/
▪ https://www.domain.de/produkte
▪ https://www.domain.de/produkte-19/
▪ https://www.domain.de/?id=19
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
GSC-Report: doppelte Titles und Descriptions
▪ Das will natürlich niemand per Hand
machen, also bemühen wir Knime:
▪ Einlesen des GSC-Exports
▪ Transponieren der URLs
▪ Abgleich mit Screaming Frog Crawl
▪ Filterung auf die relevanten URLs
▪ Antworten die URL mit 200 OK?
▪ Sind die URLs indexierbar?
▪ Canonical Tag
▪ Robot-meta
▪ Robots.txt
▪ Fehler prüfen und Anforderungen an die IT
stellen!
Die echten Fehler finden
Zusammenfassung: Glücklicher Crawler – freudiger Nutzer
Nutzbarkeit erhöht
Conversionskiller entfernt
Erwartungskonformität erhöht
Crawling optimiert
Unnötige Ladezeit vermieden
Informations-
architektur
Nutzer und
Seite
zusammen-
zubringen
Nutzer und Inhalte zusammenführen
Place of Information (Wo)
Information Scent (Wohin)
Frage:
▪ Wo bin ich?
▪ Bin ich hier richtig?
Passende
Suchanfrage auf
der Seite hilft
Nutzern und
Suchmaschinen
Anforderung:
▪ Suchanfrage in Titel (SERP)
▪ Suchanfrage in die
Überschrift
▪ Überschrift entsprechend
groß
Frage:
▪ Wo sind mehr
relevante Inhalte?
▪ Wie weit sind diese
entfernt
Nutzerzentrierte
explizite Sprache
unterstützt eine
schnelle
Orientierung
Anforderung:
▪ Einfache & verständliche
Navigation
▪ Relevante Inhalte schnell
erreichbar
Wo bin ich und wohin kann ich gehen sind die zentralen Fragen der Informationsarchitektur.
Nur die Nutzer, die diese Fragen für sich beantworten können, können die gewünschten Informationen oder Produkte finden.
Anpassung der Titles und Descriptions
▪ Erwartungskonformität steigern
▪ Nutzern Relevanz signalisieren
▪ Klickattraktivität steigern
▪ Änderungen im Anfrageverhalten und im
Informationsbedarf erkennen und bedienen
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Anpassung der Überschrift(en)
▪ Relevanz für Suchende steigern.
▪ Erstes Prüfen der Seite – Skimming und
Scanning erffordert Beweise.
▪ „Bin ich hier richtig?“ Ja!
Warum?Skimming Scanning Lesen
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Dimensionen und Facetten erkennen
▪ Suggests zu Thema Kiten/Kitensurfen
▪ Welche Begriffe werden in Kombination mit
▪ „kitesurfen“
▪ „Kiten“
▪ „landkiten“
▪ „Kiteurlaub“
gesucht?
▪ Erkennen von Suchdimensionen
▪ Ort
▪ Zeit
▪ Kitegröße
▪ Einstiegsseiten schaffen!
Effizientes Analysieren mit Anfragesegmenten (GSC)
▪ Metriken aus der Google Search Console nach
Anfragemuster aufteilen und betrachten.
▪ Herangehensweisen:
▪ Alle bekannten Muster ausschließen – was bleibt
übrig?
▪ Gibt es in den einzelnen Muster „Subthemen“?
▪ Kommen die Nutzer auf der passenden Seite
raus? Produktdetailseite? Kategorieseiten?
▪ Nein? Fehlen vielleicht die passenden Elemente auf
den Seitentypen?
▪ Ist eine Facette neu hinzugekommen?
▪ Lohnt sich vielleicht eine neue Kategorie? Produkte
nach Eigenschaft „xy“?
Größe Material Hersteller
90x200
90x200
100x200
180x200
…
Holz
Metall
Leder
…
Marke 1
Marke 2
Marke 3
Anfragemuster nach Klicks und
Impressionen betrachten
Beispiel Betten
Prüfung auf neue Suchmuster und Suchverhalten
▪ Nutzer an die passende Stelle des Angebots
leiten
▪ Potentiale zu neuen Suchmuster erschließen
(passendere LP in der Regel bessere
Rankings!)
Warum?
Header
H1: Seitenthema
H2 Subaspekt 1 Sprung-marken
Marginal-
spalte
H2 Subaspekt 2
H2 Subaspekt 3
H2 Subaspekt4
<Verlinkungen zu verwandten Themen>
Gesamtstruktur
Seitenstruktur
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Content
Contentpflege-
prozesse im
SEO
▪ Entwicklung einer News-
SEO Strategie
▪ Aufbauend auf der
thematischen Relevanz,
die Google bereits
zugewiesen hat
▪ Gezielte Optimierung auf
News-Boxen im Rahmen
der redaktionelle Arbeit
▪ News-Boxen besetzen
▪ Bestehende Rankings
verlängern
Content SEO: Lebenszyklus beachen!
▪ Evergreen-Inhalte
identifizieren und gezielt
ausbauen
▪ Content-Pflege in den
Workflow integrieren
▪ Content-Ausbau zu
Themenspecials
▪ Ausbau der
Informationsarchitektur
für Evergreen-Content wie
Ratgeber, Guides etc.
News-SEO Evergreen-SEO
Ratgeber Artikel 1 Artikel 2
Ratgeber: Ca. 79
% SEO-Traffic
Artikel: Ca. 35
% SEO-Traffic
Content altert
0
10
20
30
40
50
60
Beispiel Rankingentwicklung
Content Refresh: Überalterung vermeiden
▪ Aktualität für den Nutzer gewährleisten
▪ Schleichender Ranking und Trafficverlust
▪ Content Maintenance
Warum?Suchanfrage / Landingpage
Klicks Impressionen Ranking
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
Inhalte an das Suchverhalten anpassen
▪ Bei Initialerstellung Suchverhalten nicht ganz
klar oder es ändert sich
▪ Änderung Suchverhalten
▪ Subthemen erst eindeutig und sichtbar mit
eigenen Daten
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
Erhebung Nachfrage
AdWords oder
Keyword-Tools
Inhalte strukturiert depublizieren!
Sicht nicht verlieren! Soft 404 wegen unspezifischer
Redirects
Effizientes löschen und depublizieren
▪ Inhalte werden nicht mehr benötigt und
sollen möglichst schnell aus dem Index
verschwinden
▪ Positive Signale mitnehmen
▪ Sackgassen vermeiden
▪ Freie Sicht behalten
Warum?
1. Relevanz Prüfen
a. Einstiege
b. Links
c. Seitenaufrufe
2. Redirect vs. 410 „Gone“
a. Fallentscheidung pro URL
3. Einrichtung der Redirects
4. Entfernen via 410
5. Prüfung ob noch interne Verlinkungen bestehen
6. Erstellung einer 410-Sitemap
7. Via GSC Einreichen
8. Regelmäßige Fehler prüfen und abhaken
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
Alerting und
Monitoring-
Prozesse im
SEO
Warum Alerting und Monitoring?
Being happy because our last
deployment went perfectly!
Alerts: Frühwarnsystem
Agile Entwicklung erfordert agiles Fehlermanagementund eine entsprechende Fehlerkultur. Durch stetige Überwachung den SEO-Erfolg sichern.
SEO als Teil der Qualitätssicherung
▪ Risikominimierung durch gefundene Fehler
während der Entwicklung.
▪ Fehler werden frühzeitig erkannt und haben
dadurch wenig bis gar keinen Impact auf die
organische Leistung.
▪ Bugs bleiben Bugs und werden zum teuren
Changerequest.
▪ Plattformqualität steigt, da
Nutzungsprobleme schnell korrigiert werden
können!
Warum?
https://www.gettraction.de/blog
/seo-alerting-mit-testomato/ Mittelstand Retailer Publisher Index-Riese
Relevanz
Event
Google Analytics für „Totalsausfälle“ nutzen
Traffic-Beobachtung via Webanalyse
• Traffic-Einbrüche
• Umsatzausfall
• Aufrufe 404-Fehlerseiten
• …Mehr?
z.B.
https://www.zedwoo.de/google-analytics-alerts/
https://www.gandke.de/blog/google-analytics-alerts/
http://www.termfrequenz.de/podcast/beyond-
pageviews-podcast/bp-2-1-google-analytics-alerts/
Granulares Setup - Beispiele für Seitentypen und Abwandlungen
Startseite
Ressort
Seitentypen
Subressort
Artikel
Premiumartikel
Themenseite
Video
Video-Ressorts
Autorenseite
Infografiken
Suche
Paginierung Filter SEO spezifische Dokumente
Robots.txt Index-Sitemap Sitemaps News-Sitemap
(Seitenweite) Parameter
Usertracking Aktionstracking
Partner
Kurz-URLs
Partnerangebote
(auf Hauptdomain)
Bugs & weiteres
410
301 404
Wiederholung
Seitentypen?
Canonicals
Segmente mit spezifischen Prüfmerkmalen belegen
▪ Nach der Segmentierung einer Webseite nach
Inhalts- und Template Bereichen, kann eine
Auswahl an „Stellvertreterseiten“ getroffen
werden, um erfolgskritische SEO-
Anforderungen permanent zu überprüfen.
Beispielsweise:
▪ Indexierungsanweisungen
▪ Muster für Titles und Descriptions
▪ Überschriften
▪ (SEO-)Textelemente
▪ Navigationselemente
▪ Schema.org Auszeichnung
▪ Href-lang Implementierung
▪ Sollte einer dieser Anforderungen verloren
gehen (fehlerhaftes Deployment o.ä.), können
sofort Gegenmaßnahmen ergriffen werden.
Dies ist dringend notwendig für einen
dauerhaften Erfolg im SEO.
Beispiel Testomato
Problem: Regeln können schwer überprüft werden
▪ Beispiel:
▪ Kategorien mit weniger als 5 Artikeln stehen auf
noindex
▪ Href-lang nur implementiert, wenn Seite einen
selbstreferenzierenden Canonial hat
▪ Slug eines Titels verkürzt sich, wenn
Produktnamen eine bestimmte Länge haben
▪ Etc.
▪ Und natürliche alle Prüfungen aus dem
Alerting!
Im Fall von Abweichung:
▪ Direkt Ticket an IT zur Fehlerbehebung
▪ Entweder an Betrieb oder an Alerting-
Ansprechpartner in der IT
Lösung: Audisto Monitoring
https://audisto.com/contacts/checks/1
Monitoring:Trends frühzeitig erkennen
Operative Steuerung und frühzeitige Fehlererkennung.
Operative Steuerung für Content und Informationsarchitektur
▪ Regelmäßige Sichtung von Hygiene und
Qualitätsfaktoren des Produkts.
▪ Identifikation von Trendthemen und
kurzfristigen Traffic-Quellen.
▪ Stark operativ einsetzbar mit direkter
Ableitung von operativen Maßnahmen für
Content, Informationsarchitektur und IT-
Hygiene.
▪ Ausbau von Quickwins und Eventgetriebenen
Themen, die sich nicht immer redaktionell
planen lassen.
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
Wöchentliches Monitoring der Akquisition und Fehlerentwicklung
Akquise und Qualität:
• Sitzungen
• Absprungrate
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
SERP-Leistung:
• Klicks und Impressionen
• Absprungrate
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
Top Suchphrasen (brand / nonbrand)
• Impressionen
• Klicks
• CTR
• Position
Delta zur Vorwoche
Top URLs (brand / nonbrand)
• Impressionen
• Klicks
• CTR
• Position
Delta zur Vorwoche
Sichtbarkeit und Rankings:
• Sichtbarkeit nach Sistrix desktop/mobile
• Anzahl Top 100 / Top 10 Rankings nach
Sistrix
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• 404, 500, soft404
• Anzahl indexierte Seite
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• Doppelte Titles und Descriptions
• Anzahl href-Tags und hreflang-Fehler
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• Anzahl schema.org-Elemente
• Anzahl schema.org-Fehler
• Anzahl Fehler auf mobilen Seiten
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
Akquisition Sichtbarkeit und IT-Fehler
Me: Wait – his outline said he would give
us tools and processes to reduce efforts…
Inner me: DISRUPT him NOW!
Prozess sitzt.
Arbeit läuft.
SEO wird
dennoch nicht
informiert…
Es bleibt nur Backup: Crawlen, suchen, vergleichen…
+
Sistrix Optimizer (Ende Oktober)
https://www.sistrix.de/changelog/webseitenaenderungen-im-optimizer-nachvollziehen/
Filter bei Ryte speichern
• Änderungen an Meta Index
• Veränderung der Anzahl externer
Links
• Andere Meta Descriptions
• Veränderter Canonical-Tag
• Änderungen im Quelltext
• H1-Überschrift hat sich geändert
• Veränderungen der Anzahl interner
Links
• Anderer Status-Code
• Veränderter Title-Tag
• Neu gefundene URLs
• Nicht mehr gefundene URLs
• Deutlich andere Dateigröße
• Ladezeiten haben sich deutlich
geändert
• Verändertes Charset
• Anderer Content Type
• Veränderte Klickanzahl
• „Verwalten“
• Bekannte Fehler stören bei der Sichtung neuer
Probleme & verhindern das aktive Steuern
• Maßnahmen „sehen“ und auch bewerten können
• Erfolg
• Misserfolg / Korrektur
Normaler Arbeitsablauf: Initialanalyse und Pflege
Initialanalyse Betreuung und Pflege
Abschluss Initialisierung• Vollständige Erstaufnahme
• Evaluation aller Themenfelder und Bereich auf
Risiken und Chancen
• Erschließung der Seitenstruktur
• Fehler kategorisieren und kontextualisieren
• Anforderungen an die IT
• Anforderungen an die Redaktion
• Schätzungen, Workflows entwickeln, SEO-
Roadmap aufbauen
Vollständigkeit Änderungen
Differenzen verschiedener Crawls schnell finden!
Abgleich regelmäßiger Crawls der selben Domain
mit dem jeweiligen Crawl davor nach:
▪ URLs, die im neuen Crawl nicht mehr vorhanden
sind.
▪ URLs, die im neuen Crawl erstmalig vorhanden
sind.
▪ URLs deren Canonical-Anweisung sich geändert
hat
▪ URLs deren Titel / Descriptions sich geändert
haben
▪ URLs deren Indexierungsanweisungen sich
geändert haben
▪ URLs deren Statuscode sich geändert haben
▪ Etc.
Im Fall von Regelverletzungen:
▪ Direkt Ticket an IT zur Fehlerbehebung
▪ Entweder an Betrieb oder an Alerting-
Ansprechpartner in der IT
Delta-Abgleich
…ich weiß, was du letzte Woche getan hast…
▪ Neue URLs
▪ Entfallene URLs
▪ Änderungen:
▪ Status-Code
▪ Canonical-Link
▪ Meta-Robots
▪ H1
▪ Title
▪ Description
▪ Content-Type
▪ Klicktiefe
▪ Dateigröße
▪ Antwortzeit
Relevante MerkmaleMittwoch KW 28 Mittwoch KW 29
Entfallene URLs neue URLs
Gemeinsame URLs
Crawlabgleich: Screaming Frog & R: Workflow und Link
Details und Download unter:
https://www.gettraction.de/seokomm2017
Zusammenfassung und Überblick der Relevanz
Mittelstand Retailer Publisher Index-Riese
IT Redirect(ketten) abbauen
IT Fehlerseiten identifizieren und ggf. abbauen
IT Doppelte Titles und Descriptions
IA Anpassungen Title und Descriptions
IA Anpassungen Überschriften (h1)
IA Prüfung auf neue Suchmuster
CO Content Refresh
CO Content Anpassen
CO Inhalte strukturiert depublizieren
AL Alerting-Prozess
MO Monitoring-Prozess
Sie wollen die Präsentation?
▪ Schreiben Sie jetzt eine Mail an
unseren Mitarbeiter, Michael
Ludermann:
▪ Betreff: SEOkomm Präsentation
▪ Und sie bekommen umgehend die
Präsentation zugesendet!
Kein Problem:
…Fragen? Dann kontaktieren sie uns!
Kontakt:
www.gettraction.de
FB: https://www.facebook.com/gettraction.de/
Twitter: https://twitter.com/gettraction_om
Mail Stefan Keil: [email protected]
Bildnachweise
▪ Folie 10: taviphoto/Shutterstock.com
▪ Folie 11: bigstockphoto.com / Scanrail
▪ Folie 18: bigstockphoto.com / Kirisa99
▪ Folie 25: bigstockphoto.com / marcelmooij
▪ Folie 26: bigstockphoto.com / Ivelin Radkov
▪ Folie 28: bigstockphoto.com / Flynt
▪ Folie 33: bigstockphoto.com / Policas
▪ Folie 35: bigstockphoto.com / weerapat
▪ Folie 36: bigstockphoto.com / Thatsaphon Saengnarongrat
▪ Folie 41: bigstockphoto.com / Olivier Le Moal
▪ Folie 43: bigstockphoto.com / joegough
▪ Folie 50: bigstockphoto.com / tashatuvango