3. SEO-Prozesse: viele kleine Teiltätigkeiten
Auslöser/Trigger
Verantwortlicher
Ergebnis / Maßnahme
Ereignis: Worst-Case ist
Performanceverlust, im
besten Fall, nur eine E-Mail
vs.
turnus: regelmäßige
Betrachung und ggf.
Analyse
Immer ein SEO:
Technisch, Redaktion,…
Anpassungen an:
- Content
- IT
- Informationsarchitektur
Tools und Werkzeug
Checklisten, Crawler, Tools,
Dokumentationen
4. Der SEO-Prozess im groben Überblick
IT-SEO
Informations-
architektur
Zielgruppe und Angebote
Nachfragesituation
(Keyword-Analyse)
Wettbewerbsanalyse (Wer
wird gefunden? Was wird
angeboten?
Angebotsdefinition
Domain & URL
Management
Website Architecture
(Duplicate Content)
Geschwindigkeit /
Ladezeit
HTML-Optimierung
IT-Flexibilität
Feeds & Sitemaps
Strukturierte Daten
(schema.org)
Mobile Optimierung
Aufbau
nachfrageorientierte
Informationsarchitektur
Place of Information
Information Scent
Siloing
Verlinkungsziele pro
Seitentyp
Inhaltliche Erschließung
und Vernetzung
Visualisierung &
Funktionale Wireframes
Redaktionsplanung
SEO im
Redaktionsprozess
Bestandsoptimierung und
Content Maintenance
Ausbau und Pflege vs.
Neuerstellung
Cornerstone-Inhalte und
Republishing
Zieldefinition Outreach
Content Planung &
Erstellung
Bedeutung von Links
Optimierung bestehender
Linkprofile
Identifikation von
Linkopportunitäten
Social Media Optimization
Linkbaits
Controlling
und Forecast
Suchanfragen (offene
Potenziale? Erreicht der
Nutzer die Seiten am
richtigen Ort?)
Webanalyse (Quanitative
Betrachtung, Trafficqualität,
Nutzerverhalten)
IT-Hygiene (Crawlen der
Seite, IT-Fehler finden und
beheben)
Content-
planung & -
erstellung
5. Prozessthemen im Onpage-SEO
Onpage-SEO
Prozesse
Weiterleitungen
• Weiterleitungs-
ketten
404 / 410 / soft-404
Doppelte Titles und
Descriptions
Aktualisierung der
Inhalte
Anpassung an das
Suchverhalten
Depublizieren und
Löschen
Ausrichtung Titles und
Description
Anpassung h1
Erfassung Suchmuster
und Facetten
Alerting-System
Regelmäßiges
Monitoring
• IT
• Content
IT-SEO
Informations-
architektur
Content
Alerting &
Monitoring
6. You know all the tasks and your priorities suck….
7. Kontext der Themen betrachten
„Wann sollte meine IT mir Sorgen bereiten?“
8. Jedes Projekt ist anders – Relevanz und Impact nach Case
▪ Ca. 5.000 Seiten
▪ Shop- und Content-
Bereich
▪ Wordpress und
Magento
▪ Kurze Wege (3
Mann Online
Abteilung)
▪ Entwicklung und
Update nach Bedarf
▪ Ca. 800.000 Seiten
▪ 50-150 Artikel pro
Tag
▪ Hoher
Abstimmungsbedarf
zwischen IT –
Marketing und
Redaktion
▪ 2 Wochen Sprints:
SEO ein „kleiner“
Stakeholder von
vielen
▪ Ca. 100.000 Seiten
▪ Shop- und Content
eng vermischt
▪ Filialist: Hohe
Abstimmung
zwischen online und
offline
▪ Online Marketing
intern – IT extern
▪ 3 Wochen Sprints:
SEO ein „kleiner“
Stakeholder von
vielen
Mittelstand Retailer Publisher
▪ Ca. 1.500.000 Seiten
▪ Verzeichnisse oder
Kleinanzeigen
▪ UGC – Anzeigen oder
Detailseiten und fixe
Kategorie
▪ Hohe Abstimmung
zwischen IT und
Marketing
▪ externe Texter für
SEO
▪ 2 Wochen Sprints
Index-Riese
9. ▪ Jedes Setup birgt eigene
Risiken – große und
komplexe Systeme mit
verteiltem Arbeiten sind
z.B. fehleranfälliger
Wo liegen die Wachstumshebel und Risiken?
▪ Wie häufig sollte ich den
Prozess anstoßen?
▪ Jeder Prozess behandelt
hier ein Problem oder eine
Chance – wie groß sind die
Auswirkungen wenn es
eintritt?
Risiko Auswirkung Monitoring / Frequenz
Mittelstand Retailer Publisher Index-Riese
Relevanz
Auslöser / Trigger:
Ereignis vs. Turnus
Relevanz
10. 1.4k seite n oder so :O
Grundoptimierung muss vorhanden sein
Und noch eine Anmerkung…
12. Ziel: Nutzbarkeit und Crawlbarkeit erhalten!
Nutzung und NutzbarkeitCrawling und Crawlbudget
▪ „Taking crawl rate and crawl demand
together we define crawl budget as the
number of URLs Googlebot can and wants to
crawl. “
▪ Crawl rate limit:
▪ „ … limits the maximum fetching rate for
a given site”
▪ Crawl demand:
▪ „… if there's no demand from indexing,
there will be low activity from
Googlebot.”
▪ Einstiege auf Fehlerseite
▪ Intern verlinkte Fehlerseiten
▪ Verzögerungen im Laden der Seite durch
(interne) Weiterleitungen und
Weiterleitungsketten
▪ Einstieg auf Seitenfragmenten (keine weitere
Aktion durchführbar)
Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html
13. Kritische Stolpersteine in der Crawlability
▪ We found that the low-value-add URLs fall
into these categories, in order of significance:
▪ Faceted navigation and session identifiers
▪ On-site duplicate content
▪ Soft error pages
▪ Hacked pages
▪ Infinite spaces and proxies
▪ Low quality and spam content
Quelle: https://webmasters.googleblog.com/2017/01/what-crawl-budget-means-for-googlebot.html
Soft 404
Status 200, „index, follow“
14. Nutzern ermöglichen, meine Seite sinnvoll zu nutzen
Mobile to Responsive Umzug
m.domain.de
45 ms
www.domain.de/
page?id=12
81 ms
www.domain.de/
sprechende-url
166 ms
302 301
81 ms (28%) unnötige Ladezeit
15. „klassische IT-Fehler“ interne und externe Fehlersichten
Tools (intern) Tools (extern)
Weiterleitungen
Fehlerseiten
Doppelte
Metaangaben
Doppelte H1
Und viele mehr…
Alles was crawlt….
Achtung: Problemseiten
müssen intern Verlinkt sein!
Und andere
Webanalyse-Tools
16. Redirect(-ketten) identifizieren und abbauen
▪ Crawlbudget schonen
▪ Ladezeit (vor allem mobil) nicht unnötig
erhöhen
Warum?
1. Regelmäßige Crawls durchführen
2. Redirects identifizieren
a. Priorisierung nach Häufigkeit der
internen Verlinkung
b. Templatebasierte Verlinkungen
(Seitenweit u.ä.) zuerst!
3. Automatische Verlinkungen
korrigieren lassen
4. „Redaktionelle Fehler“ korrigieren
und Redakteure sensibilisieren!
Redirect Chains mit dem Screaming Frog
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
17. Fehlerseiten (404, soft 404, 410) identifizieren und abbauen
▪ Schlechte Nutzererfahrung
▪ Konversionskiller
▪ Crawlbudget besonders bei internen Fehlern
stark beansprucht
▪ Seitenhygiene
Warum?Intern verlinkt Externe Meldung
▪ Google Analytics /
Webanalyse
▪ Google Search Console
▪ Crawler
▪ Google Analytics /
Webanalyse
▪ Google Search Console
1. Monitoring (GSC) / Regelmäßige
Crawls durchführen
2. Fehlerseiten identifizieren
a. Priorisierung nach Häufigkeit der
internen Verlinkung
b. Templatebasierte Verlinkungen
(Seitenweit u.ä.) zuerst!
3. Automatische Verlinkungen
korrigieren lassen
4. „Redaktionelle Fehler“ korrigieren
und Redakteure sensibilisieren!
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus oder Event
18. Fehlerseiten (404, soft 404, 410) identifizieren und abbauen
▪ Ab einer gewissen Fehlermenge ist die
Fehleranalyse und Fehlersichtung nur noch
sehr schwer möglich.
▪ Detailliertes Monitoring (Verzeichnisebene)
der Fehler laut GSC hilft für einen groben
Überblick.
▪ Relevanz beachten:
▪ 4.000 Fehler als „stabiles Grundniveau“
▪ 200 neue Fehler
▪ Fehleranalyse mit „schlechter Sicht“ aufwändig
▪ Wirkung gering
▪ Warten bis eröffnete Tickets bearbeitet wurden
19. Nicht jeder 404er ist schlecht!
Die echten Fehler finden
Seiten löschen ist erlaubt. Wobei bei einer
dauerhaften Löschung der Statuscode 410
vorzuziehen ist.
Gelöschte Inhalte sollten aber nicht mehr verlinkt
sein.
Arbeitsschritte:
▪ Angeblichen 4XXer prüfen, ob er auch 4XX ist
▪ 4XXer klicken um Pop-Up der verlinkten Seiten
zu bekommen
▪ Prüfen, ob die verlinken Seiten noch erreichbar
sind
▪ Prüfen, ob die Verlinkung noch vorhanden ist
ToDos:
▪ Intern: Links entfernen oder auf neues Ziel
setzen
▪ Extern: Wenn guter Link, Zielseite weiterleiten
20. Nicht jeder 404er ist schlecht!
Die echten Fehler finden
Das will natürlich niemand per Hand machen,
also bemühen wir R:
▪ Prüft, ob 4XXer noch 4XXer ist.
▪ Prüft, ob die linkgebenden Seiten noch
vorhanden sind.
▪ Prüft, ob die Links auf den linkgebenden
Seiten noch vorhanden sind.
▪ Erzeugt eine Excel-Datei mit den wirklich
vorhandenen 404ern sowie den echten
linkgebenden URLs
▪ Alle anderen URLs werden als „behoben“ an
die GSC gemeldet.
21. 404-Fehler prüfen und entfernen: Das Script zum Download
https://www.gettraction.de/blog/gsc-
404er-mit-r-automatisert-pruefen/
22. GSC-Report: doppelte Titles und Descriptions identifizieren
▪ Etwas versteckter Bericht in der Google
Search Console.
▪ Vorteil: findet Fehler, die nicht intern verlinkt
sind
▪ Nachteil: Bericht ist oft veraltet
▪ Seiten sind bereits kanonisiert
▪ Seiten sind auf „noindex, follow“
▪ Seiten bereits 404/410
▪ Seiten werden via 301 weitergeleitet
▪ Explodiert oft bei einem Relaunch oder
Umstrukturierungen
Beispiel-
URLs
23. Doppelte Titles und Descriptions identifizieren
▪ Zeigen Duplicate Content Probleme an
▪ Eindeutigkeit von Seiten gewährleisten
▪ Nutzer wissen nicht welcher Treffer relevant
ist
▪ Titel hat Rankingrelevanz
Warum?
Sprachverzeichnisse
Hosts
Trailing-Slash
Sprechende vs. Nicht sprechende URLs
▪ http://www.domain.de/de-de/
▪ http:// www.domain.de/en/
▪ http://www.domain.de/
▪ https://www.domain.de/
▪ https://www.domain.de/produkte/
▪ https://www.domain.de/produkte
▪ https://www.domain.de/produkte-19/
▪ https://www.domain.de/?id=19
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
24. GSC-Report: doppelte Titles und Descriptions
▪ Das will natürlich niemand per Hand
machen, also bemühen wir Knime:
▪ Einlesen des GSC-Exports
▪ Transponieren der URLs
▪ Abgleich mit Screaming Frog Crawl
▪ Filterung auf die relevanten URLs
▪ Antworten die URL mit 200 OK?
▪ Sind die URLs indexierbar?
▪ Canonical Tag
▪ Robot-meta
▪ Robots.txt
▪ Fehler prüfen und Anforderungen an die IT
stellen!
Die echten Fehler finden
27. Nutzer und Inhalte zusammenführen
Place of Information (Wo)
Information Scent (Wohin)
Frage:
▪ Wo bin ich?
▪ Bin ich hier richtig?
Passende
Suchanfrage auf
der Seite hilft
Nutzern und
Suchmaschinen
Anforderung:
▪ Suchanfrage in Titel (SERP)
▪ Suchanfrage in die
Überschrift
▪ Überschrift entsprechend
groß
Frage:
▪ Wo sind mehr
relevante Inhalte?
▪ Wie weit sind diese
entfernt
Nutzerzentrierte
explizite Sprache
unterstützt eine
schnelle
Orientierung
Anforderung:
▪ Einfache & verständliche
Navigation
▪ Relevante Inhalte schnell
erreichbar
Wo bin ich und wohin kann ich gehen sind die zentralen Fragen der Informationsarchitektur.
Nur die Nutzer, die diese Fragen für sich beantworten können, können die gewünschten Informationen oder Produkte finden.
28. Anpassung der Titles und Descriptions
▪ Erwartungskonformität steigern
▪ Nutzern Relevanz signalisieren
▪ Klickattraktivität steigern
▪ Änderungen im Anfrageverhalten und im
Informationsbedarf erkennen und bedienen
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
29. Anpassung der Überschrift(en)
▪ Relevanz für Suchende steigern.
▪ Erstes Prüfen der Seite – Skimming und
Scanning erffordert Beweise.
▪ „Bin ich hier richtig?“ Ja!
Warum?Skimming Scanning Lesen
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
30. Dimensionen und Facetten erkennen
▪ Suggests zu Thema Kiten/Kitensurfen
▪ Welche Begriffe werden in Kombination mit
▪ „kitesurfen“
▪ „Kiten“
▪ „landkiten“
▪ „Kiteurlaub“
gesucht?
▪ Erkennen von Suchdimensionen
▪ Ort
▪ Zeit
▪ Kitegröße
▪ Einstiegsseiten schaffen!
31. Effizientes Analysieren mit Anfragesegmenten (GSC)
▪ Metriken aus der Google Search Console nach
Anfragemuster aufteilen und betrachten.
▪ Herangehensweisen:
▪ Alle bekannten Muster ausschließen – was bleibt
übrig?
▪ Gibt es in den einzelnen Muster „Subthemen“?
▪ Kommen die Nutzer auf der passenden Seite
raus? Produktdetailseite? Kategorieseiten?
▪ Nein? Fehlen vielleicht die passenden Elemente auf
den Seitentypen?
▪ Ist eine Facette neu hinzugekommen?
▪ Lohnt sich vielleicht eine neue Kategorie? Produkte
nach Eigenschaft „xy“?
Größe Material Hersteller
90x200
90x200
100x200
180x200
…
Holz
Metall
Leder
…
Marke 1
Marke 2
Marke 3
Anfragemuster nach Klicks und
Impressionen betrachten
Beispiel Betten
32. Prüfung auf neue Suchmuster und Suchverhalten
▪ Nutzer an die passende Stelle des Angebots
leiten
▪ Potentiale zu neuen Suchmuster erschließen
(passendere LP in der Regel bessere
Rankings!)
Warum?
Header
H1: Seitenthema
H2 Subaspekt 1 Sprung-
marken
Marginal-
spalte
H2 Subaspekt 2
H2 Subaspekt 3
H2 Subaspekt4
<Verlinkungen zu verwandten Themen>
Gesamtstruktur
Seitenstruktur
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
34. ▪ Entwicklung einer News-
SEO Strategie
▪ Aufbauend auf der
thematischen Relevanz,
die Google bereits
zugewiesen hat
▪ Gezielte Optimierung auf
News-Boxen im Rahmen
der redaktionelle Arbeit
▪ News-Boxen besetzen
▪ Bestehende Rankings
verlängern
Content SEO: Lebenszyklus beachen!
▪ Evergreen-Inhalte
identifizieren und gezielt
ausbauen
▪ Content-Pflege in den
Workflow integrieren
▪ Content-Ausbau zu
Themenspecials
▪ Ausbau der
Informationsarchitektur
für Evergreen-Content wie
Ratgeber, Guides etc.
News-SEO Evergreen-SEO
Ratgeber Artikel 1 Artikel 2
Ratgeber: Ca. 79
% SEO-Traffic
Artikel: Ca. 35
% SEO-Traffic
36. Content Refresh: Überalterung vermeiden
▪ Aktualität für den Nutzer gewährleisten
▪ Schleichender Ranking und Trafficverlust
▪ Content Maintenance
Warum?Suchanfrage / Landingpage
Klicks Impressionen Ranking
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
37. Inhalte an das Suchverhalten anpassen
▪ Bei Initialerstellung Suchverhalten nicht ganz
klar oder es ändert sich
▪ Änderung Suchverhalten
▪ Subthemen erst eindeutig und sichtbar mit
eigenen Daten
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
Erhebung Nachfrage
AdWords oder
Keyword-Tools
40. Effizientes löschen und depublizieren
▪ Inhalte werden nicht mehr benötigt und
sollen möglichst schnell aus dem Index
verschwinden
▪ Positive Signale mitnehmen
▪ Sackgassen vermeiden
▪ Freie Sicht behalten
Warum?
1. Relevanz Prüfen
a. Einstiege
b. Links
c. Seitenaufrufe
2. Redirect vs. 410 „Gone“
a. Fallentscheidung pro URL
3. Einrichtung der Redirects
4. Entfernen via 410
5. Prüfung ob noch interne Verlinkungen bestehen
6. Erstellung einer 410-Sitemap
7. Via GSC Einreichen
8. Regelmäßige Fehler prüfen und abhaken
Mittelstand Retailer Publisher Index-Riese
Relevanz
Event und Turnus
44. SEO als Teil der Qualitätssicherung
▪ Risikominimierung durch gefundene Fehler
während der Entwicklung.
▪ Fehler werden frühzeitig erkannt und haben
dadurch wenig bis gar keinen Impact auf die
organische Leistung.
▪ Bugs bleiben Bugs und werden zum teuren
Changerequest.
▪ Plattformqualität steigt, da
Nutzungsprobleme schnell korrigiert werden
können!
Warum?
https://www.gettraction.de/blog
/seo-alerting-mit-testomato/ Mittelstand Retailer Publisher Index-Riese
Relevanz
Event
45. Google Analytics für „Totalsausfälle“ nutzen
Traffic-Beobachtung via Webanalyse
• Traffic-Einbrüche
• Umsatzausfall
• Aufrufe 404-Fehlerseiten
• …
Mehr?
z.B.
https://www.zedwoo.de/google-analytics-alerts/
https://www.gandke.de/blog/google-analytics-alerts/
http://www.termfrequenz.de/podcast/beyond-
pageviews-podcast/bp-2-1-google-analytics-alerts/
47. Segmente mit spezifischen Prüfmerkmalen belegen
▪ Nach der Segmentierung einer Webseite nach
Inhalts- und Template Bereichen, kann eine
Auswahl an „Stellvertreterseiten“ getroffen
werden, um erfolgskritische SEO-
Anforderungen permanent zu überprüfen.
Beispielsweise:
▪ Indexierungsanweisungen
▪ Muster für Titles und Descriptions
▪ Überschriften
▪ (SEO-)Textelemente
▪ Navigationselemente
▪ Schema.org Auszeichnung
▪ Href-lang Implementierung
▪ Sollte einer dieser Anforderungen verloren
gehen (fehlerhaftes Deployment o.ä.), können
sofort Gegenmaßnahmen ergriffen werden.
Dies ist dringend notwendig für einen
dauerhaften Erfolg im SEO.
Beispiel Testomato
48.
49. Problem: Regeln können schwer überprüft werden
▪ Beispiel:
▪ Kategorien mit weniger als 5 Artikeln stehen auf
noindex
▪ Href-lang nur implementiert, wenn Seite einen
selbstreferenzierenden Canonial hat
▪ Slug eines Titels verkürzt sich, wenn
Produktnamen eine bestimmte Länge haben
▪ Etc.
▪ Und natürliche alle Prüfungen aus dem
Alerting!
Im Fall von Abweichung:
▪ Direkt Ticket an IT zur Fehlerbehebung
▪ Entweder an Betrieb oder an Alerting-
Ansprechpartner in der IT
Lösung: Audisto Monitoring
https://audisto.com/contacts/checks/1
51. Operative Steuerung für Content und Informationsarchitektur
▪ Regelmäßige Sichtung von Hygiene und
Qualitätsfaktoren des Produkts.
▪ Identifikation von Trendthemen und
kurzfristigen Traffic-Quellen.
▪ Stark operativ einsetzbar mit direkter
Ableitung von operativen Maßnahmen für
Content, Informationsarchitektur und IT-
Hygiene.
▪ Ausbau von Quickwins und Eventgetriebenen
Themen, die sich nicht immer redaktionell
planen lassen.
Warum?
Mittelstand Retailer Publisher Index-Riese
Relevanz
Turnus
52. Wöchentliches Monitoring der Akquisition und Fehlerentwicklung
Akquise und Qualität:
• Sitzungen
• Absprungrate
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
SERP-Leistung:
• Klicks und Impressionen
• Absprungrate
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
Top Suchphrasen (brand / nonbrand)
• Impressionen
• Klicks
• CTR
• Position
Delta zur Vorwoche
Top URLs (brand / nonbrand)
• Impressionen
• Klicks
• CTR
• Position
Delta zur Vorwoche
Sichtbarkeit und Rankings:
• Sichtbarkeit nach Sistrix desktop/mobile
• Anzahl Top 100 / Top 10 Rankings nach
Sistrix
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• 404, 500, soft404
• Anzahl indexierte Seite
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• Doppelte Titles und Descriptions
• Anzahl href-Tags und hreflang-Fehler
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
IT-Fehler:
• Anzahl schema.org-Elemente
• Anzahl schema.org-Fehler
• Anzahl Fehler auf mobilen Seiten
Im zeitlichen Verlauf – zur Vorwoche – zur
gleichen Woche im letzten Jahr
Akquisition Sichtbarkeit und IT-Fehler
53. Me: Wait – his outline said he would give
us tools and processes to reduce efforts…
Inner me: DISRUPT him NOW!
55. Es bleibt nur Backup: Crawlen, suchen, vergleichen…
+
Sistrix Optimizer (Ende Oktober)
https://www.sistrix.de/changelog/webseitenaenderungen-im-optimizer-nachvollziehen/
Filter bei Ryte speichern
• Änderungen an Meta Index
• Veränderung der Anzahl externer
Links
• Andere Meta Descriptions
• Veränderter Canonical-Tag
• Änderungen im Quelltext
• H1-Überschrift hat sich geändert
• Veränderungen der Anzahl interner
Links
• Anderer Status-Code
• Veränderter Title-Tag
• Neu gefundene URLs
• Nicht mehr gefundene URLs
• Deutlich andere Dateigröße
• Ladezeiten haben sich deutlich
geändert
• Verändertes Charset
• Anderer Content Type
• Veränderte Klickanzahl
56. • „Verwalten“
• Bekannte Fehler stören bei der Sichtung neuer
Probleme & verhindern das aktive Steuern
• Maßnahmen „sehen“ und auch bewerten können
• Erfolg
• Misserfolg / Korrektur
Normaler Arbeitsablauf: Initialanalyse und Pflege
Initialanalyse Betreuung und Pflege
AbschlussInitialisierung
• Vollständige Erstaufnahme
• Evaluation aller Themenfelder und Bereich auf
Risiken und Chancen
• Erschließung der Seitenstruktur
• Fehler kategorisieren und kontextualisieren
• Anforderungen an die IT
• Anforderungen an die Redaktion
• Schätzungen, Workflows entwickeln, SEO-
Roadmap aufbauen
Vollständigkeit Änderungen
57. Differenzen verschiedener Crawls schnell finden!
Abgleich regelmäßiger Crawls der selben Domain
mit dem jeweiligen Crawl davor nach:
▪ URLs, die im neuen Crawl nicht mehr vorhanden
sind.
▪ URLs, die im neuen Crawl erstmalig vorhanden
sind.
▪ URLs deren Canonical-Anweisung sich geändert
hat
▪ URLs deren Titel / Descriptions sich geändert
haben
▪ URLs deren Indexierungsanweisungen sich
geändert haben
▪ URLs deren Statuscode sich geändert haben
▪ Etc.
Im Fall von Regelverletzungen:
▪ Direkt Ticket an IT zur Fehlerbehebung
▪ Entweder an Betrieb oder an Alerting-
Ansprechpartner in der IT
Delta-Abgleich
58. …ich weiß, was du letzte Woche getan hast…
▪ Neue URLs
▪ Entfallene URLs
▪ Änderungen:
▪ Status-Code
▪ Canonical-Link
▪ Meta-Robots
▪ H1
▪ Title
▪ Description
▪ Content-Type
▪ Klicktiefe
▪ Dateigröße
▪ Antwortzeit
Relevante MerkmaleMittwoch KW 28 Mittwoch KW 29
Entfallene URLs neue URLs
Gemeinsame URLs
59. Crawlabgleich: Screaming Frog & R: Workflow und Link
Details und Download unter:
https://www.gettraction.de/seokomm2017
60. Zusammenfassung und Überblick der Relevanz
Mittelstand Retailer Publisher Index-Riese
IT Redirect(ketten) abbauen
IT Fehlerseiten identifizieren und ggf. abbauen
IT Doppelte Titles und Descriptions
IA Anpassungen Title und Descriptions
IA Anpassungen Überschriften (h1)
IA Prüfung auf neue Suchmuster
CO Content Refresh
CO Content Anpassen
CO Inhalte strukturiert depublizieren
AL Alerting-Prozess
MO Monitoring-Prozess
61. Sie wollen die Präsentation?
▪ Schreiben Sie jetzt eine Mail an
unseren Mitarbeiter, Michael
Ludermann:
▪ ml@gettraction.de
▪ Betreff: SEOkomm Präsentation
▪ Und sie bekommen umgehend die
Präsentation zugesendet!
Kein Problem:
62. …Fragen? Dann kontaktieren sie uns!
Kontakt:
www.gettraction.de
FB: https://www.facebook.com/gettraction.de/
Twitter: https://twitter.com/gettraction_om
Mail Stefan Keil: sk@gettraction.de