Die Präsentation Technisches SEO 2019 enthält eine Übersicht wichtiger Themen wie Client-Server Kommunikation, Rendering, Crawling / Indexierung Steuerung, Crawling Budget, Page Speed Optimierung und das alles mit aktuellen Beispielen und Quellen.
4. DIE TRENDS VON HEUTE
Artificial
Intelligence
Chatbots
NFC
Technologien
AR Apps
VR
Show-Rooms
Wearables
Influencer
Instagram
CSR
Smart Stores
Snapchat
Smart
Home
Hosting
High-Tech
JavaScript
Frameworks
Neue
Seitenarten
Minimalistisch
Multitouch
Displays
Internet
Verbindung
Cloud
Computing Hohe Video-
Bild Qualität
Trends
2019
Internet
TV
Geolocation
Nachhaltig
NEUE
ENDGERÄTE
CLIENTS
JAVASCRIPT
SERVER /
HOSTING
SUCHMASCHINE
Sprachgesteuerte
Endgeräte
6. Q1 2017, Quelle: https://www.akamai.com/us/en/multimedia/documents/state-of-the-internet/q1-2017-state-of-
the-internet-connectivity-report.pdf
DIE
SCHNELLSTE
INTERNET-
VERBINDUNG
GIBT ES IN
SÜDKOREA MIT
Ø 28.6 MBPS
7. IN
DEUTSCHLAND
Ø 15.3 MBPS …
Q1 2017, Quelle: https://www.akamai.com/us/en/multimedia/documents/state-of-the-internet/q1-2017-state-of-
the-internet-connectivity-report.pdf
8. IN
DEUTSCHLAND
MOBILE
Ø 24.1 MBPS
Q1 2017, Quelle: https://www.akamai.com/us/en/multimedia/documents/state-of-the-internet/q1-2017-state-of-
the-internet-connectivity-report.pdf
21. » CDN – Content Delivery Network
» Statische Daten der Webserver werden auf die
Replica Server übertragen (Verteilungssystem)
» Nutzer ruft die Website auf, befindet sich dabei
in Venezuela. Über Request Routing System
wird der RS in Venezuela zu Hilfe gerufen. Er
spielt die aktuellste Version der Website die er
hat aus.
CDN
Ihr Webserver Replica Server (RS)
(RS)
(RS)
(RS)
(RS)
(RS)
(RS)
(RS)
SERVER CLIENT
SUCH-
MASCHINE
22. » Die CDN Anbieter unterscheiden sich nach Server-
Anzahl und Länderabdeckung
» Besonders geeignet sind Videostreams
» Nicht CDN geeignet sind personalisierte,
öffentliche und häufig wechselnde Informationen
» Logfile Analyse ist erschwert
» China ist ein Sonderfall:
https://www.cdnplanet.com/geo/china-cdn/
https://www.kernpunkt.de/blog/digitales-
marketing/webseiten-performance-in-china.html
CDN BESONDERHEITEN
Ihr Webserver Replica Server (RS)
(RS)
(RS)
(RS)
(RS)
(RS)
(RS)
(RS)
SERVER CLIENT
SUCH-
MASCHINE
23. WER NUTZT CDN
Ihr Webserver Replica Server (RS)
(RS)
(RS)
(RS)
(RS)
(RS)
(RS)
(RS)
SERVER CLIENT
SUCH-
MASCHINE
24. CDN ANBIETER WELTWEIT
Akamai
Amazon Web Services (CloudFront)
CDNetworks
Cloudflare
Google (Cloud CDN)
Host Europe (PlusServer)
Microsoft (Azure)
SERVER CLIENT
SUCH-
MASCHINE
25. DER CLIENT IST EIN
PROGRAMM, DASS AUF
DEM ENDGERÄT
AUSGEFÜHRT WIRD UND
MIT DEM SERVER
KOMMUNIZIERT.
33. WEITERE NÜTZLICHE INFORMATIONEN
Request Response
SERVER CLIENT
SUCH-
MASCHINE
Request-Zeilen
Methode
Request URI
HTTP-Version
Response-Zeilen
HTTP-Version
Status Code
Beschreibung
34. WEITERE NÜTZLICHE INFORMATIONEN
Request Response
SERVER CLIENT
SUCH-
MASCHINE
Request-Zeilen
Methode
Request URI
HTTP-Version
Response-Zeilen
HTTP-Version
Status Code
Beschreibung
39. Quelle: https://de.wikipedia.org/wiki/Single-Page-Webanwendung
» Das AMP Projekt ist ein gemeinsames Projekt von Google und Twitter
» Primär entwickelt für Verlage
» Veröffentlicht von Google im Oktober 2015
» Apache Lizenz – Open Source Code bei GitHub
AMP
SERVER CLIENT
SUCH-
MASCHINE
40. » Langsame HTML Tags werden durch neue
HTML Tags ersetzt
» Websites werden gecached und bei Google
gehostet (gstatic.com)
» Das Canonical Tag, das auf die ursprüngliche
Webseite verweist, ist daher sehr wichtig
AMP BESONDERHEITEN
SERVER CLIENT
SUCH-
MASCHINE
Nackter HTML-Code
45. » Schlecht für eigene Ads, da die AMP Seiten auf
dem Google Server gecached und gehostet
werden
» Weniger Kontrolle über Style und Inhalte
» Limitierte Anzahl an HTML Tags
» Zweite Version einer Website:
» Google Analytics – aufwändige Einstellung
» Aufwand doppelte Programmierung
» AMP sind vor allem für News, Verlage und
Content Websites vorteilhaft
» Wesentlich schnellere Ladezeiten durch
redundanten Code, Lazy Loading und
Rendering
AMP PROS UND KONTRAS
Vorteile Nachteile
SERVER CLIENT
SUCH-
MASCHINE
23% mehr mobile
88% bessere Ladezeiten
1000+ AMP Artikel-Seiten täglich
47. Quelle: https://de.wikipedia.org/wiki/Single-Page-Webanwendung
» Single Page Application ist eine Webanwendung, die aus einem HTML-Dokument besteht, deren
Inhalte dynamisch nachgeladen werden.
SPA
SERVER CLIENT
SUCH-
MASCHINE
CSS, HTML, JS Dateien werden
neu geladen
Template
Template
X
Template
Y
Nur beim ersten Laden der Seite
werden alle Ressourcen geladen
SPA
48. Template
» Es werden clientseitige JavaScript
Frameworks eingesetzt (AngularJS, Ember.js,
ExtJS, Knockout.js, Meteor.js, ReactJS, Vue.js)
» React verbreitet sich dank Facebook. Es bietet
eine Syntax-Lösung (JSX) an, die
suchmaschinen-freundlichen Inhalt bereitstellt.
SPA BESONDERHEITEN
Template
X
Template
Y
Nur beim ersten Laden der Seite
werden alle Ressourcen geladen
SERVER CLIENT
SUCH-
MASCHINE
SPA
50. » JavaScript muss vorhanden und aktiviert sein
» Unvollständiges Rendering ist möglich
» SPA-Seiten können längere Ladezeiten
verursachen, umso grösser die Websites sind
(Serverside Rendering sollte ermöglicht
werden)
» Mehrere Ressourcen müssen nur einmal
geladen werden: (HTML, CSS, Scripts)
» Sie können mit Chrome debugged werden
» Sie können lokales Cache effektiv nutzen
SPA PROS UND KONTRAS
Vorteile Nachteile
SERVER CLIENT
SUCH-
MASCHINE
52. Quelle: https://www.onenorth.com/blog/post/whats-next-in-mobile-progressive-web-apps
» Eine Progressive Web Application ist eine
Website, die sich wie eine App verhält.
» Vier technologische Voraussetzungen:
(1) manifest.json File
(2) Service Workers
(3) HTTPs
(4) Application Shell Architecture
» Ein Nutzer muss mindestens 30 Sekunden mit
der Domain interagieren
» Weitere Infos:
https://developers.google.com/web/fundamenta
ls/web-app-manifest/
PWA
SERVER CLIENT
SUCH-
MASCHINE
55. Google Developer Tools
Weitere Quellen: https://www.aleydasolis.com/en/search-engine-optimization/pwas-seo-what-are-they-why-you-need-one-and-how-to-optimize-for-them/
PWA Testen mit Google Lighthouse
PWA TESTEN
SERVER CLIENT
SUCH-
MASCHINE
70. An die Angaben in der robots.txt Datei halten sich Google, Bind und Baidu.
» Die robots.txt Datei wird von der Suchmaschine
öfter „besucht“
» Die Steuerung erlaubt oder verbietet bestimmte
Seiten zu crawlen
» Die robots.txt verhindert nicht die Indexierung
» Hauptaufgabe: Crawling Steuerung
» Testen: GSC-> Crawling-> robots.txt Tester
ROBOTS.TXT
71. Die XML-Sitemaps können über die entsprechenden Webmaster Tools bei Google, Bind und Baidu verifiziert werden.
» Die XML-Sitemap Datei ermöglicht es, eine
indexrelevante Liste mit URLs direkt an die
Suchmaschine zu kommunizieren
» Hier können hreflang Tags direkt vergeben werden
» Größere Websites sollten mehrere, nach Themen
erstellte XML-Sitemaps in einer Index XML-
Sitemap bereitstellen
» XML-Sitemaps können für Medien (Bilder, Videos)
erstellt werden
» Hauptaufgabe: Indexierung Steuerung
» Testen: GSC-> Crawling-> Sitemap testen
XML-SITEMAP
72. » Ein sehr wirksames Tool, das bei einer falschen
Einstellung die gültige Steuerung (Canonical Tag,
Meta Tag Robots) verhindern kann
» Einzelne Parameter können hinzugefügt werden
» Nicht konfigurierte Einstellungen haben kein Datum
» Hauptaufgabe: Crawling und Indexierung
Steuerung
» Testen: Logfile Analyse, Google Index
URL-PARAMETER TOOL IN DER GOOGLE
SEARCH CONSOLE
73. » Im Bing Webmaster Tools können einzelne
Parameter oder eine Liste mit Parametern
eingereicht werden
» Im Bing Webmaster Tools werden ausschließlich die
Parameter eingegeben, die ignoriert werden sollen
» Die Baidu Suchmaschine hat kein URL Parameter
Tool
» Hauptaufgabe: Crawling und Indexierung
Steuerung
» Testen: Logfile Analyse, Bing Index
ANDERE URL-PARAMETER TOOLS
74. * Ist von den anderen Signalen stark abhängig
POPULÄRSTE MAßNAHMEN UND DEREN
EINSATZ
Maßnahme Crawlen Indexieren
Crawlen nicht
Indexieren
Meta Tags Robots V V V
Sitemap.xml V V V
rel=prev rel=next V V V
GSC Parameter Tool V V V
hreflang tag V V X
Canonical Tag V * *
robots.txt V X X
75. » Je länger die Seiten mit noindex,follow
versehen werden, desto weniger werden sie
gecrawlt.
» Irgendwann hört die Suchmaschine auf, sie
und die ausgehenden URLs der Seite zu
crawlen.
» Die ausgehenden Links dieser Seiten werden
zu noindex,nofollow.
NOINDEX WIRD ZU NOFOLLOW?
Website
noindex, follow
Crawler
Website
index, follow
Website
index, follow
76. Quelle: eigene Testergebnisse anhand der LogFile Analyse
» Je länger die Seiten mit noindex,follow
versehen werden, desto weniger werden sie
gecrawlt.
» Irgendwann hört die Suchmaschine auf, sie
und die ausgehenden URLs der Seite zu
crawlen.
» Die ausgehenden Links dieser Seiten werden
zu noindex,nofollow.
NOINDEX WIRD ZU NOFOLLOW?
Website
noindex, nofollow
Crawler
Website
index, follow
Website
index, follow
78. URL-Änderung
»Technische Änderungen (.html, Trailing Slash)
»Alte Produkt URLs werden gelöscht
»Kategorien werden verschoben
»Unterkategorien werden umbenannt, usw.
WEITERLEITUNGEN
SERVER /
HOSTING
CLIENTS
JAVASCRIPT
Clientseitige
Weiterleitung wie
JavaScript und Meta
Refresh sind nicht
suchmaschinen-
freundlich
Serverseitige
301 - permanent
302 - temporär
307 - bitte über https
87. Quelle: https://builtvisible.com/progressive-web-app-seo/
» Verwendung von serverseitigem Rendering
» Inhalte mit verfügbaren URLs, keine #
» JavaScript und CSS-Dateien dürfen nicht
blockiert werden
» Inhalte, die nach einem ausgeführten Event
erreichbar sind, sind schwer zu indexieren
(History API)
Mehr dazu: https://builtvisible.com/on-infinite-
scroll-pushstate/
DIE INHALTE MÜSSEN LESBAR SEIN
92. ANALYSE MIT FRAGEN STARTEN
Mögliche Fragen Mögliche Fragen
Gibt es veraltete Seiten (http, Dateiendungen
usw.)?
Gibt es verwaiste Seiten?
Haben sich die Status Codes auf den Seiten
geändert?
Was crawlen die Suchmaschinen?
Werden wichtige Seiten weniger gecrawlt als
Unwichtige?
Gibt es Seiten, die nicht in der Sitemap sind?
Werden alle Sprachversionen entdeckt?
Mögliche Fragen
• America: United States, 10.7 Mbps
• Asia Pacific: Australia, 15.7 Mbps
• Europe: United Kingdom, 26.0 Mbps
• Middle East/Africa: Kenya, 13.7 Mbps
https://www.exone.de/ratgeber/der-server-einfach-erklaert/
Webserver
Ein Webserver speichert Webseiten, bereitet diese auf, und liefert sie an Clients wie Webbrowser oder Suchmaschinen-Crawler aus.
Proxyserver
Dieser Server dient als Kommunikationsschnittstelle in Rechnernetzen. Er nimmt Anfragen aus dem Netzwerk entgegen und leitet diese über seine eigene IP-Adresse weiter.
DNS Server
DNS-Server dienen der Namensauflösung in einem Netzwerk. Sie übersetzen Hostnamen – wie zum Beispiel www.example.de – in eine entsprechende IP-Adresse.
File-Server
Dieser Server dient der zentralen Speicherung von Dateien. So können die verschiedenen Clients über ein Netzwerk auf diese Dateien zugreifen. Besonders Unternehmen nutzen diese Art von Server gerne. So können mehrere Arbeitsgruppen auf dieselben Dateien zugreifen.
Mailserver
Ein Mailserver besteht aus mehreren Software-Modulen, die so zusammenspielen, dass E-Mails empfangen und gesendet werden können. So werden sie auch für den Abruf bereitgehalten.
Datenbank-Server
Der Datenbank-Server ermöglicht anderen Programmen den Zugriff auf ein oder mehrere Datenbanksysteme.
Gameserver
Ein Gameserver wird speziell für onlinebasierte Multiplayerspiele eingerichtet. Er verwaltet die Daten von Online-Spielen und ermöglicht eine synchrone Interaktion mit der virtuellen Welt.
Der Webserver „hostet“ eine oder mehrere websites
Wenn Ihre Website in China ranken soll, sollte sie auch in China gehostet werden.
HTTP 1.1
6-8 parallele Verbindungen pro TCP Verbindung
1 Request zum Server
„Head of line Blocking“
HTTP/2
Mutiplexing pro 1 TCP Verbindung
HTTPS Tunnel
HPACK Algo komprimierte HTTP Header bis 90%
Website sollte sowohl über HTTP 1.1 als auch über HTTP2 erreichbar sein
manifest.json File steht am Ende des HTML <head>
Service Workers – JavaScript File, hilft der PWA offline zu funktionieren (Netzwerk Anfrage bearbeiten, Caching, Push Notifications)
HTTPs - Transport layer security ist auf dem gehosten Server erforderlich
Application Shell Architektur – min. HTML, CSS und JavaScript das für die Funktion von PWA’s UI notwendig ist
Schedular - Sicherung der Daten
HTTP Response Header von Crawler
Gecrawlte Seiten
Information Retrieval System ist ein Prozess in dem die gewonnenen Informationen analysiert und verwaltet werden.
Dieser artikel hat 2013 einen großen hype ausgelöst
Google ist weltweit vertretten
Bei DENIC werden in DE werden im durchschnitt 5000 Domains am Tag angemeldet
Ist die Seite permanent oder temporär gelöscht?
Gibt es ein passendes Weiterleitungsziel?
Gibt es alte Weiterleitungen?
Werden Weiterleitungsketten erzeugt?
Führen meine Canonical Tags oder hreflang Tags zu Weiterleitungsketten?