SlideShare a Scribd company logo
1 of 26
SEO-Lexikon
(AUSZUG)
Anchor Text
Zu Deutsch: Anker- Text meint dieser Begriff die
sichtbaren Elemente eines Links. Der Bereich, der für
den User lesbar auf der Webseite erscheint und den
der User anklicken kann, um die Seite, die zu dem
Link hinführt zu besuchen.
Im Bereich des HTML stellen die Anker- Texte
wichtige Module dar.
Hyperlinks, also Verknüpfungen, die unter dem
Hypertext programmiert werden, werden unter zur
Hilfenahme des Anchors erstellt.
Backlink
Der Begriff Backlink bezeichnet Rückverweise auf eine Website, die
von anderen Internetseiten ausgehen. Ein solcher Backlink beruht
entweder auf einer direkten Verlinkung oder einem Linktausch. Für
Suchmaschinen drücken Qualität und Quantität der Backlinks die
Bedeutung einer Seite aus. Verweisen also viele hochwertige Websites
auf die eigene Internetseite, so steht diese im Ranking der
Suchmaschinen weit vor jenen Seiten, die kaum verlinkt oder nur mit
unbedeutenden Sites verknüpft sind. Diese Link-Popularity genannte
Eigenschaft einer Seite wirkt sich entscheidend auf das Ranking in den
Suchmaschinen aus, wobei die Bedeutung des sogenannten Pagerank
2004 reduziert wurde. link Suchmaschinenoptimierung besteht zum
Grossteil daraus, geeignete Backlinks aufzubauen. Dennoch ist die
Link-Popularity nach wie vor ein wichtiges Kriterium der
Suchmaschinen. Die Bedeutung einer Seite wird beim Verlinken
vererbt. Verweist etwa Wikipedia oder Microsoft auf die eigene
Website, so steigt diese im Ranking der Suchmaschinen enorm.
Cloacking
Cloaking ist ein Verfahren, bei dem der Webmaster seine Webseite
gegenüber den Robots der Suchmaschinen anders präsentiert als
gegenüber dem Besucher. Es werden falsche Inhalte vorgegeben, um
in den Ergebnisseiten der Suchmaschinen ein besseres Ranking zu
erreichen und damit mehr Besucher auf die Seite zu locken.
Eine Cloaking-Seite ist meist eine reine Textseite. Diese wird dann von
den Robots indexiert und erhält einen PageRank.
Cloaking wird von den Suchmaschinen als Verstoß gegen die
Richtlinien gewertet und wie Spam geahndet. Heute wird es von den
Suchmaschinen häufig erkannt. Es kann zu schlechtem PageRank
oder ganz zum Entfernen aus dem Index der Suchmaschinen führen.
Eine sehr viel aufwändigere und schwierigere Variante ist das so
genannte IP-Cloaking. Dabei werden dem Browser andere Inhalte der
IP Adresse angezeigt. Diese Variante wird sehr selten verwendet, da
alle IPs der Suchmaschine bekannt sein müssen.
Duplicated Content
Als Dublicated Content werden Inhalte bezeichnet, die auf ein
und derselben oder auf verschiedenen URLs doppelt oder sogar
mehrfach auftreten. Hier geht es also um kopierte Texte. Im
Falle einer Entdeckung solcher Dublikate durch
Suchmaschinen, werden diese Seiten oft als negativ oder als
Spam gewertet. Es kommt auch vor, dass beide Seiten aus dem
Index entfernt werden, da Original und Kopie meist nicht zu
unterscheiden sind. Es bleibt also der Suchmaschine
verborgen, wer von wem abgekupfert hat und dies führt dann
für beide zum Ausschluss. Die Folge sind dann regelmäßig
Klagen seitens der Inhaber der Originalseiten. Um vorschnelles
Handeln zu vermeiden, werden die Dublicated-Content-Filter
der Suchmaschinen wie Google erst aktiv, wenn größere
Passagen zweier URLs identisch sind. Für das www sind
Urheberrechte und deren Verletzung nach wie vor ein großes
Problem.
Ergebnisseite / SERP
Gibt ein User ein Stichwort in eine Suchmaschine ein, so erscheint anschließend die SERP, die
Ergebnisseite. Sie listet die Suchergebnisse auf. Bei Google und vielen anderen Suchmaschinen
werden in der Grundeinstellung die ersten zehn Ergebnisse angezeigt. Die weiteren Ergebnisse –
die Anzahl der Suchergebnisse wird oberhalb der Liste genannt – kann der Benutzer über weitere
Ergebnisseiten erreichen. Diese Search engine results page (SERP) stellt gleichzeitig das Objekt der
Begierde dar. Denn, wer hier oben steht, kann auf viele Besucher hoffen. Aus der Sicht der User ist
der oberste Eintrag gleichsam „ die erste Adresse“. Die Surfer, die sich die Mühe machen, auch auf
den folgenden Ergebnisseiten nach relevanten Websites zu suchen, sind deutlich geringer. Das viel
umworbene Ranking der Suchmaschinen entscheidet darüber, wer oben als erster auf der SERP
steht. Dabei können die Ergebnisse von Suchmaschine zu Suchmaschine variieren, da auch die
Maßstäbe für das Ranking unterschiedlich sind. Auch kann sich die SERP bei einer erneuten Suche
mit demselben Stichwort ändern, wenn dieser Themenbereich von neuen Seiten umworben wird.
Wie sich die Bemühungen der Internet-Anbieter auf diese Ergebnisseiten, deren Ranking nach
Qualitätsmaßstäben der jeweiligen Suchmaschinen entstehen, auswirken, lässt sich zum Beispiel
anhand von Druckern feststellen. Gibt man den Namen eines Druckers in die Suche ein, der seit
Jahren nicht mehr gebaut wird, so findet man in der Regel eine Reihe von Websites, die
entsprechende Druckerpatronen anbieten. Aufgrund der aufwändigen Seiten mit zahlreichen
Verlinkungen werden die Websites der Patronenhersteller wichtiger als die Seiten der
Druckerhersteller, die das entsprechende Gerät vielleicht nur noch in einer Archiv-Liste
namentlich erwähnen. Die Herstellerseite mit Informationen zum Gerät selber befindet sich dann
vielleicht auf einer der nachfolgenden Seiten der ersten SERP.
Froogle
Froogle© ist eine spezielle Suchmaschine und gleichzeitig
Webkatalog. Konzipiert und Entwickelt wurde Froogle© von Google,
der erfolgreichsten und meistgenutzten Suchmaschine im Web. Seit
Ende 2004 gibt es Froogle© auch in Deutschland.
Die Suchmaschine dient der Suche nach Produkten im Internet. Die
Suchergebnisse sind Treffer von automatisch durchsuchten Webseiten
aber auch direkt von Händlern eingetragene Seiten. Froogle© ist ein
kostenloser Dienst. Man kann damit Produkte verschiedener
Hersteller und Anbieter miteinander vergleichen. Auch der
Preisvergleich ist möglich.
Man kann direkt nach einem Produkt suchen, oder aber sich durch ein
Shop-ähnliches System mit verschiedenen Rubriken durchklicken.
Ähnliche Dienste bieten beispielsweise Kelkoo oder ShopBoy.
Die Suchmaschine Froogle© ist ausschließlich finanziert durch
Werbung.
Google Guy
Google Guy ist die Bezeichnung eines Mitarbeiters des
englischsprachigen Google. Er steht zu Google betreffenden
Themen im Diskussionsforum www.webmasterworld.com
regelmäßig Rede und Antwort. Außerdem führt er einen
interessanten Web-Blog. Vermutet wird, dass hinter dem
Synonym Google Guy der Google Mitarbeiter Matt Cutts steckt.
Google stellt damit einen persönlichen Kontakt zu seinen Usern
her. Es ist eine Form von Öffentlichkeitsarbeit, die in dieser
Form neu ist.
In erster Linie geht es bei den Posts des Google Guy
darum, Usern bei Problemen zu helfen, die Google betreffen.
Hauptsächliches Thema ist die Hilfe bei der Aufnahme ins
Google Ranking.
Der mutmaßliche Google Guy Matt Cutts hat eine eigene
Homepage (www.mattcutts.com) und mindestens eine Fanpage.
Headline Tags
Headline Tags dienen der für Suchmaschinen relevanten Einordnung von
Überschriften auf einer Internetseite. Üblicherweise wird eine Seite durch Titel oder
Kapitelüberschriften, deren Bedeutung mittels der verwendeten Schriftgröße
symbolisiert wird, aufgelockert und fördern die Orientierung auf der Seite. Wie bei
einer Zeitung kann sich der Leser auf die ihm wichtigen Artikel konzentrieren, wenn er
vorher die Headlines studiert und ausgewählt hat. Einige Jahre waren Keywörter in
den Headline Tags ein Garant für günstiges Ranking der Suchmaschinen. Dieser
Umstand wurde zum Teil missbraucht, indem unseriöse Anbieter Überschriften mit
möglichst vielen Keywörtern spickten, ohne auf deren Relevanz für den
anschließenden Text zu achten. Daher konzentrieren sich die meisten Suchmaschinen
wieder mehr auf die Textinhalte. Diese Reaktion zeigt wiedermal, dass der Versuch,
Suchmaschinen auszutricksen, in der Regel zu veränderten Algorithmen führen, mit
denen das Ranking vollzogen wird. Das bedeutet letztlich einerseits, dass jeder Versuch
der Irreführung und Täuschung von Suchmaschinen zu einer qualitativen
Verbesserung führt, wenn es darum geht, eine Suchanfrage mit den wirklich für den
Suchenden relevanten Internetseiten zu beantworten. Andererseits bedeuten diese
Betrugsversuche immer auch ein Ärgernis für die Kunden und die „ehrlichen“ Anbieter
im Internet. Eine gute Suchmaschine – wie etwa Google – verwendet sehr viel
Entwicklungsarbeit auf die Vermeidung von erfolgreichen Irreführungen seitens
unseriöser Anbieter. Teilweise ist diese Entwicklungsarbeit ein Verlustgeschäft für alle
Internetuser – ggf. sogar nachhaltig.
Indizieren
Der Datenbestand einer Suchmaschine nennt sich Index. Indexieren
beschreibt den Vorgang, in dem eine Webseite in eine Suchmaschine
oder in ein ähnlich arbeitendes Verzeichnis aufgenommen wird.
Dieser Vorgang kann allerdings mehrere Wochen oder gar Monate in
Anspruch nehmen. Um diese Phase zu verkürzen wird häufig die
Technik des Instant Indexing angewandt, mit deren Hilfe Webseiten
innerhalb weniger Tage oder auch nur Stunden in den Index einer
Suchmaschine aufgenommen werden.
Die schnelle Verfügbarkeit einer Webseite durch die Suchmaschinen
ist für kommerzielle Webseiten von großer Bedeutung.
Suchmaschinenoptimierer sind darüber informiert, wann neue
Indexierungskampagnen stattfinden und richten ihre Arbeit für ihre
Kunden an diesen wichtigen Zeiten aus.
Javascript- Weiterleitung
Die Javascript- Weiterleitung dient als Mittel zur Optimierung der Webseite
für die Suchmaschinen, indem sie beim Öffnen einer Seite den User direkt auf
andere Seiten weiterleitet. Diese Weiterleitung erfolgt automatisch durch den
Surfer.
Je nachdem, welche Absicht damit verfolgt wird, existieren verschiedene
Formen der Weiterleitung.
Für die Spider der Suchmaschinen sind diese Weiterleitungen nicht sichtbar,
da diese sie aufgrund der Verschlüsselung oder Versperrung nicht erkennen
können. Damit ist für den Robot keine Auswertung dieses Vorgangs möglich.
Denn auch diese Technik basiert auf dem Verfahren, der Identifizierung des
Besuchers, ob es sich um einen Robot oder um einen Server handelt.
Allerdings werden Javascript- Weiterleitungen von den Suchmaschinen
geahndet, da sie einen Verstoß gegen die Richtlinien darstellen. Werden sie
bemerkt, führen sie zum Ausschluss aus dem Suchmaschinenindex.
Dieses Verfahren sollte nur mit äußerster Sorgfalt angewendet werden, da
auch legale Weiterleitungen zu einem ungewolltem Ausschluss führen
können.
Keyphrase
Keyphrase wird ins Deutsche mit: Wortkette oder
Schlüsselformulierung übersetzt. Gemeint ist damit die
Kombination von zwei bis vier Suchworten, die vom User
als Eingabe in die Suchmaschine getätigt werden.
Um von den Suchmaschinen ein gutes Ranking zu
erhalten, ist es notwendig, diese Zusammenstellungen von
Begriffen im Text der Webseite enthalten zu haben.
Die effektive Formulierung solcher Keyphrasen erstellt
man mit Hilfe von Datenbanken. Diese Dienste sind mit
Kosten verbunden, da Redakteure sichten und auswerten.
Es gibt aber auch Datenbanken im Internet, die kostenfrei
die interaktive Recherche zur Ermittlung relevanter
Suchbegriffe anbieten.
Linkpopularität
Suchmaschinen deuten die Wichtigkeit und den Informationsgehalt einer Internetseite nach deren
Verlinkungen sowie den Keywörtern, die der für den Link verwendete TAG beinhaltet. Bestehen
viele und wichtige Verknüpfungen zwischen einer Website und anderen – möglichst hochwertigen
– Seiten, so „messen“ die Suchmaschinen mittels kleiner Analyse-Programme (bots) eine hohe
Link Popularity. Das Prinzip stellt sich in etwa so dar: Gäbe es in einem Ort (Internet) zwei
Heimwerkermärkte (verschiedene Websites) und würde ein neuer Kunde einen Berater
(Suchmaschine) konsultieren, um zu erfahren, in welchem er besser einkaufen könnte, so würde
der Berater den Markt vorschlagen, bei dem die meisten und wichtigsten Kunden einkaufen. Unter
„wichtig“ ließen sich dann solche Kriterien wie Handwerker, VIPs usw. einordnen. Würde der
potentielle Kunde die Suchanfrage konkretisieren und danach fragen, wo er am besten zwei Bretter
für das neue Kellerregal passend zugeschnitten bekäme, würde die Suchmaschine vielleicht den
anderen Markt vorschlagen, weil dort immer die Kunden hingehen, die Bretter zugeschnitten
haben möchten. Die Linkpopularität ist von entscheidender Bedeutung für das Ranking der
Suchmaschinen, die die Struktur der Verlinkung einer Seite als wichtiges Kriterium für dessen
Relevanz ansehen. Ob dieses Ranking der Suchanfrage eines einzelnen Kunden entspricht, hängt
demnach auch davon ab, ob er ein typischer Kunde ist. Wer gerne beim Werkzeugkauf den
fachkundigen Verkäufer in ein mehrstündiges, tiefschürfendes Gespräch verwickelt, wird vielleicht
in dem von der Suchmaschine vorgeschlagenen Heimwerkermarkt nicht zufrieden sein. Eine
künstlich hergestellte Linkpopularität wird häufig von den Suchmaschinen erkannt und negativ
bewertet.
Metatags
Als ehemals probates Mittel, eine Webseite beim Ranking
der Suchmaschinen hochzupushen, sind Metatags
mittlerweile etwas überholt. Man installiert sie unsichtbar
für den Besucher im Titelbereich einer Seite. Sie werden
von Suchmaschinen erkannt. Optimierte Keywords
erhöhen dann die Chance auf eine bessere Positionierung.
Inzwischen nehmen sich die Suchmaschinen zusehends
mehr den eigentlichen Inhalt und die Verlinkung einer
Seite vor. Empfehlenswert sind Metatags nach wie vor,
wenn auf der Website Bilder, Frames und Grafik
überwiegen, während wenige Texte Suchmaschinen
relevante Keywords enthalten.
Natural Listings
Mit dem Begriff Natural Listings werden die Ergebnislisten
einer Suchmaschine bezeichnet, bei denen es sich nicht um
gekaufte Positionen handelt, wie zum Beispiel bei
Sponsorenlinks.
Das interne Ranking und die Art der Suchanfrage entscheiden
allein über den Inhalt der Ergebnisliste.
Die Aufgabe des Suchmaschinenoptimierens besteht
darin, seine Seite möglichst weit oben in den Ergebnislisten
erscheinen zu lassen. Um diese Position zu erreichen gibt es eine
ganze Reihe von Techniken, wie zum Beispiel die Verlinkung
mit anderen relevanten Seiten oder die Optimierung der
verwendeten Keywords.
Seitdem es Suchmaschinen gibt, findet ein technischer Wettlauf
zwischen den Robots und den Suchmaschinenoptimierern
statt, in dem es auch darum geht, sich gegenseitig zu
übertreffen.
OOP Over Optimization Penalty
Dieser Begriff bedeutet: Eine Strafe für die Überoptimierung
einer Webseite.
Allerdings ist dieser Begriff und seine inhaltliche Interpretation
in den Kreisen von Suchmaschinenoptimierern
stark umstritten und wird intensiv diskutiert.
Google hat mit seinem Florida Update zum Jahreswechsel
2003/ 2004 eine Änderung seiner Algorithmen zur Berechnung
der Rankings beschlossen. Dies hat das Thema der Over
Optimization Penalty in die Diskussion der
Suchmaschinenoptimierer hinein getragen.
Ob jedoch der Begriff Strafe, der ja eher in einem juristischen
Zusammenhang zu sehen ist, das Ganze wirklich auf den Punkt
bringt, wird von Vielen stark bezweifelt.
Pagerank
Eine Suchmaschine hilft dem User dann, wenn sie möglichst allgemein gültig – also für
die meisten Besucher – auf eine Suchanfrage gleich welcher Art die wichtigsten
Angebote und Quellen im Netz auflistet. Der Mitbegründer von Google, Larry
Page, und Sergey Brin entwickelten an der Stanford University ein Verfahren, indem
einer mathematischen Formel die Vorstellung eines Zufallssurfers zugrunde gelegt
wurde. Beim patentierten PageRank wird allen Websites eine Bewertungsstufe
zwischen Null und zehn zugeordnet. Je höher der PageRank, desto wichtiger die Seite.
Die Erfahrungen zeigen, dass die meisten Internetseiten im Bereich zwischen eins und
fünf angesiedelt werden. Websites, die professionell für die Suchmaschine Google
optimiert wurden, erreichen etwa die Stufen fünf bis sieben. In der Top-Liga finden
sich nur wenige Seiten, darunter zum Beispiel Wikipedia und Microsoft. Der Pagerank
der Seite eines eingehenden Links wirkt sich auch auf den eigenen Pagerank aus
(„vererbter Pagerank“). Aufgrund der hohen wirtschaftlichen Bedeutung dieses
Messwertes für die Positionierung einer Website auf der Ergebnisliste von Google kam
und kommt es immer wieder zu Manipulationsversuchen. Entsprechend entwickelt
Google – wie auch andere Suchmaschinen – die Bewertungskriterien immer weiter. Als
negativ bzw. unseriös eingestufte Links können auch zur Abwertung oder zum
Ausschluss vom Google-Index führen. Grundsätzlich ist festzustellen, dass der
Pagerank ein durchaus geeignetes Mittel zur Erfassung der Qualität der Linkstruktur
einer Website ist, jedoch nichts über die Qualität der Website aussagt.
Querverlinkung
Der Begriff Querverlinkung ist die deutsche Version des englischen
Cross Linking. Ein weiterer deutscher Name ist die Bezeichnung
Kreuzverlinkung. Hier ist die gegenseitige Verlinkung vieler oder aller
Seiten zwischen verschiedenen Websites gemeint.
Im Bereich der Suchmaschinenoptimierung stellt die Querverlinkung
einen taktischen Zug dar, um ein höheres Ranking in den
Ergebnislisten der Suchmaschinen zu erhalten. Denn mit der
Steigerung der Linkpopularität einer Seite, klettert diese gleichzeitig
höher im Pagerank der Suchmaschinen.
Durch eine Kreuzverlinkung hofft der Betreiber einer Webseite auch
auf eine "Vererbung" des Pageranks von der Seite, mit der er einen
Link gekreuzt hat, auf seine Seite.
Doch wie bei fast allen künstlichen Optimierungsmaßnahmen sollte
man auch hier mit Fingerspitzengefühl arbeiten, da eine
Querverlinkung auch als Manipulationsversuch von den
Suchmaschinen geahndet werden kann.
Ranking Optimierung
Ranking Optimierung ist ein Metabegriff für alle Maßnahmen, die
dazu dienen, das Ranking einer Seite in den Ergebnislisten der
Suchmaschinen zu verbessern und diesen Status zu behalten.
Das Ziel einer hohen Platzierung in den Ranks kann durch
verschiedene Methoden erreicht werden.
Für den On Page Faktor ist es sehr wichtig, die Seite inhaltlich
suchmaschinenfreundlich zu gestalten. Experten in der
Suchmaschinenoptimierung sorgen dafür, dass die Seite so aufgebaut
ist, dass die Spider der Suchmaschinen die Keywords und Tags lesen
und damit positiv bewerten können.
Bei der Off Page Optimierung einer Seite steht die Verlinkung im
Mittelpunkt des Interesses.
Gute Links stellen eine wertvolle Empfehlung für die Seite dar und
erhöhen damit ihren Wert für die Robots.
Spider
Spider heißt ins Deutsche übersetzt eigentlich Spinne. Die Spider sind von
Suchmaschinen eingesetzte Programme. Sie durchsuchen automatisch alle
Webseiten, die bei der jeweiligen Suchmaschine angemeldet sind. Beim ersten
Besuch werden die Inhalte der Webseite gelesen und in den Datenbestand
aufgenommen. In der Folge wird der Spider die Seite, je nach PageRank und
Bedeutung der Seite, in regelmäßigen Abständen erneut besuchen und die
Daten auf Änderungen und Aktualisierungen durchsuchen. Findet das
Programm regelmäßig aktualisierte Inhalte wird sich das positiv auf das neue
Ranking der Seite auswirken.
Um seine Webseite für Suchmaschinen zu optimieren sollte man sie also
möglichst spiderfreundlich gestalten. Auch regelmäßige Aktualisierungen
können das Ranking positiv beeinflussen.
Den Besuch der Spider-Programme kann der Betreiber einer Webseite über
die Logfiles einsehen und analysieren. Stellt man dabei fest, dass die
Abstände zwischen den Besuchen der Spider größer werden sollte man
Maßnahmen ergreifen, um seinen PageRank wieder zu verbessern und damit
seine Webseite besser in den Ergebnissen zu positionieren.
Themenrelevanz
Für die Suchmaschinenoptimierung ist es von Bedeutung, dass die Webseite eine hohe
Themenrelevanz zu den gesuchten Keyworten aufweist. Denn wenn dieses Kriterium
erfüllt ist, wird es mit einem guten Ranking von den Suchmaschinen belohnt.
Themenrelevanz erreicht man dadurch, dass zwischen dem Keywort und der
Webseitenadresse eine inhaltliche und/ oder formale Ähnlichkeit besteht. Auch die
Headline des Dokumentes und die Keyworddichte fließt in die Bewertung der
Themenrelevanz mit ein. Die Keyworte sollten im Titel, in den Rubrikenüberschriften
und im gesamten Inhalt der Webseite vorkommen. Dabei sollte man allerdings nicht
übertreiben und die Keyworte ohne Sinn an einanderreihen, denn dies entspricht
weder den Regeln der Suchmaschinen, noch ist es möglich auf diese Art einen gut
lesbaren und damit userfreundlichen Text zu erstellen.
Der Suchmaschinenoptimierer ist bestrebt, viele themenrelevante Links auf die
Webseite zu legen, denn dieses Vorgehen bereitet ein Ansteigen der Popularität und
damit eine bessere Positionierung in den Ergebnislisten der Suchmaschinen.
Ein themenrelevanter Link greift die Keywords und damit den Inhalt der Webseite auf
und verspricht vertiefende Informationen zu diesem Gebiet.
Überschriften Tags
Wie bei einer Tageszeitung dienen auch auf einer Internetseite
Überschriften der Orientierung des Lesers bzw. Besuchers. Ihnen
kommt demnach eine im wahrsten Sinne des Wortes herausragende
Bedeutung zu, wenn es darum geht, das Interesse des potentiellen
Kunden zu gewinnen. Diese Bedeutung machen sich auch
Suchmaschinen zu Nutze, wenn sie Überschriften Tags als eines von
mehreren Entscheidungskriterien bei der Bewertung einer Seite
analysieren. Dies übernehmen die sogenannten bots. Überschriften
Tags – auch Headline Tags oder kurz h-Tags – sind im HTML-Format
verfasst, verwenden sechs verschiedene Schriftgrößen – von H1 bis H6
je nach Bedeutung der Headline – und sind bei einigen
Suchmaschinen höher angesehen, als der Text selbst. Die volle
Ausnutzung der 6 Schriftgrößen sollte meistens vermieden werden, da
zum einen die Headlines dann eine Übergewichtung im Verhältnis zu
den eigentlichen Inhalten erfahren, und zum anderen die Gefahr
besteht, dass durch unkorrekte Verteilung der Schriftgrößen die Seite
eine verzerrte Wiedergabe darstellt.
Verlinkung
Links sind das Bindeglied zwischen zwei Seiten bzw. Dateien. Um ohne Link von einer auf die
andere Seite zu kommen, müsste man in einem Betriebssystem umständlich die Ordner aufrufen,
in denen sich die Dateien bzw. Textseiten befinden, und im Internet die jeweilige Adresse in die
Suchmaske des Browsers eingeben. Da ist es doch wesentlich einfacher, durch einen einfachen
Klick von einer auf die andere Seite zu gelangen – zum Beispiel wenn man sich für ein Produkt
interessiert und öfter zwischen dem Produktfoto und den Produktinformationen wechseln möchte.
Die Verlinkung einer Internetseite beschreibt deren Einbindung in das World Wide Web. Da es
mittels kleiner Diagnoseprogramme – sogenannte bots – einfachund schnell möglich ist, die
Linkstruktur einer Seite zu analysieren, nutzen Suchmaschinen die Informationen rund um die
Verlinkung einer Website für die Bewertung der Relevanz innerhalb des Internets und damit für
das jeweilige Ranking in der Suchmaschine. Dabei kann man von einer internen und einer
externen Verlinkung sprechen. Eine Domain mit mehreren oder vielen Seiten ist in etwa
vergleichbar mit einem Werbeprospekt oder einem Programmkatalog. Die internen Links
ermöglichen das direkte „umblättern“ voneiner Seite zu jeder anderen, sofern beide miteinander
verlinkt sind. So könnte man zum Beispiel von der Katalogseite 17 mit der Beschreibung des
angebotenen Objekts direkt auf die Seite 42 wechseln, wo das entsprechende Datenblatt zu finden
ist. Eine externe Verlinkung wäre jetzt vergleichbar mit einem Herstellerportal, auf dem man ein
Datenblatt aufrufen kann. Suchmaschinen interessieren sich sehr für die Linkstruktur einer Seite.
Sie bevorzugen dabei vor allem die externe Verlinkung und bewerten dieeingehenden Links höher
als die ausgehenden.
White Hat SEO
Das White Hat SEO steht für die reine und ethische Art der Suchmaschinenoptimierung, im Gegensatz zu den
Black Hat SEO, deren Vertreter auch mit unerlaubten Methoden arbeiten.
Ein Suchmaschinenoptimierer, der nach den Prinzipien des White Hat arbeitet, hält sich streng an die Regeln, die
ihm von den Suchmaschinen auferlegt werden. Er optimiert die von ihm gepflegten Seiten ohne unerlaubte Tricks
in einer sauberen Art und Weise. Ein White Hat Seo arbeitet nach Suchmaschinenkonformen Regeln.
Da ein starker Wettbewerb herrscht, ist es mit White Hat SEO Methoden nicht möglich auf die Schnelle ein
bestgerankte Seite zu erstellen. Der Erfolg dieser Seiten liegt in ihrer Nachhaltigkeit, wenn andere Seiten, die
aufgrund von Spamversuchen aus dem Index der Suchmaschinen entfernt wurden und damit das Nachsehen
haben, klettert eine professionell aber sauber optimierte Seite langsam aber sicher ihrem Ziel der oberen
Positionen entgegen. SEO Kunden sollten darauf achten, dass ihr Geschäftspartner kein Black Hat Seo praktiziert.
Es gibt inzwischen einen Zusammenschluss von Suchmaschinenoptimierern, die sich in ihrem Verband
verpflichten, nach den Richtlinien der Suchmaschinen zu arbeiten.
Als Kunde erkennt man White Hat SEOs auch an folgenden Kriterien:
Sie stellen nicht über sich selbst die Behauptung auf, dass sie über spezielle Verbindungen zu Google und/ oder
deren Mitarbeitern verfügen.
Sie geben keine Garantie für ein Nummer 1 Ranking.
Sie verlangen nicht vom Kunden, dass dieser einen Link auf die Seite des Suchmaschinenoptimierers setzt.
Sie verwenden keine automatischen Weiterleitungen, keine Doorway- Pages, keine Schattendomains oder
Brückenseiten.
Sie verwenden weder versteckte Textelemente noch findet das Cloaking bei ihnen Verwendung.
Sie verzichten auf den Einsatz von Linkfarmen.
Die von ihnen optimierten Seiten werden in erster Linie für den Besucher optimiert und benutzerfreundlich
gestaltet.
X–Y–Z

SEO
Suchmaschinenoptimierung
HTTP://WWW.WEBCONOMY.COM

More Related Content

What's hot

SEO & Content Marketing entlang der Customer Journey
SEO & Content Marketing entlang der Customer JourneySEO & Content Marketing entlang der Customer Journey
SEO & Content Marketing entlang der Customer Journey1&1
 
Linkmarketing - Backlinkaufbau 2016 inkl. live Linkaudit
Linkmarketing - Backlinkaufbau 2016 inkl. live LinkauditLinkmarketing - Backlinkaufbau 2016 inkl. live Linkaudit
Linkmarketing - Backlinkaufbau 2016 inkl. live Linkauditsemrush_webinars
 
Welcome to a New Reality - SEO goes Mobile First in 2017
Welcome to a New Reality - SEO goes Mobile First in 2017Welcome to a New Reality - SEO goes Mobile First in 2017
Welcome to a New Reality - SEO goes Mobile First in 2017Bastian Grimm
 
OnPage SEO - Technik Grundlagen - Danny Linden
OnPage SEO - Technik Grundlagen - Danny LindenOnPage SEO - Technik Grundlagen - Danny Linden
OnPage SEO - Technik Grundlagen - Danny LindenDanny Linden
 
Hacks für mehr Traktion: Pragmatische Tipps für Low Effort und High Reward
Hacks für mehr Traktion: Pragmatische Tipps für Low Effort und High RewardHacks für mehr Traktion: Pragmatische Tipps für Low Effort und High Reward
Hacks für mehr Traktion: Pragmatische Tipps für Low Effort und High Rewardget traction GmbH
 
White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...
White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...
White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...JustRelate
 
Google Discover analysieren und optimieren
Google Discover analysieren und optimierenGoogle Discover analysieren und optimieren
Google Discover analysieren und optimierenJens Fauldrath
 
Die Macht der internen Verlinkung - Seokomm2014 Vortrag
Die Macht der internen Verlinkung - Seokomm2014 VortragDie Macht der internen Verlinkung - Seokomm2014 Vortrag
Die Macht der internen Verlinkung - Seokomm2014 VortragThomas Zeithaml
 
SeoDay 2017: Mikroprozesse im SEO
SeoDay 2017: Mikroprozesse im SEOSeoDay 2017: Mikroprozesse im SEO
SeoDay 2017: Mikroprozesse im SEOget traction GmbH
 
Beim SEO-Relaunch alles richtig machen
Beim SEO-Relaunch alles richtig machenBeim SEO-Relaunch alles richtig machen
Beim SEO-Relaunch alles richtig machensemrush_webinars
 
Mehr Sichtbarkeit durch Google News und AMP
Mehr Sichtbarkeit durch Google News und AMPMehr Sichtbarkeit durch Google News und AMP
Mehr Sichtbarkeit durch Google News und AMP1&1
 
Whitepaper das 1x1 des Linkaufbaus
Whitepaper das 1x1 des LinkaufbausWhitepaper das 1x1 des Linkaufbaus
Whitepaper das 1x1 des Linkaufbauslinkbird
 
Backlinks Social Media
Backlinks Social Media Backlinks Social Media
Backlinks Social Media Soeren Gelder
 
Step-by-Step: Guide zur SEO-OnPage Optimierung Ihrer Website
Step-by-Step: Guide zur SEO-OnPage Optimierung Ihrer WebsiteStep-by-Step: Guide zur SEO-OnPage Optimierung Ihrer Website
Step-by-Step: Guide zur SEO-OnPage Optimierung Ihrer Websitesemrush_webinars
 
Informationsarchitektur & Verlinkung - SMX München 2014
Informationsarchitektur & Verlinkung - SMX München 2014Informationsarchitektur & Verlinkung - SMX München 2014
Informationsarchitektur & Verlinkung - SMX München 2014Bastian Grimm
 
Searchmetrics Summit: Content Management
Searchmetrics Summit: Content ManagementSearchmetrics Summit: Content Management
Searchmetrics Summit: Content ManagementMarco Lauerwald
 
Online Shop SEO Audits mit Screaming Frog & URL Profiler | SEO Campixx 2016
Online Shop SEO Audits mit Screaming Frog & URL Profiler | SEO Campixx 2016Online Shop SEO Audits mit Screaming Frog & URL Profiler | SEO Campixx 2016
Online Shop SEO Audits mit Screaming Frog & URL Profiler | SEO Campixx 2016Mario Träger
 

What's hot (20)

SEO & Content Marketing entlang der Customer Journey
SEO & Content Marketing entlang der Customer JourneySEO & Content Marketing entlang der Customer Journey
SEO & Content Marketing entlang der Customer Journey
 
Linkmarketing - Backlinkaufbau 2016 inkl. live Linkaudit
Linkmarketing - Backlinkaufbau 2016 inkl. live LinkauditLinkmarketing - Backlinkaufbau 2016 inkl. live Linkaudit
Linkmarketing - Backlinkaufbau 2016 inkl. live Linkaudit
 
Welcome to a New Reality - SEO goes Mobile First in 2017
Welcome to a New Reality - SEO goes Mobile First in 2017Welcome to a New Reality - SEO goes Mobile First in 2017
Welcome to a New Reality - SEO goes Mobile First in 2017
 
OnPage SEO - Technik Grundlagen - Danny Linden
OnPage SEO - Technik Grundlagen - Danny LindenOnPage SEO - Technik Grundlagen - Danny Linden
OnPage SEO - Technik Grundlagen - Danny Linden
 
Hacks für mehr Traktion: Pragmatische Tipps für Low Effort und High Reward
Hacks für mehr Traktion: Pragmatische Tipps für Low Effort und High RewardHacks für mehr Traktion: Pragmatische Tipps für Low Effort und High Reward
Hacks für mehr Traktion: Pragmatische Tipps für Low Effort und High Reward
 
Seo Hilfe
Seo HilfeSeo Hilfe
Seo Hilfe
 
White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...
White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...
White Paper: Suchmaschinenoptimierung – Websites nachhaltig für Suchmaschinen...
 
Google Discover analysieren und optimieren
Google Discover analysieren und optimierenGoogle Discover analysieren und optimieren
Google Discover analysieren und optimieren
 
Die Macht der internen Verlinkung - Seokomm2014 Vortrag
Die Macht der internen Verlinkung - Seokomm2014 VortragDie Macht der internen Verlinkung - Seokomm2014 Vortrag
Die Macht der internen Verlinkung - Seokomm2014 Vortrag
 
SeoDay 2017: Mikroprozesse im SEO
SeoDay 2017: Mikroprozesse im SEOSeoDay 2017: Mikroprozesse im SEO
SeoDay 2017: Mikroprozesse im SEO
 
Beim SEO-Relaunch alles richtig machen
Beim SEO-Relaunch alles richtig machenBeim SEO-Relaunch alles richtig machen
Beim SEO-Relaunch alles richtig machen
 
Mehr Sichtbarkeit durch Google News und AMP
Mehr Sichtbarkeit durch Google News und AMPMehr Sichtbarkeit durch Google News und AMP
Mehr Sichtbarkeit durch Google News und AMP
 
Testupload
TestuploadTestupload
Testupload
 
Whitepaper das 1x1 des Linkaufbaus
Whitepaper das 1x1 des LinkaufbausWhitepaper das 1x1 des Linkaufbaus
Whitepaper das 1x1 des Linkaufbaus
 
Backlinks Social Media
Backlinks Social Media Backlinks Social Media
Backlinks Social Media
 
Step-by-Step: Guide zur SEO-OnPage Optimierung Ihrer Website
Step-by-Step: Guide zur SEO-OnPage Optimierung Ihrer WebsiteStep-by-Step: Guide zur SEO-OnPage Optimierung Ihrer Website
Step-by-Step: Guide zur SEO-OnPage Optimierung Ihrer Website
 
Shopleiter Magazin Nr. 3 - SEO-, SEM- und eCommerce-Tipps
Shopleiter Magazin Nr. 3 - SEO-, SEM- und eCommerce-TippsShopleiter Magazin Nr. 3 - SEO-, SEM- und eCommerce-Tipps
Shopleiter Magazin Nr. 3 - SEO-, SEM- und eCommerce-Tipps
 
Informationsarchitektur & Verlinkung - SMX München 2014
Informationsarchitektur & Verlinkung - SMX München 2014Informationsarchitektur & Verlinkung - SMX München 2014
Informationsarchitektur & Verlinkung - SMX München 2014
 
Searchmetrics Summit: Content Management
Searchmetrics Summit: Content ManagementSearchmetrics Summit: Content Management
Searchmetrics Summit: Content Management
 
Online Shop SEO Audits mit Screaming Frog & URL Profiler | SEO Campixx 2016
Online Shop SEO Audits mit Screaming Frog & URL Profiler | SEO Campixx 2016Online Shop SEO Audits mit Screaming Frog & URL Profiler | SEO Campixx 2016
Online Shop SEO Audits mit Screaming Frog & URL Profiler | SEO Campixx 2016
 

Viewers also liked

Los recursos naturales powe point
Los recursos naturales  powe pointLos recursos naturales  powe point
Los recursos naturales powe pointrosagen
 
Ein PHP-Wrapper für die Internet-Suchmaschine ht://Dig oder: „Google selbstg...
Ein PHP-Wrapper für die Internet-Suchmaschine ht://Dig oder: „Google selbstg...Ein PHP-Wrapper für die Internet-Suchmaschine ht://Dig oder: „Google selbstg...
Ein PHP-Wrapper für die Internet-Suchmaschine ht://Dig oder: „Google selbstg...frankstaude
 
Presentación 30 noviembre 2014
Presentación 30 noviembre 2014Presentación 30 noviembre 2014
Presentación 30 noviembre 2014bguzmana
 
Interaktive POS Installationen
Interaktive POS InstallationenInteraktive POS Installationen
Interaktive POS InstallationenMichael à Porta
 
Boletín tribunal administrativo antioquia
Boletín tribunal administrativo antioquiaBoletín tribunal administrativo antioquia
Boletín tribunal administrativo antioquiatribunaladmantioquia
 
EcommerceDay Argentina 2014 - Comisión de Plataformas
EcommerceDay Argentina 2014 - Comisión de PlataformasEcommerceDay Argentina 2014 - Comisión de Plataformas
EcommerceDay Argentina 2014 - Comisión de PlataformasDario Schilman
 
Klitschko-Fury press tour proposition De
Klitschko-Fury press tour proposition  DeKlitschko-Fury press tour proposition  De
Klitschko-Fury press tour proposition Deglushmann
 
Thierry Müller (Amt für Energie und Verkehr, Graubünden) Ein attraktives Mobi...
Thierry Müller (Amt für Energie und Verkehr, Graubünden) Ein attraktives Mobi...Thierry Müller (Amt für Energie und Verkehr, Graubünden) Ein attraktives Mobi...
Thierry Müller (Amt für Energie und Verkehr, Graubünden) Ein attraktives Mobi...Daxboeck_Mostviertel
 
Proyecto de aula "Info web cairo"
Proyecto de aula "Info web cairo"Proyecto de aula "Info web cairo"
Proyecto de aula "Info web cairo"Christian Castro
 
Ingenieria de-sistemas-y-aplicaciones-sociotc3a9cnicas1
Ingenieria de-sistemas-y-aplicaciones-sociotc3a9cnicas1Ingenieria de-sistemas-y-aplicaciones-sociotc3a9cnicas1
Ingenieria de-sistemas-y-aplicaciones-sociotc3a9cnicas1Novato de la Weeb Fox Weeb
 

Viewers also liked (20)

Los recursos naturales powe point
Los recursos naturales  powe pointLos recursos naturales  powe point
Los recursos naturales powe point
 
Word
WordWord
Word
 
Ein PHP-Wrapper für die Internet-Suchmaschine ht://Dig oder: „Google selbstg...
Ein PHP-Wrapper für die Internet-Suchmaschine ht://Dig oder: „Google selbstg...Ein PHP-Wrapper für die Internet-Suchmaschine ht://Dig oder: „Google selbstg...
Ein PHP-Wrapper für die Internet-Suchmaschine ht://Dig oder: „Google selbstg...
 
Presentación 30 noviembre 2014
Presentación 30 noviembre 2014Presentación 30 noviembre 2014
Presentación 30 noviembre 2014
 
RESIN FLOOR STUDIO
RESIN FLOOR STUDIO RESIN FLOOR STUDIO
RESIN FLOOR STUDIO
 
Fuentedepoder
FuentedepoderFuentedepoder
Fuentedepoder
 
Interaktive POS Installationen
Interaktive POS InstallationenInteraktive POS Installationen
Interaktive POS Installationen
 
Boletín tribunal administrativo antioquia
Boletín tribunal administrativo antioquiaBoletín tribunal administrativo antioquia
Boletín tribunal administrativo antioquia
 
Virus Informatico
Virus InformaticoVirus Informatico
Virus Informatico
 
Amigo critico
Amigo criticoAmigo critico
Amigo critico
 
Marktinfo Ungarn 2015
Marktinfo Ungarn 2015Marktinfo Ungarn 2015
Marktinfo Ungarn 2015
 
EcommerceDay Argentina 2014 - Comisión de Plataformas
EcommerceDay Argentina 2014 - Comisión de PlataformasEcommerceDay Argentina 2014 - Comisión de Plataformas
EcommerceDay Argentina 2014 - Comisión de Plataformas
 
Klitschko-Fury press tour proposition De
Klitschko-Fury press tour proposition  DeKlitschko-Fury press tour proposition  De
Klitschko-Fury press tour proposition De
 
Transportertest
TransportertestTransportertest
Transportertest
 
Test deck
Test deckTest deck
Test deck
 
Thierry Müller (Amt für Energie und Verkehr, Graubünden) Ein attraktives Mobi...
Thierry Müller (Amt für Energie und Verkehr, Graubünden) Ein attraktives Mobi...Thierry Müller (Amt für Energie und Verkehr, Graubünden) Ein attraktives Mobi...
Thierry Müller (Amt für Energie und Verkehr, Graubünden) Ein attraktives Mobi...
 
Proyecto de aula "Info web cairo"
Proyecto de aula "Info web cairo"Proyecto de aula "Info web cairo"
Proyecto de aula "Info web cairo"
 
Trabajo final laura y luis
Trabajo final laura y luisTrabajo final laura y luis
Trabajo final laura y luis
 
ERHPP
ERHPPERHPP
ERHPP
 
Ingenieria de-sistemas-y-aplicaciones-sociotc3a9cnicas1
Ingenieria de-sistemas-y-aplicaciones-sociotc3a9cnicas1Ingenieria de-sistemas-y-aplicaciones-sociotc3a9cnicas1
Ingenieria de-sistemas-y-aplicaciones-sociotc3a9cnicas1
 

Similar to SEO-Lexikon

Werbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas Urban
Werbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas UrbanWerbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas Urban
Werbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas UrbanWerbeplanung.at Summit
 
Die 10 groeßten Fehler im eMarketing
Die 10 groeßten Fehler im eMarketingDie 10 groeßten Fehler im eMarketing
Die 10 groeßten Fehler im eMarketingAngelika Röck
 
Crawl-Budget Optimierung - SEOday 2015
Crawl-Budget Optimierung - SEOday 2015Crawl-Budget Optimierung - SEOday 2015
Crawl-Budget Optimierung - SEOday 2015Bastian Grimm
 
15 sehr coole kostenlose SEO Tools
15 sehr coole kostenlose SEO Tools15 sehr coole kostenlose SEO Tools
15 sehr coole kostenlose SEO ToolsAndreas Schudey
 
Suchmaschinenoptimierung (SEO) für KMU
Suchmaschinenoptimierung (SEO) für KMUSuchmaschinenoptimierung (SEO) für KMU
Suchmaschinenoptimierung (SEO) für KMUSimon Flück
 
5 typische SEO-Fehler von E-Commerce Webseiten
5 typische SEO-Fehler von E-Commerce Webseiten5 typische SEO-Fehler von E-Commerce Webseiten
5 typische SEO-Fehler von E-Commerce WebseitenArtur Kosch
 
5 typische SEO-Fehler von E-Commerce Webseiten
5 typische SEO-Fehler von E-Commerce Webseiten5 typische SEO-Fehler von E-Commerce Webseiten
5 typische SEO-Fehler von E-Commerce Webseitensemrush_webinars
 
SEO-Basics: Die 9 häufigsten SEO-Anfänger-Fehler
SEO-Basics: Die 9 häufigsten SEO-Anfänger-FehlerSEO-Basics: Die 9 häufigsten SEO-Anfänger-Fehler
SEO-Basics: Die 9 häufigsten SEO-Anfänger-FehlerHanns Kronenberg
 
WAS IST YOUTUBE SEO?
WAS IST YOUTUBE SEO?WAS IST YOUTUBE SEO?
WAS IST YOUTUBE SEO?gerton6708
 
SEO A/B Testing by John Munoz (Digital Loop)
SEO A/B Testing by John Munoz (Digital Loop)SEO A/B Testing by John Munoz (Digital Loop)
SEO A/B Testing by John Munoz (Digital Loop)John Muñoz
 
Mehr Verkäufe durch SEO Onsite- & Conversion Optimierung
Mehr Verkäufe durch SEO Onsite- & Conversion OptimierungMehr Verkäufe durch SEO Onsite- & Conversion Optimierung
Mehr Verkäufe durch SEO Onsite- & Conversion OptimierungeCommerce Lounge
 
Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018
Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018
Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018Bastian Grimm
 
Text Link Spam-Erkennung und -Unterdrückung
Text Link Spam-Erkennung und -UnterdrückungText Link Spam-Erkennung und -Unterdrückung
Text Link Spam-Erkennung und -UnterdrückungFlorian Holzhauer
 

Similar to SEO-Lexikon (20)

Werbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas Urban
Werbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas UrbanWerbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas Urban
Werbeplanung.at SUMMIT 15 – Die Konstanten der SEO – Thomas Urban
 
Die 10 groeßten Fehler im eMarketing
Die 10 groeßten Fehler im eMarketingDie 10 groeßten Fehler im eMarketing
Die 10 groeßten Fehler im eMarketing
 
Crawl-Budget Optimierung - SEOday 2015
Crawl-Budget Optimierung - SEOday 2015Crawl-Budget Optimierung - SEOday 2015
Crawl-Budget Optimierung - SEOday 2015
 
15 sehr coole kostenlose SEO Tools
15 sehr coole kostenlose SEO Tools15 sehr coole kostenlose SEO Tools
15 sehr coole kostenlose SEO Tools
 
Suchmaschinenoptimierung (SEO) für KMU
Suchmaschinenoptimierung (SEO) für KMUSuchmaschinenoptimierung (SEO) für KMU
Suchmaschinenoptimierung (SEO) für KMU
 
5 typische SEO-Fehler von E-Commerce Webseiten
5 typische SEO-Fehler von E-Commerce Webseiten5 typische SEO-Fehler von E-Commerce Webseiten
5 typische SEO-Fehler von E-Commerce Webseiten
 
5 typische SEO-Fehler von E-Commerce Webseiten
5 typische SEO-Fehler von E-Commerce Webseiten5 typische SEO-Fehler von E-Commerce Webseiten
5 typische SEO-Fehler von E-Commerce Webseiten
 
SEO-Basics: Die 9 häufigsten SEO-Anfänger-Fehler
SEO-Basics: Die 9 häufigsten SEO-Anfänger-FehlerSEO-Basics: Die 9 häufigsten SEO-Anfänger-Fehler
SEO-Basics: Die 9 häufigsten SEO-Anfänger-Fehler
 
Suchmaschinen Platzierung
Suchmaschinen PlatzierungSuchmaschinen Platzierung
Suchmaschinen Platzierung
 
WAS IST YOUTUBE SEO?
WAS IST YOUTUBE SEO?WAS IST YOUTUBE SEO?
WAS IST YOUTUBE SEO?
 
HUI - Werben mit modernen Medien
HUI - Werben mit modernen MedienHUI - Werben mit modernen Medien
HUI - Werben mit modernen Medien
 
SEO A/B Testing by John Munoz (Digital Loop)
SEO A/B Testing by John Munoz (Digital Loop)SEO A/B Testing by John Munoz (Digital Loop)
SEO A/B Testing by John Munoz (Digital Loop)
 
Mehr Verkäufe durch SEO Onsite- & Conversion Optimierung
Mehr Verkäufe durch SEO Onsite- & Conversion OptimierungMehr Verkäufe durch SEO Onsite- & Conversion Optimierung
Mehr Verkäufe durch SEO Onsite- & Conversion Optimierung
 
Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018
Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018
Data-driven Technical SEO: Logfile Auditing - SEOkomm 2018
 
Google Search Console für SEO einsetzen!
Google Search Console für SEO einsetzen!Google Search Console für SEO einsetzen!
Google Search Console für SEO einsetzen!
 
Google - Einführung in die Suchmaschinenoptimierung
Google - Einführung in die SuchmaschinenoptimierungGoogle - Einführung in die Suchmaschinenoptimierung
Google - Einführung in die Suchmaschinenoptimierung
 
dda-12-2009
dda-12-2009dda-12-2009
dda-12-2009
 
Text Link Spam-Erkennung und -Unterdrückung
Text Link Spam-Erkennung und -UnterdrückungText Link Spam-Erkennung und -Unterdrückung
Text Link Spam-Erkennung und -Unterdrückung
 
1x1 Des Suchmaschinen Erfolges
1x1 Des Suchmaschinen Erfolges1x1 Des Suchmaschinen Erfolges
1x1 Des Suchmaschinen Erfolges
 
Leseprobe webtexten
Leseprobe webtextenLeseprobe webtexten
Leseprobe webtexten
 

SEO-Lexikon

  • 2. Anchor Text Zu Deutsch: Anker- Text meint dieser Begriff die sichtbaren Elemente eines Links. Der Bereich, der für den User lesbar auf der Webseite erscheint und den der User anklicken kann, um die Seite, die zu dem Link hinführt zu besuchen. Im Bereich des HTML stellen die Anker- Texte wichtige Module dar. Hyperlinks, also Verknüpfungen, die unter dem Hypertext programmiert werden, werden unter zur Hilfenahme des Anchors erstellt.
  • 3. Backlink Der Begriff Backlink bezeichnet Rückverweise auf eine Website, die von anderen Internetseiten ausgehen. Ein solcher Backlink beruht entweder auf einer direkten Verlinkung oder einem Linktausch. Für Suchmaschinen drücken Qualität und Quantität der Backlinks die Bedeutung einer Seite aus. Verweisen also viele hochwertige Websites auf die eigene Internetseite, so steht diese im Ranking der Suchmaschinen weit vor jenen Seiten, die kaum verlinkt oder nur mit unbedeutenden Sites verknüpft sind. Diese Link-Popularity genannte Eigenschaft einer Seite wirkt sich entscheidend auf das Ranking in den Suchmaschinen aus, wobei die Bedeutung des sogenannten Pagerank 2004 reduziert wurde. link Suchmaschinenoptimierung besteht zum Grossteil daraus, geeignete Backlinks aufzubauen. Dennoch ist die Link-Popularity nach wie vor ein wichtiges Kriterium der Suchmaschinen. Die Bedeutung einer Seite wird beim Verlinken vererbt. Verweist etwa Wikipedia oder Microsoft auf die eigene Website, so steigt diese im Ranking der Suchmaschinen enorm.
  • 4. Cloacking Cloaking ist ein Verfahren, bei dem der Webmaster seine Webseite gegenüber den Robots der Suchmaschinen anders präsentiert als gegenüber dem Besucher. Es werden falsche Inhalte vorgegeben, um in den Ergebnisseiten der Suchmaschinen ein besseres Ranking zu erreichen und damit mehr Besucher auf die Seite zu locken. Eine Cloaking-Seite ist meist eine reine Textseite. Diese wird dann von den Robots indexiert und erhält einen PageRank. Cloaking wird von den Suchmaschinen als Verstoß gegen die Richtlinien gewertet und wie Spam geahndet. Heute wird es von den Suchmaschinen häufig erkannt. Es kann zu schlechtem PageRank oder ganz zum Entfernen aus dem Index der Suchmaschinen führen. Eine sehr viel aufwändigere und schwierigere Variante ist das so genannte IP-Cloaking. Dabei werden dem Browser andere Inhalte der IP Adresse angezeigt. Diese Variante wird sehr selten verwendet, da alle IPs der Suchmaschine bekannt sein müssen.
  • 5. Duplicated Content Als Dublicated Content werden Inhalte bezeichnet, die auf ein und derselben oder auf verschiedenen URLs doppelt oder sogar mehrfach auftreten. Hier geht es also um kopierte Texte. Im Falle einer Entdeckung solcher Dublikate durch Suchmaschinen, werden diese Seiten oft als negativ oder als Spam gewertet. Es kommt auch vor, dass beide Seiten aus dem Index entfernt werden, da Original und Kopie meist nicht zu unterscheiden sind. Es bleibt also der Suchmaschine verborgen, wer von wem abgekupfert hat und dies führt dann für beide zum Ausschluss. Die Folge sind dann regelmäßig Klagen seitens der Inhaber der Originalseiten. Um vorschnelles Handeln zu vermeiden, werden die Dublicated-Content-Filter der Suchmaschinen wie Google erst aktiv, wenn größere Passagen zweier URLs identisch sind. Für das www sind Urheberrechte und deren Verletzung nach wie vor ein großes Problem.
  • 6. Ergebnisseite / SERP Gibt ein User ein Stichwort in eine Suchmaschine ein, so erscheint anschließend die SERP, die Ergebnisseite. Sie listet die Suchergebnisse auf. Bei Google und vielen anderen Suchmaschinen werden in der Grundeinstellung die ersten zehn Ergebnisse angezeigt. Die weiteren Ergebnisse – die Anzahl der Suchergebnisse wird oberhalb der Liste genannt – kann der Benutzer über weitere Ergebnisseiten erreichen. Diese Search engine results page (SERP) stellt gleichzeitig das Objekt der Begierde dar. Denn, wer hier oben steht, kann auf viele Besucher hoffen. Aus der Sicht der User ist der oberste Eintrag gleichsam „ die erste Adresse“. Die Surfer, die sich die Mühe machen, auch auf den folgenden Ergebnisseiten nach relevanten Websites zu suchen, sind deutlich geringer. Das viel umworbene Ranking der Suchmaschinen entscheidet darüber, wer oben als erster auf der SERP steht. Dabei können die Ergebnisse von Suchmaschine zu Suchmaschine variieren, da auch die Maßstäbe für das Ranking unterschiedlich sind. Auch kann sich die SERP bei einer erneuten Suche mit demselben Stichwort ändern, wenn dieser Themenbereich von neuen Seiten umworben wird. Wie sich die Bemühungen der Internet-Anbieter auf diese Ergebnisseiten, deren Ranking nach Qualitätsmaßstäben der jeweiligen Suchmaschinen entstehen, auswirken, lässt sich zum Beispiel anhand von Druckern feststellen. Gibt man den Namen eines Druckers in die Suche ein, der seit Jahren nicht mehr gebaut wird, so findet man in der Regel eine Reihe von Websites, die entsprechende Druckerpatronen anbieten. Aufgrund der aufwändigen Seiten mit zahlreichen Verlinkungen werden die Websites der Patronenhersteller wichtiger als die Seiten der Druckerhersteller, die das entsprechende Gerät vielleicht nur noch in einer Archiv-Liste namentlich erwähnen. Die Herstellerseite mit Informationen zum Gerät selber befindet sich dann vielleicht auf einer der nachfolgenden Seiten der ersten SERP.
  • 7. Froogle Froogle© ist eine spezielle Suchmaschine und gleichzeitig Webkatalog. Konzipiert und Entwickelt wurde Froogle© von Google, der erfolgreichsten und meistgenutzten Suchmaschine im Web. Seit Ende 2004 gibt es Froogle© auch in Deutschland. Die Suchmaschine dient der Suche nach Produkten im Internet. Die Suchergebnisse sind Treffer von automatisch durchsuchten Webseiten aber auch direkt von Händlern eingetragene Seiten. Froogle© ist ein kostenloser Dienst. Man kann damit Produkte verschiedener Hersteller und Anbieter miteinander vergleichen. Auch der Preisvergleich ist möglich. Man kann direkt nach einem Produkt suchen, oder aber sich durch ein Shop-ähnliches System mit verschiedenen Rubriken durchklicken. Ähnliche Dienste bieten beispielsweise Kelkoo oder ShopBoy. Die Suchmaschine Froogle© ist ausschließlich finanziert durch Werbung.
  • 8. Google Guy Google Guy ist die Bezeichnung eines Mitarbeiters des englischsprachigen Google. Er steht zu Google betreffenden Themen im Diskussionsforum www.webmasterworld.com regelmäßig Rede und Antwort. Außerdem führt er einen interessanten Web-Blog. Vermutet wird, dass hinter dem Synonym Google Guy der Google Mitarbeiter Matt Cutts steckt. Google stellt damit einen persönlichen Kontakt zu seinen Usern her. Es ist eine Form von Öffentlichkeitsarbeit, die in dieser Form neu ist. In erster Linie geht es bei den Posts des Google Guy darum, Usern bei Problemen zu helfen, die Google betreffen. Hauptsächliches Thema ist die Hilfe bei der Aufnahme ins Google Ranking. Der mutmaßliche Google Guy Matt Cutts hat eine eigene Homepage (www.mattcutts.com) und mindestens eine Fanpage.
  • 9. Headline Tags Headline Tags dienen der für Suchmaschinen relevanten Einordnung von Überschriften auf einer Internetseite. Üblicherweise wird eine Seite durch Titel oder Kapitelüberschriften, deren Bedeutung mittels der verwendeten Schriftgröße symbolisiert wird, aufgelockert und fördern die Orientierung auf der Seite. Wie bei einer Zeitung kann sich der Leser auf die ihm wichtigen Artikel konzentrieren, wenn er vorher die Headlines studiert und ausgewählt hat. Einige Jahre waren Keywörter in den Headline Tags ein Garant für günstiges Ranking der Suchmaschinen. Dieser Umstand wurde zum Teil missbraucht, indem unseriöse Anbieter Überschriften mit möglichst vielen Keywörtern spickten, ohne auf deren Relevanz für den anschließenden Text zu achten. Daher konzentrieren sich die meisten Suchmaschinen wieder mehr auf die Textinhalte. Diese Reaktion zeigt wiedermal, dass der Versuch, Suchmaschinen auszutricksen, in der Regel zu veränderten Algorithmen führen, mit denen das Ranking vollzogen wird. Das bedeutet letztlich einerseits, dass jeder Versuch der Irreführung und Täuschung von Suchmaschinen zu einer qualitativen Verbesserung führt, wenn es darum geht, eine Suchanfrage mit den wirklich für den Suchenden relevanten Internetseiten zu beantworten. Andererseits bedeuten diese Betrugsversuche immer auch ein Ärgernis für die Kunden und die „ehrlichen“ Anbieter im Internet. Eine gute Suchmaschine – wie etwa Google – verwendet sehr viel Entwicklungsarbeit auf die Vermeidung von erfolgreichen Irreführungen seitens unseriöser Anbieter. Teilweise ist diese Entwicklungsarbeit ein Verlustgeschäft für alle Internetuser – ggf. sogar nachhaltig.
  • 10. Indizieren Der Datenbestand einer Suchmaschine nennt sich Index. Indexieren beschreibt den Vorgang, in dem eine Webseite in eine Suchmaschine oder in ein ähnlich arbeitendes Verzeichnis aufgenommen wird. Dieser Vorgang kann allerdings mehrere Wochen oder gar Monate in Anspruch nehmen. Um diese Phase zu verkürzen wird häufig die Technik des Instant Indexing angewandt, mit deren Hilfe Webseiten innerhalb weniger Tage oder auch nur Stunden in den Index einer Suchmaschine aufgenommen werden. Die schnelle Verfügbarkeit einer Webseite durch die Suchmaschinen ist für kommerzielle Webseiten von großer Bedeutung. Suchmaschinenoptimierer sind darüber informiert, wann neue Indexierungskampagnen stattfinden und richten ihre Arbeit für ihre Kunden an diesen wichtigen Zeiten aus.
  • 11. Javascript- Weiterleitung Die Javascript- Weiterleitung dient als Mittel zur Optimierung der Webseite für die Suchmaschinen, indem sie beim Öffnen einer Seite den User direkt auf andere Seiten weiterleitet. Diese Weiterleitung erfolgt automatisch durch den Surfer. Je nachdem, welche Absicht damit verfolgt wird, existieren verschiedene Formen der Weiterleitung. Für die Spider der Suchmaschinen sind diese Weiterleitungen nicht sichtbar, da diese sie aufgrund der Verschlüsselung oder Versperrung nicht erkennen können. Damit ist für den Robot keine Auswertung dieses Vorgangs möglich. Denn auch diese Technik basiert auf dem Verfahren, der Identifizierung des Besuchers, ob es sich um einen Robot oder um einen Server handelt. Allerdings werden Javascript- Weiterleitungen von den Suchmaschinen geahndet, da sie einen Verstoß gegen die Richtlinien darstellen. Werden sie bemerkt, führen sie zum Ausschluss aus dem Suchmaschinenindex. Dieses Verfahren sollte nur mit äußerster Sorgfalt angewendet werden, da auch legale Weiterleitungen zu einem ungewolltem Ausschluss führen können.
  • 12. Keyphrase Keyphrase wird ins Deutsche mit: Wortkette oder Schlüsselformulierung übersetzt. Gemeint ist damit die Kombination von zwei bis vier Suchworten, die vom User als Eingabe in die Suchmaschine getätigt werden. Um von den Suchmaschinen ein gutes Ranking zu erhalten, ist es notwendig, diese Zusammenstellungen von Begriffen im Text der Webseite enthalten zu haben. Die effektive Formulierung solcher Keyphrasen erstellt man mit Hilfe von Datenbanken. Diese Dienste sind mit Kosten verbunden, da Redakteure sichten und auswerten. Es gibt aber auch Datenbanken im Internet, die kostenfrei die interaktive Recherche zur Ermittlung relevanter Suchbegriffe anbieten.
  • 13. Linkpopularität Suchmaschinen deuten die Wichtigkeit und den Informationsgehalt einer Internetseite nach deren Verlinkungen sowie den Keywörtern, die der für den Link verwendete TAG beinhaltet. Bestehen viele und wichtige Verknüpfungen zwischen einer Website und anderen – möglichst hochwertigen – Seiten, so „messen“ die Suchmaschinen mittels kleiner Analyse-Programme (bots) eine hohe Link Popularity. Das Prinzip stellt sich in etwa so dar: Gäbe es in einem Ort (Internet) zwei Heimwerkermärkte (verschiedene Websites) und würde ein neuer Kunde einen Berater (Suchmaschine) konsultieren, um zu erfahren, in welchem er besser einkaufen könnte, so würde der Berater den Markt vorschlagen, bei dem die meisten und wichtigsten Kunden einkaufen. Unter „wichtig“ ließen sich dann solche Kriterien wie Handwerker, VIPs usw. einordnen. Würde der potentielle Kunde die Suchanfrage konkretisieren und danach fragen, wo er am besten zwei Bretter für das neue Kellerregal passend zugeschnitten bekäme, würde die Suchmaschine vielleicht den anderen Markt vorschlagen, weil dort immer die Kunden hingehen, die Bretter zugeschnitten haben möchten. Die Linkpopularität ist von entscheidender Bedeutung für das Ranking der Suchmaschinen, die die Struktur der Verlinkung einer Seite als wichtiges Kriterium für dessen Relevanz ansehen. Ob dieses Ranking der Suchanfrage eines einzelnen Kunden entspricht, hängt demnach auch davon ab, ob er ein typischer Kunde ist. Wer gerne beim Werkzeugkauf den fachkundigen Verkäufer in ein mehrstündiges, tiefschürfendes Gespräch verwickelt, wird vielleicht in dem von der Suchmaschine vorgeschlagenen Heimwerkermarkt nicht zufrieden sein. Eine künstlich hergestellte Linkpopularität wird häufig von den Suchmaschinen erkannt und negativ bewertet.
  • 14. Metatags Als ehemals probates Mittel, eine Webseite beim Ranking der Suchmaschinen hochzupushen, sind Metatags mittlerweile etwas überholt. Man installiert sie unsichtbar für den Besucher im Titelbereich einer Seite. Sie werden von Suchmaschinen erkannt. Optimierte Keywords erhöhen dann die Chance auf eine bessere Positionierung. Inzwischen nehmen sich die Suchmaschinen zusehends mehr den eigentlichen Inhalt und die Verlinkung einer Seite vor. Empfehlenswert sind Metatags nach wie vor, wenn auf der Website Bilder, Frames und Grafik überwiegen, während wenige Texte Suchmaschinen relevante Keywords enthalten.
  • 15. Natural Listings Mit dem Begriff Natural Listings werden die Ergebnislisten einer Suchmaschine bezeichnet, bei denen es sich nicht um gekaufte Positionen handelt, wie zum Beispiel bei Sponsorenlinks. Das interne Ranking und die Art der Suchanfrage entscheiden allein über den Inhalt der Ergebnisliste. Die Aufgabe des Suchmaschinenoptimierens besteht darin, seine Seite möglichst weit oben in den Ergebnislisten erscheinen zu lassen. Um diese Position zu erreichen gibt es eine ganze Reihe von Techniken, wie zum Beispiel die Verlinkung mit anderen relevanten Seiten oder die Optimierung der verwendeten Keywords. Seitdem es Suchmaschinen gibt, findet ein technischer Wettlauf zwischen den Robots und den Suchmaschinenoptimierern statt, in dem es auch darum geht, sich gegenseitig zu übertreffen.
  • 16. OOP Over Optimization Penalty Dieser Begriff bedeutet: Eine Strafe für die Überoptimierung einer Webseite. Allerdings ist dieser Begriff und seine inhaltliche Interpretation in den Kreisen von Suchmaschinenoptimierern stark umstritten und wird intensiv diskutiert. Google hat mit seinem Florida Update zum Jahreswechsel 2003/ 2004 eine Änderung seiner Algorithmen zur Berechnung der Rankings beschlossen. Dies hat das Thema der Over Optimization Penalty in die Diskussion der Suchmaschinenoptimierer hinein getragen. Ob jedoch der Begriff Strafe, der ja eher in einem juristischen Zusammenhang zu sehen ist, das Ganze wirklich auf den Punkt bringt, wird von Vielen stark bezweifelt.
  • 17. Pagerank Eine Suchmaschine hilft dem User dann, wenn sie möglichst allgemein gültig – also für die meisten Besucher – auf eine Suchanfrage gleich welcher Art die wichtigsten Angebote und Quellen im Netz auflistet. Der Mitbegründer von Google, Larry Page, und Sergey Brin entwickelten an der Stanford University ein Verfahren, indem einer mathematischen Formel die Vorstellung eines Zufallssurfers zugrunde gelegt wurde. Beim patentierten PageRank wird allen Websites eine Bewertungsstufe zwischen Null und zehn zugeordnet. Je höher der PageRank, desto wichtiger die Seite. Die Erfahrungen zeigen, dass die meisten Internetseiten im Bereich zwischen eins und fünf angesiedelt werden. Websites, die professionell für die Suchmaschine Google optimiert wurden, erreichen etwa die Stufen fünf bis sieben. In der Top-Liga finden sich nur wenige Seiten, darunter zum Beispiel Wikipedia und Microsoft. Der Pagerank der Seite eines eingehenden Links wirkt sich auch auf den eigenen Pagerank aus („vererbter Pagerank“). Aufgrund der hohen wirtschaftlichen Bedeutung dieses Messwertes für die Positionierung einer Website auf der Ergebnisliste von Google kam und kommt es immer wieder zu Manipulationsversuchen. Entsprechend entwickelt Google – wie auch andere Suchmaschinen – die Bewertungskriterien immer weiter. Als negativ bzw. unseriös eingestufte Links können auch zur Abwertung oder zum Ausschluss vom Google-Index führen. Grundsätzlich ist festzustellen, dass der Pagerank ein durchaus geeignetes Mittel zur Erfassung der Qualität der Linkstruktur einer Website ist, jedoch nichts über die Qualität der Website aussagt.
  • 18. Querverlinkung Der Begriff Querverlinkung ist die deutsche Version des englischen Cross Linking. Ein weiterer deutscher Name ist die Bezeichnung Kreuzverlinkung. Hier ist die gegenseitige Verlinkung vieler oder aller Seiten zwischen verschiedenen Websites gemeint. Im Bereich der Suchmaschinenoptimierung stellt die Querverlinkung einen taktischen Zug dar, um ein höheres Ranking in den Ergebnislisten der Suchmaschinen zu erhalten. Denn mit der Steigerung der Linkpopularität einer Seite, klettert diese gleichzeitig höher im Pagerank der Suchmaschinen. Durch eine Kreuzverlinkung hofft der Betreiber einer Webseite auch auf eine "Vererbung" des Pageranks von der Seite, mit der er einen Link gekreuzt hat, auf seine Seite. Doch wie bei fast allen künstlichen Optimierungsmaßnahmen sollte man auch hier mit Fingerspitzengefühl arbeiten, da eine Querverlinkung auch als Manipulationsversuch von den Suchmaschinen geahndet werden kann.
  • 19. Ranking Optimierung Ranking Optimierung ist ein Metabegriff für alle Maßnahmen, die dazu dienen, das Ranking einer Seite in den Ergebnislisten der Suchmaschinen zu verbessern und diesen Status zu behalten. Das Ziel einer hohen Platzierung in den Ranks kann durch verschiedene Methoden erreicht werden. Für den On Page Faktor ist es sehr wichtig, die Seite inhaltlich suchmaschinenfreundlich zu gestalten. Experten in der Suchmaschinenoptimierung sorgen dafür, dass die Seite so aufgebaut ist, dass die Spider der Suchmaschinen die Keywords und Tags lesen und damit positiv bewerten können. Bei der Off Page Optimierung einer Seite steht die Verlinkung im Mittelpunkt des Interesses. Gute Links stellen eine wertvolle Empfehlung für die Seite dar und erhöhen damit ihren Wert für die Robots.
  • 20. Spider Spider heißt ins Deutsche übersetzt eigentlich Spinne. Die Spider sind von Suchmaschinen eingesetzte Programme. Sie durchsuchen automatisch alle Webseiten, die bei der jeweiligen Suchmaschine angemeldet sind. Beim ersten Besuch werden die Inhalte der Webseite gelesen und in den Datenbestand aufgenommen. In der Folge wird der Spider die Seite, je nach PageRank und Bedeutung der Seite, in regelmäßigen Abständen erneut besuchen und die Daten auf Änderungen und Aktualisierungen durchsuchen. Findet das Programm regelmäßig aktualisierte Inhalte wird sich das positiv auf das neue Ranking der Seite auswirken. Um seine Webseite für Suchmaschinen zu optimieren sollte man sie also möglichst spiderfreundlich gestalten. Auch regelmäßige Aktualisierungen können das Ranking positiv beeinflussen. Den Besuch der Spider-Programme kann der Betreiber einer Webseite über die Logfiles einsehen und analysieren. Stellt man dabei fest, dass die Abstände zwischen den Besuchen der Spider größer werden sollte man Maßnahmen ergreifen, um seinen PageRank wieder zu verbessern und damit seine Webseite besser in den Ergebnissen zu positionieren.
  • 21. Themenrelevanz Für die Suchmaschinenoptimierung ist es von Bedeutung, dass die Webseite eine hohe Themenrelevanz zu den gesuchten Keyworten aufweist. Denn wenn dieses Kriterium erfüllt ist, wird es mit einem guten Ranking von den Suchmaschinen belohnt. Themenrelevanz erreicht man dadurch, dass zwischen dem Keywort und der Webseitenadresse eine inhaltliche und/ oder formale Ähnlichkeit besteht. Auch die Headline des Dokumentes und die Keyworddichte fließt in die Bewertung der Themenrelevanz mit ein. Die Keyworte sollten im Titel, in den Rubrikenüberschriften und im gesamten Inhalt der Webseite vorkommen. Dabei sollte man allerdings nicht übertreiben und die Keyworte ohne Sinn an einanderreihen, denn dies entspricht weder den Regeln der Suchmaschinen, noch ist es möglich auf diese Art einen gut lesbaren und damit userfreundlichen Text zu erstellen. Der Suchmaschinenoptimierer ist bestrebt, viele themenrelevante Links auf die Webseite zu legen, denn dieses Vorgehen bereitet ein Ansteigen der Popularität und damit eine bessere Positionierung in den Ergebnislisten der Suchmaschinen. Ein themenrelevanter Link greift die Keywords und damit den Inhalt der Webseite auf und verspricht vertiefende Informationen zu diesem Gebiet.
  • 22. Überschriften Tags Wie bei einer Tageszeitung dienen auch auf einer Internetseite Überschriften der Orientierung des Lesers bzw. Besuchers. Ihnen kommt demnach eine im wahrsten Sinne des Wortes herausragende Bedeutung zu, wenn es darum geht, das Interesse des potentiellen Kunden zu gewinnen. Diese Bedeutung machen sich auch Suchmaschinen zu Nutze, wenn sie Überschriften Tags als eines von mehreren Entscheidungskriterien bei der Bewertung einer Seite analysieren. Dies übernehmen die sogenannten bots. Überschriften Tags – auch Headline Tags oder kurz h-Tags – sind im HTML-Format verfasst, verwenden sechs verschiedene Schriftgrößen – von H1 bis H6 je nach Bedeutung der Headline – und sind bei einigen Suchmaschinen höher angesehen, als der Text selbst. Die volle Ausnutzung der 6 Schriftgrößen sollte meistens vermieden werden, da zum einen die Headlines dann eine Übergewichtung im Verhältnis zu den eigentlichen Inhalten erfahren, und zum anderen die Gefahr besteht, dass durch unkorrekte Verteilung der Schriftgrößen die Seite eine verzerrte Wiedergabe darstellt.
  • 23. Verlinkung Links sind das Bindeglied zwischen zwei Seiten bzw. Dateien. Um ohne Link von einer auf die andere Seite zu kommen, müsste man in einem Betriebssystem umständlich die Ordner aufrufen, in denen sich die Dateien bzw. Textseiten befinden, und im Internet die jeweilige Adresse in die Suchmaske des Browsers eingeben. Da ist es doch wesentlich einfacher, durch einen einfachen Klick von einer auf die andere Seite zu gelangen – zum Beispiel wenn man sich für ein Produkt interessiert und öfter zwischen dem Produktfoto und den Produktinformationen wechseln möchte. Die Verlinkung einer Internetseite beschreibt deren Einbindung in das World Wide Web. Da es mittels kleiner Diagnoseprogramme – sogenannte bots – einfachund schnell möglich ist, die Linkstruktur einer Seite zu analysieren, nutzen Suchmaschinen die Informationen rund um die Verlinkung einer Website für die Bewertung der Relevanz innerhalb des Internets und damit für das jeweilige Ranking in der Suchmaschine. Dabei kann man von einer internen und einer externen Verlinkung sprechen. Eine Domain mit mehreren oder vielen Seiten ist in etwa vergleichbar mit einem Werbeprospekt oder einem Programmkatalog. Die internen Links ermöglichen das direkte „umblättern“ voneiner Seite zu jeder anderen, sofern beide miteinander verlinkt sind. So könnte man zum Beispiel von der Katalogseite 17 mit der Beschreibung des angebotenen Objekts direkt auf die Seite 42 wechseln, wo das entsprechende Datenblatt zu finden ist. Eine externe Verlinkung wäre jetzt vergleichbar mit einem Herstellerportal, auf dem man ein Datenblatt aufrufen kann. Suchmaschinen interessieren sich sehr für die Linkstruktur einer Seite. Sie bevorzugen dabei vor allem die externe Verlinkung und bewerten dieeingehenden Links höher als die ausgehenden.
  • 24. White Hat SEO Das White Hat SEO steht für die reine und ethische Art der Suchmaschinenoptimierung, im Gegensatz zu den Black Hat SEO, deren Vertreter auch mit unerlaubten Methoden arbeiten. Ein Suchmaschinenoptimierer, der nach den Prinzipien des White Hat arbeitet, hält sich streng an die Regeln, die ihm von den Suchmaschinen auferlegt werden. Er optimiert die von ihm gepflegten Seiten ohne unerlaubte Tricks in einer sauberen Art und Weise. Ein White Hat Seo arbeitet nach Suchmaschinenkonformen Regeln. Da ein starker Wettbewerb herrscht, ist es mit White Hat SEO Methoden nicht möglich auf die Schnelle ein bestgerankte Seite zu erstellen. Der Erfolg dieser Seiten liegt in ihrer Nachhaltigkeit, wenn andere Seiten, die aufgrund von Spamversuchen aus dem Index der Suchmaschinen entfernt wurden und damit das Nachsehen haben, klettert eine professionell aber sauber optimierte Seite langsam aber sicher ihrem Ziel der oberen Positionen entgegen. SEO Kunden sollten darauf achten, dass ihr Geschäftspartner kein Black Hat Seo praktiziert. Es gibt inzwischen einen Zusammenschluss von Suchmaschinenoptimierern, die sich in ihrem Verband verpflichten, nach den Richtlinien der Suchmaschinen zu arbeiten. Als Kunde erkennt man White Hat SEOs auch an folgenden Kriterien: Sie stellen nicht über sich selbst die Behauptung auf, dass sie über spezielle Verbindungen zu Google und/ oder deren Mitarbeitern verfügen. Sie geben keine Garantie für ein Nummer 1 Ranking. Sie verlangen nicht vom Kunden, dass dieser einen Link auf die Seite des Suchmaschinenoptimierers setzt. Sie verwenden keine automatischen Weiterleitungen, keine Doorway- Pages, keine Schattendomains oder Brückenseiten. Sie verwenden weder versteckte Textelemente noch findet das Cloaking bei ihnen Verwendung. Sie verzichten auf den Einsatz von Linkfarmen. Die von ihnen optimierten Seiten werden in erster Linie für den Besucher optimiert und benutzerfreundlich gestaltet.