SEOCampixx 2015 – Technisches SEO| Seite 1
Technisches SEO bekommt wieder zunehmend Bedeutung
2015 Knut Barth + Matthias Plankl
SEOCampixx 2015 – Technisches SEO| Seite 2
Kurze Vorstellung
Mein Name: Knut Barth l 46 Jahre alt (gefühlte 35) l Wohnort: Coburg l Dipl.-Betriebswirt (FH), Schwerpunkt Marketing l Seit 8 Jahren bei BAUR l Seit 4 Jahren bei Octobo, Abteilungsleiter l Speaker bei der SEOCampixx, SMX l Gastdozent an der FH Coburg l Google Advertsing Professional l Google Analytics Qualified l Private Hobbies: Triathlon, Jagd, Poolbillard
SEOCampixx 2015 – Technisches SEO| Seite 3
Kurze Vorstellung Mein Name: Matthias Plankl l 31 Jahre jung l Wohnort: Grafenwöhr l IT-System-Kaufmann und Medienfachwirt l Seit 13 Jahren im E-Commerce Umfeld l 4 Jahre bei einer Onlineagentur (Onlineshops als ASP) l 5 Jahre bei einem regionalen Verlag im Onlineteam l Seit 4 Jahren SEO bei BAUR/octobo
SEOCampixx 2015 – Technisches SEO| Seite 4
Crawlability
SEOCampixx 2015 – Technisches SEO| Seite 5
Crawling
SEOCampixx 2015 – Technisches SEO| Seite 6
• Crawler untersuchen das Web automatisiert
• Über Verweise gelangen diese zu neuen Dokumenten
• Erfassen neue und geänderte Dokumente
• Es gibt nicht nur einen Crawler, sondern mehrere
• Crawler arbeiten häufig parallel
• Crawler arbeiten rund um die Uhr und zeitgesteuert
Crawling
SEOCampixx 2015 – Technisches SEO| Seite 7
Das Thema Logfile Analyse wird immer wichtiger, um zu wissen: • welche URL´s der Google Bot crawlt • wann er crawlt • wie lange er crawlt • wie der Crawler in welcher Reihenfolge crawlt • welche Auffälligkeiten oder Fehler auftreten
Crawling
Tool Tip: Splunk
SEOCampixx 2015 – Technisches SEO| Seite 8
Fallstricke für die Indexierung
SEOCampixx 2015 – Technisches SEO| Seite 9
Die Robots.txt kann Suchmaschinen das Crawling erlauben (allow) und verbieten (disallow) Aber: Crawling und Indizierung sind nicht das gleiche. Wenn eine Seite bereits indiziert wurde und man diese danach in der robots.txt sperrt, bleibt die Seite Index und wird nur nicht mehr gecrawlt.
SEOCampixx 2015 – Technisches SEO| Seite 10
User-agent: Googlebot Disallow:
User-agent: Googlebot Disallow: /
User-agent: * Disallow: /beispiel-verzeichnis/
User-agent: googlebot Disallow: /beispiel-verzeichnis/ Disallow: /beispiel-verzeichnis-2/ Disallow: /beispiel-datei.html
Nichts für das Crawling sperren
Alles für das Crawling sperren – der Klassiker wenn eine Seite nicht in den Index gelangt
Ein Verzeichnis für das Crawling sperren
Zwei Verzeichnisse und eine Seite für das Crawling sperren
User-agent: Googlebot Allow: / Nichts für das Crawling sperren
Robots.txt Beispiele
SEOCampixx 2015 – Technisches SEO| Seite 11
Crawling Probleme durch robots.txt
JavaScript und CSS nicht mehr per robots.txt blockieren
SEOCampixx 2015 – Technisches SEO| Seite 12
Crawling in den Webmaster Tools prüfen
SEOCampixx 2015 – Technisches SEO| Seite 13
Meta Tag Robots
SEOCampixx 2015 – Technisches SEO| Seite 14
<meta name="ROBOTS" content=„index,follow"/>
<meta name="ROBOTS" content=„noindex,follow"/>
<meta name="ROBOTS" content=„noindex,nofollow"/>
Indexierung erlaubt (Index) und allen Links auf der Seite folgen (Follow)
<meta name="ROBOTS" content=„index,nofollow"/>
Meta Tag Robots Beispiele
Indexierung erlaubt (Index) und keinem Link auf der Seite folgen (Nofollow)
Indexierung verboten (Noindex) und allen Links auf der Seite folgen (Follow)
Indexierung verboten (Noindex) und keinem Link auf der Seite folgen (Nofollow)
SEOCampixx 2015 – Technisches SEO| Seite 15
Meta Tag Robots
• Ob eine URL (vollständig) indexiert wird, hängt von der robots-Instruktionen ab
• Einfluss darauf, ob ein Dokument über die Suche gefunden werden soll, nimmt man über Meta Robots oder X-Robots mit der Angabe „Noindex“
• X-Robots ist für nicht HTML-Dokumente (wie PDFs) gedacht, da dort keine Meta Robots Angaben möglich sind
SEOCampixx 2015 – Technisches SEO| Seite 16
Meta Tag Robots Beispiele
<!DOCTYPE html> <html><head> <meta name="robots" content=„index,follow" /> (…) </head> <body>(…)</body> </html>
Wichtig: Das Meta Tag muss im „Head“ Bereich der Webseite liegen, sonst funktioniert es nicht!
SEOCampixx 2015 – Technisches SEO| Seite 17
X-Robots
SEOCampixx 2015 – Technisches SEO| Seite 18
X-Robots Beispiele
Siehe auch: https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag
Kommt selten vor und wird selten geprüft, da nicht sehr bekannt
SEOCampixx 2015 – Technisches SEO| Seite 19
X-Robots Beispiele
Gut geeignet, wenn man eine Seite ohne HTML Code für das Indizieren sperren möchte, z.B. Bilder, PDF´s oder XML Dateien
Tool Tipp: https://urivalet.com/
SEOCampixx 2015 – Technisches SEO| Seite 20
Server Header
SEOCampixx 2015 – Technisches SEO| Seite 21
Server Header Beispiele
Der Server Header Code einer „normalen“ Webseite lautet: 200
Tool Tipp: https://urivalet.com/
SEOCampixx 2015 – Technisches SEO| Seite 22
Server Header Beispiele
Weitere Infos: http://de.wikipedia.org/wiki/HTTP-Statuscode
• Wenn Ihr eine alte URL auf die neue URL umleitet, dann achtet darauf, dass es mit einer 301 Umleitung erfolgt und nicht mit einer 302 Umleitung
SEOCampixx 2015 – Technisches SEO| Seite 23
Canonical Tag
SEOCampixx 2015 – Technisches SEO| Seite 24
Canonical Tag Beispiele
Wird verwendet, wenn Inhalte mehrfach verwendet werden oder eine eindeutige URL technisch nicht möglich ist, z.B. bei URLs mit Parametern
Beispiel 1 http://www.deinedomain.de/hosen&p=2&trackingcode=affiliate Canonical Tag: http://www.deinedomain.de/hosen
Beispiel 2 http://www.deinedomain.de/hosen&p=2&trackingcode=affiliate Canonical Tag: http://www.deinedomain.de
Ok, verweist auf die korrekte URL
Nicht ok, verweist auf falsche URL und wird somit deindexiert (meistens)
Wichtig: cas canoncial Tag muss im Head Bereich stehen und es sollte absolute URLs besitzen und keine relativen
SEOCampixx 2015 – Technisches SEO| Seite 25
Webmaster Tools
SEOCampixx 2015 – Technisches SEO| Seite 26
Google Webmaster Tools
SEOCampixx 2015 – Technisches SEO| Seite 27
Google Webmaster Tools
Es gibt eine Fülle an wichtigen Tools in den GWT, die ein SEO permanent benutzen sollte
SEOCampixx 2015 – Technisches SEO| Seite 28
Google Webmaster Tools
Beispiel: wieviele URLs hat Google indiziert? Stimmt das mit der Webseite überein oder gibt es ein DC Problem?
SEOCampixx 2015 – Technisches SEO| Seite 29
Google Webmaster Tools
Hat Google die richtigen Keywords erkannt?
SEOCampixx 2015 – Technisches SEO| Seite 30
Google Webmaster Tools
Wo gibt es Crawling Fehler?
SEOCampixx 2015 – Technisches SEO| Seite 31
Google Webmaster Tools
Immer im Auge behalten und Probleme fixen
SEOCampixx 2015 – Technisches SEO| Seite 32
Google Webmaster Tools
Wo hat der Crawler Probleme beim rendern?
SEOCampixx 2015 – Technisches SEO| Seite 33
Google Webmaster Tools
Ist die robots.txt ok?
SEOCampixx 2015 – Technisches SEO| Seite 34
XML Sitemap
SEOCampixx 2015 – Technisches SEO| Seite 35
XML Sitemap
XML Datei mit allen URLs der Webseite + Zusatz Infos
SEOCampixx 2015 – Technisches SEO| Seite 36
XML Sitemap
Info´s zur Sitemap: https://support.google.com/webmasters/answer/156184?hl=de
Macht Google das Crawling einfacher
SEOCampixx 2015 – Technisches SEO| Seite 37
URL Aufbau
SEOCampixx 2015 – Technisches SEO| Seite 38
URL Aufbau
Dynamische URLs sind der natürliche Feind eines Suchmaschinenoptimieres.
Wir finden diese häufig bei: • CMS Systemen
• Page ID • Sprachkennzeichen
• Shop-Systemen • Session ID • Pagination • Filter • Sortierung • Fehlende URL Konvention
SEOCampixx 2015 – Technisches SEO| Seite 39
URL Aufbau
Für den Programmierer ist alles gut, denn die Seite funktioniert ja.
SEOCampixx 2015 – Technisches SEO| Seite 40
URL Aufbau
Für den SEO ist aber gar nichts gut, denn jeder neue Parameter in einer URL oder eine andere Reihenfolge der Parameter erzeugen eine neue URL.
URLs gone wild
SEOCampixx 2015 – Technisches SEO| Seite 41
URL Aufbau
Und eine neue URL für ein und die selbe Seite, erzeugt duplicate Content.
Original URL http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite Duplicate URLs http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite http://www.onlineshop-domain.com/produktseite/produktdetailseite http://www.onlineshop-domain.com/kategorie/produktdetailseite http://www.onlineshop-domain.com/produktdetailseite http://www.onlineshop-domain.com/produktdetailseite&lang=de&posref=112 http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite&lang=de&posref=112 http://www.onlineshop-domain.com/produktseite/produktdetailseite&lang=de&posref=112 http://www.onlineshop-domain.com/kategorie/produktdetailseite&lang=de&posref=112 http://www.onlineshop-domain.com/produktdetailseite&lang=de&posref=112 ....
Hinweis: das canonical Tag kann hierbei helfen, wenn aber nicht, dann habt Ihr ein echtes Problem
SEOCampixx 2015 – Technisches SEO| Seite 42
URL Aufbau
Und mit duplicate Content rankt eine Seite in Google schlechter oder gar nicht mehr.
SEOCampixx 2015 – Technisches SEO| Seite 43
URL Aufbau
Ein möglicher, idealer URL Aufbau wäre zum Beispiel:
URL ohne Parameter http://www.onlineshop-domain.com http://www.onlineshop-domain.com/kategorie http://www.onlineshop-domain.com/kategorie/produktseite URL mit Parameter http://www.onlineshop-domain.com#&AffiliatePartner=1112 http://www.onlineshop-domain.com/kategorie#&AffiliatePartner=1112 http://www.onlineshop-domain.com/kategorie/produktseite#&AffiliatePartner=1112 ....
Strukturierter Aufbau
Parameter hinter einem #
SEOCampixx 2015 – Technisches SEO| Seite 44
Rel Prev/Next
SEOCampixx 2015 – Technisches SEO| Seite 45
Paginationsseiten
Unter Pagination (deutsch: Seitennummerierung) versteht man die Verknüpfung von Online-Inhalten, die auf mehreren Seiten dargestellt werden.
SEOCampixx 2015 – Technisches SEO| Seite 46
Paginationsseiten
Original Seite http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite Paginationseiten: http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite ?Level1=sh471022&loadcategories=0&ProductPage=1 . . . http://www.onlineshop-domain.com/kategorie/produktseite/produktdetailseite ?Level1=sh471022&loadcategories=0&ProductPage=70
Paginationsseiten erzeugen große Mengen an Seiten mit duplikaten Meta Tags
SEOCampixx 2015 – Technisches SEO| Seite 47
Paginationsseiten
Original Seite: Meta Tag Robots: index,follow Paginationseiten: Meta Tag Robots: noindex,follow <link rel="prev" href="http://www.onlineshop-domain.com/kategorie?Level1=sh471022&loadcategories=0&ProductPage=54"/> <link rel="next" href="http://www.onlineshop-domain.com/kategorie?Level1=sh471022&loadcategories=0&ProductPage=56"/>
Lösung des Problems mit Paginationsseiten
Beispiel: Du bist auf Seite 55
SEOCampixx 2015 – Technisches SEO| Seite 48
HrefLang Tag
SEOCampixx 2015 – Technisches SEO| Seite 49
Das hreflang-Tag dient zur Lokalisierung von Dokumenten im Google-Index und besteht aus einem Tag + ISO-Code für die Sprache und das Land.
Wo wird es technisch eingesetzt? A
§ HTML-Head § XML-Sitemap § Als “<link>”-Tag mit der Erweiterung hreflang § Muss den ISO-Sprachcode und Ländercode enthalten § Kann auch als Generialisierung eingesetzt werden (z.B. eine Webseite für DE / AT / CH oder das Dokument sollen in allen übrigen Ländern erscheinen) <link rel=“alternate” hreflang=“x-default” href=“http://www.example.com”/>
Hreflang-Tag
Beispiel B <link rel="alternate" hreflang="de-DE" href="http://www.example.com/"/> <link rel="alternate" hreflang="fr-FR" href="http://www.example.com/fr/"/> <link rel="alternate" hreflang="de-CH" href="http://www.example.com/ch/"/> <link rel="alternate" hreflang=„de-AT" href="http://www.example.com/at/"/>
SEOCampixx 2015 – Technisches SEO| Seite 50
Meta Tags
SEOCampixx 2015 – Technisches SEO| Seite 51
Welche Meta-Tags versteht Google? A
<html> <head> … <title>Der Titel der Seite</title> <meta name="description„ content="Eine Beschreibung der Seite" /> <meta name="robots„ content=„index,follow" /> <meta name="google" content="nositelinkssearchbox"/> <meta name="google" content="notranslate" /> <meta name="google‐siteverification" content=„filename.html" /> <meta http‐equiv="Content‐Type" content="...;charset=..." /> ... </head> <body></body> </html>
Meta-Tags
Content Value B
Title: Länge ca. 55 Zeichen Description: Länge ca. 160 Zeichen Meta-Robots: noindex, index, nofollow, nosnippet, noodp; noarchive, noimageindex,
SEOCampixx 2015 – Technisches SEO| Seite 52
Für Google und für den USER haben die Meta-Tags Title + Description eine Relevanz, da damit der Nutzer beeinflusst wird
Was sollten Meta-Tags beinhalten? C
§ Das Keyword, § Eine Relevanz warum diese Seite für den User wichtig sein könnte § Den Mehrwert den der Inhalt bringt (!) § Einen Handlungsanreiz, die Seite zu besuchen
à CTR erhöhen (in der Folge sollte die Zielseite optimiert bzw. die Nutzererwartung erfüllt sein um die Bounce Rate zu senken)
Meta-Tags: Title + Description
Beispiel D
SEOCampixx 2015 – Technisches SEO| Seite 53
Schema.org
SEOCampixx 2015 – Technisches SEO| Seite 54
Was ist der größte Benefit? Eine höhere Sichtbarkeit in den Suchergebnissen
Mirkrodaten mit schema.org
Wo kann ich schema.org verwenden? A
§ Rezepte § Events § Produkte § Produktbewertungen § Organisationen § Personen § Orte, Lokale Geschäfte, Restaurants
Was ist schema.org B
§ Hat eine hierarchische, erweiterbare Struktur § Ist ein einheitliches Markup für maschinenlesbare Daten § Ist Teil des semantischen Web
Tools C
https://developers.google.com/structured-data/testing-tool/ https://www.google.com/webmasters/markup-helper/
Ressourcen für das Markup D
https://support.google.com/webmasters/answer/99170?hl=de https://support.google.com/webmasters/answer/2650907?hl=de
SEOCampixx 2015 – Technisches SEO| Seite 55
Mirkrodaten mit schema.org
Produktbewertungen E
Breadcrumb F
SEOCampixx 2015 – Technisches SEO| Seite 56
Mirkrodaten mit schema.org
Rezepte G
Events H
SEOCampixx 2015 – Technisches SEO| Seite 57
301 Weiterleitungen
SEOCampixx 2015 – Technisches SEO| Seite 58
Große Webseiten haben häufig das Problem, das täglich oder wöchentlich Kategorien und Artikel wechseln oder sich verändern. Um das Problem etwas zu beheben sollten die Artikel und Kategorien sauber umgeleitet werden.
301 Redirects
Statuscodes A
§ 301 gibt den Linkjuice an die Zielseite weiter
§ 302 geben keinen Linkjuice weiter
§ 307 sind ähnlich 302 Redirects und geben keinen Linkjuice weiter
Wenn man Redirects einsetzt B
§ Wöchentliche Prüfung der Ziel-URLs, ob diese noch aktiv sind
§ Inaktive URLs durch ein passendes neues Ziel ersetzen
§ Vermeidung von „Broken-Links“
Was sollte man noch Wissen C
§ Nur themenrelevant weiterleiten um die volle Kraft auszunutzen § Verweise nicht von Artikel auf Kategorien mit einem Statuscode 301
Was passiert, wenn doch? § Die Zielseite rankt für einige Zeit mit den Keywords der Quellseite, danach verliert sie die Kraft § Unter Umständen wird die Erwartungshaltung der User nicht erfüllt und die Bounce Rate wird‘s richten
SEOCampixx 2015 – Technisches SEO| Seite 59
Redirect-Ketten sollten nicht nur aus SEO-Sicht vermieden werden, sondern auch auf die Performance sollte geachtet werden. Vermeide daher unnötige Request an deinen Server!
301 Redirects
Redirect-Ketten vermeiden E
Redirect-Ketten: Problem manuell oder automatisch lösen:
Thema im Google Webmaster Hangout D § Googlebot verfolgt max. 5 aufeinanderfolgende Redirects zu einem Ziel
§ RDIR-Ketten(!) vermindern die verbendende Kraft des PageRank
§ Einzelne RDIR betrifft das nicht(!)
A B C D E F
A B C D E
F 302 Redirect für veraltete Artikel F
Für veraltete Artikel ist die Weiterleitung per 302 auf eine passende Kategorie eine gute Alternative à Breiteres Angebot - bessere CVR
SEOCampixx 2015 – Technisches SEO| Seite 60
Bilderoptimierung
SEOCampixx 2015 – Technisches SEO| Seite 61
Wer die Basic-Facts der Bildoptimierung beachtet, hat gute Chancen auf Rankings in der Bildersuche
Was ist zu tun? A
§ Bildgröße wählen: min. 1240 px im Seitenverhältnis 16:10 oder 4:3 § Bildformat: Hoch- oder Querformat; Universal-Search besser Querformat § Dateiname: Wähle einen sprechenden Dateinamen aus 4-6 Begriffen § Dateityp: JPG oder PNG § Dateigröße: Kompression verwenden, je Bild und Farbkanal min. 60-80%
§ Alt-Tag: 4-6 Begriffe die das Thema erklären (Auch Relevanz achten!); 16 Wörter sollten funktionieren um manche Bilder effizient Beschreibung zu können. § Umfließender Text mit den relevanten Keywords unterstützt das Ranking § Bilder in der XML-Sitemap ausliefern
Bilderoptimierung
Don`t! – Bilder nicht nachträglich komprimieren B § Ein Bild ist bereits im Index, z.B. schwach komprimiert als JPG § Wird ein Bild auf dem gleichen Pfad/Dateinamen ersetzt verliert es seine Rankings § Das Bild erreicht i.d.R. nicht mehr das Rankings vor der Programmierung
à Komprimiere deine Bilder bevor du sie online stellst
SEOCampixx 2015 – Technisches SEO| Seite 62
Siatespeed
SEOCampixx 2015 – Technisches SEO| Seite 63
Der „gefühlte“ Sitespeed kann durch einfache Methoden die im Apache Server integriert sind verbessert werden.
Browser-Caching über die htaccess konfigurieren A
§ Angabe eines Expire Header für Bilder, CSS und Skripte § Dadurch werden die Bilder aus dem Browser-Cache geladen
Folge: § Das Dokument lädt schneller § Der Browser kann die Verbindungen zu den übrigen Dateien früher aufbauen
Wichtig: Das Expire-Date richtig wählen!
Sitespeed
Serverseitiger Cache + CDN B
§ HTML-Dokumente serverseitig cachen lassen (z.B. schnell & einfach zu testen mit Wordpress-Plugins) § CDN – Verteilung der gecachten Seiten auf mehrere Server, die Verteilung der Browser-Request übernimmt dabei das CDN
SEOCampixx 2015 – Technisches SEO| Seite 64
Der „gefühlte“ Sitespeed kann durch einfache Methoden die im Apache Server integriert sind verbessert werden.
Sitespeed
Zusammenfassung C
§ Vermeide unnötige Downloads § Optimiere CSS- und JavaScript-Dateien und reduziere die Anzahl § Nutze das E-Tag für Bilder, CSS und JS-Dateien (Hash-Wert) § Nutze CSS-Sprites
§ aktivire gzip-Komprimierung beim Caching § Lade wichtige Seiteninhalte zuerst § Lade unwichtige Inhalte ggf. nach
§ Reduziere die Größe/Anzahl der Cookies § Lagere ggf. CSS / JS-Dateien auf eine Subdomain (+ Server aus) § Reduziere dein HTML! – Und befreie es von Inline CSS/JS
SEOCampixx 2015 – Technisches SEO| Seite 65
Beispiel D
Sitespeed
Tools E
https://developers.google.com/speed/pagespeed/insights/ http://yslow.org/ http://gtmetrix.com/
SEOCampixx 2015 – Technisches SEO| Seite 66
Mobile SEO
SEOCampixx 2015 – Technisches SEO| Seite 67
Für den Mobile-Shop muss das Crawling erlaubt in den Meta-Robots erlaubt sein. Mit der nachfolgenden Konfiguration erhält man mit einem Mobil optimierten Onlineshop die Kennzeichnung „Für Mobilgeräte“ in den Suchergebnissen.
Konfiguration des Mobile-Shop A
§ Meta-Robots: index,follow § Crawling in der robots.txt erlauben § Vary-Header konfigurieren § Oder rel=alternate im Html-Head eintragen
Mobile SEO
Mobile-Shop und Desktop werden auf der selben URl ausgeliefert B
§ HTTP-Accept-Header muss vorhanden sein § Vary: user-agent
SEOCampixx 2015 – Technisches SEO| Seite 68
Im HTML-Head oder in der XML-Sitemap sollte die alternative Mobile URL angegeben werden. Die Canonical des Mobile-Shop enthält die Desktop-URL.
Alternative URl muss auf Mobile URl verweisen C
Mobile SEO
Beispiel für den HTML-Head D
<link rel="alternate" media="only screen and (max-width: 640px)“ href="http://m.example.com/page-1" >
Desktop
Rel=alternate
Canoncial Mobile
Desktop
Rel=alternate
Canoncial Mobile
SEOCampixx 2015 – Technisches SEO| Seite 69
Tools
SEOCampixx 2015 – Technisches SEO| Seite 70
Browser-Plugins für Chrome A
Tools
SEOCampixx 2015 – Technisches SEO| Seite 71
Browser-Plugins für Chrome B
Tools
SEOCampixx 2015 – Technisches SEO| Seite 72
Tools
OnPage- / Rankingsanalyse D
Tools C
Rich Snippet Testing Tool Google Page Speed Google Mobile-Friendly Test
SEOCampixx 2015 – Technisches SEO| Seite 73
Knut Barth Phone:09572/91-1801 Email: [email protected] Matthias Plankl Phone:09572/91-1824 Email: [email protected]
Vielen Dank! Fragen?
Top Related