Google+ Erfolgreiches Online-Marketing in 20 Tagen: Online-Marketing Tag 11: Onpage-Optimierung

31.10.13

Online-Marketing Tag 11: Onpage-Optimierung

Happy Halloween!
(c)Diebes / pixelio.de

 

Onpage-SEO (Onsite-SEO)


Heute - am schönen, kalten Halloween-Tag 2013 - lernen wir etwas über die Online-Optimierung und über die Notwendigkeit von Webmaster-Tools.

Also ein weiteres wichtiges Instrument - neben der gelernten KW-Optimierung - für die erfolgreiche Onpage-Optimierung!








Für Blogspots nicht relevant, da ein Blog eine Subdomain ist und wir die Tools nicht vollständig anwenden können.

Social Bookmarking Service:

Mit diesem Service kann ich Backlinks generieren, indem ich Links in einem Tool abspeicher, auf den andere zugreifen und verwenden können.
>>> vgl. delicious.com

 

Google-Webmaster Tools:
[Ein wichtiges Tool für Website-/Onpage-Optimierung]

Google-Webmaster Tools ist ein kostenloser Service von Google zur Optimierung einer Website.
Die Webmaster Tools von Google bieten jede Menge Funktionen - am besten nachzulesen in dem 132-Seiten starken PDF zu dem Thema (Google-Suche: Webmaster Tools Google).


Die Webmaster Tools lesen die sitemap.xml und robots.txt einer eingestellten, eigenen Website aus und weisen auf evtl. Optimierung, Fehlerquellen etc. hin.


Daher ist es enorm wichtig, dass die Sitemap.xml und Robots.txt innerhalb meiner Website für den Crawler einer Suchmaschine auslesbar sind!

Warum ist die Sitemap.xml so wichtig?
Sitemap.xml-Dateien werden vom Crawler einer Suchmaschine gesucht und hinsichtlich der Struktur abgefragt noch bevor der Crawler die Seiten innerhalb meiner Website aufsucht.
Eine gut optimierte Website mit Sitemap führt zu einer schnelleren Auffindbarkeit!

Erscheint die XML-Datei innerhalb meiner Website?
Nein! Die XML-Datei wird nur vom Crawler ausgelesen und wird innerhalb meines Stammordners des Servers, auf dem die Website veröffentlicht wird, abgespeichert.
nicht zu verwechseln mit einer HTML-Datei!


Mit Hilfe des Google-Webmaster Tools verifizieren wir zunächst unsere Website. Dann generieren wir unsere Sitemap und binden diese in die Website ein, indem wir einen generierten Tag in den Head-Bereich unserer HTML-Datei schreiben. Wie das genau funktioniert, wird in 2 Schritten erklärt.

Auch können wir in den Webmaster Tools einstellen, ob unsere Website mit oder ohne www. geschrieben werden soll.


Hinweis: Wichtig ist es, die Website so aufzubauen, dass eine maximale Linktiefe von 3 erreicht wird! Ansonsten wird die Website aller Wahrscheinlichkeit nach nicht schnell ausgelesen und ist demnach NICHT optimiert.

Hinweis: Google Webmaster ist KEIN Echtzeit-Tool! Meine frisch eingegebenen Daten werden nicht sofort angezeigt. Erst wenn der Crawler die Daten aufgenommen hat, kann ich in dem Tool die entsprechenden Anzeigen ablesen und verarbeiten.

Hinweis: Blogs sind KEINE Website (Subdomains) und können daher nicht von Webmaster Tools  ausgelesen werden.

Weitere Tools zum Thema Webmaster-Tools:
*    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *    *   

Aufbau + Funktionen von Google-Webmaster Tools:


1.) Darstellung der Suche:

1.1.) Strukturierte Daten:
aus Google Webmaster:
"Strukturierte Daten hilft Google bei der Interpretation des Inhalts Ihrer Website, der zum Einblenden von Rich Snippets in Suchergebnissen verwendet werden kann." 


(C) Google Webmaster-Tools

1.2.) Data Highlighter:
aus Google Webmaster:

"Enthält Ihre Website strukturierte Daten wie Veranstaltungsverzeichnisse oder Bewertungen?
Es gibt jetzt eine neue Alternative zu Webmaster-Markup, mit der Google die Daten auf Ihrer Website besser verstehen kann. Mit Data Highlighter können Sie einfach jedes Datenfeld mit Ihrer Maus "taggen".
Google kann Ihre Daten dann in den Suchergebnissen attraktiver und innovativer präsentieren."
  

 Hier kann ich selbst die Snippets auf der SERP festlegen. :-) Es macht also Sinn, hier mit Bewertungen, Maps/Placements zu arbeiten.

1.3.) HTML-Verbesserungen:
Gravierende HTML-Fehler meiner Website werden hier gelistet

1.4.) Data Sitelinks:
Tool zum Abwerten bestimmter Seiten meiner Website (Bsp.: AGB, Impressum).
Wenn die ausgewählten Seiten abgewertet sind, sollten diese nach Möglichkeit NICHT mehr innerhalb der SERP angezeigt werden. (Klappt aber nicht immer auf Anhieb.)


2.) Suchanfrage:

Auflistung der Suchbegriffe, die zu meiner Website geführt haben mit Platzierung der SERP-Seite
Gute Statistik!
Diese Begriffe sollten auch als KW-Optimierung genutzt werden. (Überprüfung der KWs im KW-Planer)

2.1.) Links zur Website (auch Offpage-Optimierung):
Von welchen Seiten bekomme ich Traffic?
Auf welchen Content (welche Unterseite) wird verlinkt?

2.2.) Interner Link:
Tipp: Impressum muss von jeder Unterseite zugänglich sein! Am besten in den Footer einbauen!

2.3.) Manuelle Maßnahmen:  
Hier stehen Hinweise auf Spams und entsprechende Maßnahmen

3.) Google-Index:

3.1.) Indexierungsstatus
Zeigt das natürliche Wachstum einer website an.

3.2.) Content-Keywords
Einstufung von Google, welche KWs zu meiner Website passen.
Guter Hinweis zur evtl. KW-Optimierung! :-)

3.3.) URL's entfernen
Hier kann ich "tote" Links aus dem Google-Index entfernen lassen.


4.) Crawling

4.1.) Crawling-Fehler
Ganz schlecht, wenn hier «Fehler 500» auftaucht! Aufpassen!!!

Wenn ein Fehler angezeigt wird, kann ich die entsprechende Seite in "URL entfernen" eintragen und unwiderruflich löschen lassen!

Soll die fehlerhafte Seite bestehen bleiben, aber nicht vom Crawler gefunden werden, definiere ich in der robots.txt, was der Crawler aufrufen darf und was nicht.

4.2.) Crawling-Statistik
erklärt sich

4.3.) Blockierte URL's
aus Google Webmaster:
"Wenn Ihre Website Content enthält, den Sie nicht in Suchergebnissen von Google oder anderen Suchmaschinen anzeigen möchten, können Sie eine "robots.txt"-Datei verwenden, um anzugeben, wie der Content Ihrer Website von Suchmaschinen gecrawlt werden soll."

4.4.) Sitemaps


4.5.) URL Parameter


Keine Kommentare:

Kommentar veröffentlichen