Donnerstag, 10. April 2014

TAG 5: Was kommt nach der Keyword-Analyse?

Wir müssen, wenn die Domain steht, uns um folgende Punkte kümmern:

  • .htaccess Datei
  • robots txt
  • xml Sitemap
  • Webmastertools
.htaccess: www optimieren heißt, das wir keine Website haben sollten, die sowohl unter www.domain.de und domain.de läuft. Es darf nur eine Version geben, da google diese sonst als Kopien ansieht und nicht in den index läßt. Hierzu müssen wir eine .htaccess Datei erstellen im Editor, speichern unter (auf alle Dateien stellen) , auf den Desktop speichern, Weiterleitung 301 htaccess auf google suchen, Den Text kopieren und in die htaccess Datei speichern. 
 Diese Datei muss dann auf den Server von Strato. FTP File Zilla öffnen. Verbindung herstellen und auf den ftp Server stellen.

robotstxt
robots, user agents, crawler
Was darf der Crawler sehen, was nicht, das kann man in der robotstxt festlegen. Es ist dann nicht im Index zu sehen.
Textdatei öffnen
user-agent: *  Disallow: /
in die Datei kopieren
Datei auf den Server. Die Seite kann nicht eingesehen werden.
Sollte man immer bei einem Aufbau einer neuen Seite machen.
In wordpress kann man ein Häkchen Einstellungen Lesen setzen. In blogspot unter Einstellungen - Sucheinstellungen angeben.
Man kann auch einzelne Seiten oder pdf´s ausschliessen. Parameter findet sich unter

Robots Exclusion Standards

weitere Parameter/Metaangaben für die robots-Datei sind:
revisit after  (bei Newsagenturen sehr wichtig - komm jeden Tag vorbei)
Darf man nicht missbrauchen. Weitere meta-Tags findet man unter

http://www.meta-tags.de

Sitemap.xml

http://de.wikipedia.org/wiki/Sitemaps-Protokoll

nicht zu verwechseln mit sitemap html (Seite auf Website zur Inhaltsübersicht)
Hiermit ist die Karte für den Crawler gemeint. Eine Auflistung der einzelnen Unterseiten und Dateien, die es gibt auf der Seite. Hierfür gibt es sitemap Generatoren wie z.B.

http://www.xml-sitemaps.com/http://www.xml-sitemaps.com/

 sitemap.xml und die gezippte sitemap.xml. gz in Ordner auf Server packen. 
Muss regelmäßig aktualisiert werden,

Bei wordpress gibt es ein Plug-in.
  • Plugs anklicken
  • seo eingeben 
  • seo by yoast-Plug in  installieren 
Das plug in wird jedes Mal, wenn ein neuer Beitrag geschrieben wurde, aktualisiert.

Webmastertool

Die Webmastertools stellen Analysen und Tools zur Verfügung, damit man eine stabile, Google-freundliche Website erstellen können.
https://www.google.com/webmasters/tools/message-list?hl=de&siteUrl=http://www.die-meisterkoeche.de/&message-filter=all 

Webmaster Tool E-Book

Unseren Blogspot können wir auch mit dem Webmastertool verbinden, indem wir gehen auf
  • Neue Website hinzufügen
  • Alternative Methoden
  • Metatagszeile kopieren  
  • ins Blogspot gehen
  • Vorlage
  • html bearbeiten
  • kopierte Zeile  irgendwo im head vor body einfügen.


RSS Feed   neueste Nachrichten und Infos von Websites in Kurzform bündeln mit dem Feedreader   (kann man kostenlos installieren).
Perma-Link permanenter Link auf einen Beitrag oder Unterseite. Sollte so kurz wie möglich sein.
URL             Top Level ID

1 Kommentar:

  1. Super !! gute Zusammenfassung !!!
    --für mich super die steps für >>> Unseren Blogspot mit dem Webmastertool verbinden >>> weil ich dies verpasst hatte
    danke!!!

    AntwortenLöschen