Hier findet man alles über html-Erklärung und Metaangaben.
Über einen Text-Editor :
Editor aufrufen
html-Code eingeben
Speichern unter
Dateiname .html
Codierung auf UTF-8
head Kopf, Reitertext
body alles, was auf der Website zu sehen ist
H1 1. Headline, pro Seite gibt es nur eine erste Headline.
H2-H6 kann beliebig oft eingesetzt werden pro Seite, dient der Strukturierung der Copy.
br Zeilenumbruch break
p paragraph, Copy Abschnitte
b fett
table td, tr Tabelle
ul Listenelement
img Image, Bild
src source Quelle des Bildes
alt Name des Bildes
Title Text, der erscheint, wenn man das Bild mit der Maus berührt
a href=" Hyper reference link
target neue Seite aufmachen oder Seite überschreiben
rel=nofollow Crawler folgt dem link nicht
div Container - Kommentare
Man sollte einen ausgewogenen Mix aus follow und nofollow links haben.
Keyword-Density kann man über SEOQUAKE herausfinden. 2-6% , 2-3% sind normal, 65
% bei großer Konkurrenz mal einsetzbar.
Auf jeder Unterseite sollte man 1-2 Keywords auswählen, die inhaltlich passen
White hat richtlinienkonforme Programmierung
grey hat Grauzone, container - Kommentare in der html-Programmierung, die eigentlich nur für einen selbst bestimmt sind, die man aber mit keywords füllen kann, wird von crawlern wahrgenommen. Oder weiße Schrift auf weißem Fond, wird nicht gesehen, aber von crawlern wahrgenommen.
black hat no go, man produziert z.B. 100te oder 1000te von Backlinks für den Konkurrenten und löscht diese am nächsten Tag wieder, das ein paar Mal wiederholt, hat zur Folge, dass der Konkurrent viele Plätze nach hinten rauscht, weil das Wachstum nicht normal ist.
Metaangaben allgemeine Angaben für das Dokument
Metadescription wird von google ausgelesen und ist sehr wichtig
Meta keywords sollte man ausfüllen, ist aber für google nicht mehr relevant
Metaangaben bzgl. robots
metaname="robots " content="noindex, nofollow" nur bei Baustellenwebsites, wo man nicht möchte , dass crawler die Seite lesen. Ansonsten niemals diese Einstellung bei laufenden Websites, keine Indexierung, keine Besucher. Spezielle Seiten kann man aber für crawler nicht zugängig machen, wie Impressum, AGB´s, kein interessanter content. ;Man hilft den crawlern, schnell herauszufinden, welche Seiten interessant sind, welche nicht.
Viewport ist der Teil, der im Browserfenster zu sehen ist. Man kann Container außerhalb des Viewports setzen, die nicht sichtbar, aber dennoch von google wahrgenommen werden.
Spidersimulator
Ist ein SEO Tool, um zu sehen, was Suchmaschinen auf der Website sehen, nämlich kein Flash, häufig keine Bilder (weil alt Angaben fehlen), falsche Keywords am Anfang, etc. Gutes Optimierungstool.
WICHTIG
Hier findest Du die 200 Google Suchkriterien:
200 Google Suchkriterien auf Onlinemarketing.de
Sehr wichtig für google:
- Domain
- H1 Headline
- Descriptions
Keine Kommentare:
Kommentar veröffentlichen