Mittwoch, 15. Oktober 2014

Onpage SEO / HTML 2

Hoster
Domain
HTML 2: .htacces, sitemap.xml, robots.txt



Hoster: z.B. Strato, 1&1, allinkl, domaingo
-> stellen Server bereit auf denen meine Website liegt

Domain: z.B. .de Domain wird von der Denic vergeben (www.denic.de)
Von denen bekommen wir eine Adresse zugeordnet und diese liegt dann auf den Servern der Denic.
Grund: Denic Server haben höhere Upload Raten, erforderlich damit andere meine Website schnell laden können


HTML 2
Dem Suchmaschinen Crawler muss gesagt werden, dass er bestimmt Seiten nicht berücksichtigen soll
Dafür benötigen wir folgende Dateien:


.htacces -> zeigt den konkreten Weg zu unserer Website (Pizzeria)
sitemap.xml -> zeigt dem Crawler welche Bereiche unserer Website er berücksichtigen darf
robots.txt -> Crawler bekommt eine Datei damit erschneller mit unserer Website zurecht kommt
                    (Speisekarte Pizzeria), Crawler hat nur begrenz zeit unsere Seite zu scannen

.htacces
Müssen wir auf unseren Server hochladen (bei blogspot nicht möglich)
Wichtig: www Klärung! website muss mit www und ohne zur der selben Seite gelangen

Textdatei öffnen, speichern unter, dateityp alle dateien, name: .htacces
-> gehören in das root verzeichnis unseres servers (mit index.html datei) beim Hoster

www Klärung: Code 301
RewriteEngine On
Options +SymLinksIfOwnerMatch
RewriteCond %{HTTP_HOST} ^www.eure-Domain.de
RewriteRule (.*) http://eure-Domain.de/$1 [R=301,L]

404 Fehler-> auf nicht gefunden Seite umleiten:
auch dort sollte Marketing betrieben werden z.B. mit Bitte um Meldung des Fehlers im gegenzug 5€ Gutschein schenken

Code 403: Die Anfrage wurde mangels Berechtigung des Clients nicht durchgeführt.

Code 500: Sammelstatuscode für unerwartete fehler 

Weitere Codes werden hier erklärt

robots.txt

Wikipedia Link

Disallow: /default.html
-> sagt dem Crawler dass er bestimmte Unterseiten nicht berücksichtigen darf

z.B.
# Diese Verzeichnisse/Dateien sollen nicht durchsucht werden
User-agent: *
Disallow: /default.html
Disallow: /Temp/ # diese Inhalte verschwinden bald
Disallow: /Privat/Familie/Geburtstage.html # Nicht geheim, sollen aber nicht in Suchmaschinen gelistet werden.


-> ebenfalls ins Root Verzeichnis laden

Diese Befehle können auch in die HTML Metaangaben integriert werden.
Wie es funktioniert zeigt folgender Link
Besser: die Datei anlegen und sie ins Root Verzeichnis legen

Wenn die Description überschrieben werden sollte / nicht so aussieht wie wir sie angelegt haben:
-> google liest die description z.B. aus dem dmoz-verzeichnis aus

dmoz verzeichnis: ähnlich wie wikipedia autoren schreiben z.B. über websites
ist für google ein wichtiges verzeichnis und wird der eigens erstellten description vorgezogen

-> wenn man es nicht möchte muss folgende metaangabe gemacht werden:
<meta name="robots" Content=Noodp ODER noydir

sitemap.xml

-> Speisekarte unserer Website, der Crawler kann schneller erkennen welche Seiten er noch nicht kennt / er noch dem großen Bruder melden muss / er bleibt nur bestimmte zeit auf unserer Seite in der er die daten erfassen kann

Die Sitemap kann mit einem Generator erstellt werden

bei diesem generator muss die internetseite eingegeben werden
change frequnecy nicht verändern (none)
sitemap.xml und sitemap.xml.gz runterladen

-> ebenfalls im Root Verzeichnis ablegen

ans Root verzeichnis des Host gelangen
z.B. über ftp programm oder direkt beom Hoster einloggen





Keine Kommentare:

Kommentar veröffentlichen