Dienstag, 5. November 2013

Tag 11 - Online Marketing - Webmaster tools


CMS, Bookmarking, Webcrawler, Webmaster, Highlighter, Datenspeicherung, Permalink, ...

Bookmarking-systems:
bsp: Never lose a link again – siehe delicious.com - speichern, organisieren und entdecken von interessanten Links
A giant collection of the best pages on the Internet - siehe stumbleupon.com
First steps:
Anmeldung … my links … new link (meine URL eingeben) … text eingeben (Keywords) …. Kommentar eingeben (… lsdkfjöa …, mit Verweis auf Public, Twitter, FB, …)

dropbox.com  - Tool zur Datenspeicherung und -organisation
Bewahren Sie Ihre Dateien sicher auf.
Geben Sie Ihre Daten sicher frei.
Verwalten Sie Ihr Team.

Webmaster tool von Google - offpage optimierung
google.com/webmasters/tools/home

Website hinzufügen --- URL der Website oder des Blogs eingeben

Mögl. Website-Einstellungen -- Geografisches Ziel, bevorzugte Domain, crawling geschwindigkeit, …

Unterscheide:
HTML site map  --- Seitenaufbau, ist für den Leser gedacht (bsp: e-lunte.de)
XML site map ---maschinensprache,  ist nur für den suchmaschinen crawler relevant

Erstelle eine XML sitemap mit dem kostenlosen sitemap generator: http://www.xml-sitemaps.com/
Sign URL …. Und verifiziere deine website (HTML code im Head –bereich der Website einfügen)
Die Stammdomaine ist auf dem Stammordner des Servers abgelegt.

Stammdomaine=Topleveldomaine / Unteseite 1 / Unterseite 2 / Unterseite n
Pfad 0 = linktiefe 0                               /    linktiefe 1 /    linktiefe 2  / 

Negativ-bsp:  Hier steht die Topleveldomain mit der Linktiefe 2 in Netz, statt mit der Linktiefe 0:
„Thebridge-online.com/index-php/de”
Hier muss der Crawler alle seiten durchsuchen, bis er  auf level 2 erst fündig wird – statt aif level 0 .

Ein neuer Beitrag bedeutet: eine neue sitemap muss generiert werden
>> dies erledigen die Content Management Systeme automatisch (z.b. Wordpress, Joomla, Drupal und TYPO3)

Aboniere Posts in deinem Blog … kopiere „URL/feeds/post/default“ …. und setzte es im Webmaster tool unter dashboard als Sitemap ein. Dann siehst Du unter aktueller Status neben den Crawling-fehlern und Suchanfragen auch Deine übermittelten und indexierten Sitemaps

Darstellung der Suche (im Webmaster-tool):
Strukturierte Daten - …
Data Highlighter – um einen Event (Produkt) zu pushen.
                Markierung starten ,
               Seite auf lokale Prefernzen  taggen,
               Adr. Und Tel. eintragen (unter Einstellungen) und
               Veröffentlichen

(tagge Deine Infos auf Webmaster tool, um viele Unterrubriken im universal search anzeigen lassen zu können. Aber letztendlich entscheidet google allein, was angezeigt wird und was nicht.)
Suchanfragen  (im Webmaster-tool):
                z.B.  Häufigste Suchanfragen (Suchanfragen, Impressionen, Klicks)
                      … wenn hier die Suchanfragen negative Werte haben, sollte man aktiv werden

Prüfe, welche Keywords optimiert werden sollten, mit :
http://cuterank.net/ --- check and track your keyword rankings!

Suchanfragen – Links zu Ihrer Website (im Webmaster-tool):
Der Crawler nimmt alles mit der Zeit auf. Wenn hier etwas frisches angelegt wird, dauert es ein paar Tage, bis es im Tool erscheint. Wenn die Seite/das Blog permanent verändert wird, sind die Chancen gut, von Crawler ausgelesen zu werden.

Suchanfragen – Interne Links
Suchanfragen – manuelle Maßnahmen

Google index  (im Webmaster-tool):
Indexierungsstatus
Idealer verlauf – stetig ansteigende Kurve
Zu vermeidender Verlauf – Zickzack-kurve oder horizontaler Verlauf (hier wird eine inaktivität deutlich)

Google index – content -Keywords (im Webmaster-tool):
Hier wird angezeigt, wie google meine Keywords einstuft

Google index  - URL entfernen (im Webmaster-tool):
Z.b. bei Crawling-fehlern… stelle einen Antrag auf „URL entfernen“  und achte darauf, dass die URL mit dem entsprechenden level angezeigt wird, damit nicht die gesamte URL verschwindet bzw. aus dem gesamten Verzeichnis gelöscht wird.

Robots-txt –datei:
In einer Datei dieses Namens können Betreiber von Web-Projekten angeben, welcher Such-Robot welche Projektverzeichnisse auslesen darf und welcher was nicht lesen darf. Die Datei enthält also Anweisungen für Robots von Suchmaschinen (siehe : http://de.selfhtml.org/diverses/robots.htm)

Bsp:  nicht freigegeben zum Auslesen:
#global
User agent*
Disallow…

Bsp:  freigegeben zum Auslesen:
#global
User agent*
Allow…

(das was in der Metadatei steht ist nu rein Vorschlag, das was in der robots-txt datei steht wird beachtet)

Crawling  (im Webmaster-tool):
Anzeige von Crawling-fehlern,
Anzeige von Crawling-Statistiken (Dauer des Herunterladen einer Seite, sollte nicht 2 sec. Überschreiten)
Blockeirte URL-s
Sitemaps
URL Parameter


Wikipedia.de –Auszüge:

Als Sitemap rsp. Site-Map, seltener auch: Seitenübersicht, wird die vollständige hierarchisch strukturierte Darstellung aller Einzeldokumente (Webseiten) eines Internetauftritts bzw. einer Website bezeichnet (Seitenstruktur). Im Idealfall zeigt die Sitemap auch die hierarchischen Verknüpfungsstrukturen der Seiten an. Eine Sitemap wird von den Betreibern einer Website zur Verfügung gestellt, um den Besuchern einen Überblick zu geben, welchen Umfang und welche Struktur ein Webauftritt hat. Bei sehr umfangreichen Internetaufritten können in der Sitemap nicht mehr alle Einzeldokumente angezeigt werden, so dass man sich auf die Darstellung der hierarchischen Struktur beschränkt.

Ein HTTP-Statuscode wird von einem Server auf jede HTTP-Anfrage als Antwort geliefert. Auf der anfragenden Seite steht dabei ein Client wie beispielsweise ein Internetbrowser. Der Server teilt durch den HTTP-Statuscode dem Client mit, ob die Anfrage erfolgreich bearbeitet wurde. Im Fehlerfall gibt der Statuscode Auskunft darüber, wo (beispielsweise über einer Umleitung) bzw. wie (zum Beispiel mit Authentifizierung) er die gewünschten Informationen erhalten kann. Am bekanntesten sind dabei die Codes 404, 403 und 400.

Ein Permalink (von permanent und hyperlink, auch Permanentlink) im World Wide Web ist ein dauerhafter Identifikator in Form einer URL. Bei der Einrichtung eines Permalinks wird angestrebt, die einmal über ihn referenzierten Inhalte dauerhaft und primär über diese URL verfügbar zu machen

Ein Webcrawler (auch Spider oder Searchbot) ist ein Computerprogramm, das automatisch das World Wide Web durchsucht und Webseiten analysiert. Webcrawler werden vor allem von Suchmaschinen eingesetzt. Weitere Anwendungen sind das Sammeln von RSS-Newsfeeds, E-Mail-Adressen oder von anderen Informationen.
Webcrawler sind eine spezielle Art von Bots, d. h. Computerprogrammen, die weitgehend autonom sich wiederholenden Aufgaben nachgehen.


Tool zur Erstellung von professionellen Webauftritten für alle (domains, Homepage-baukasten, hostsing, webshop, …), siehe   https://www.strato.de/
  
Ab Montag:
Weiter mit offpage optimierung
Onpage optimierung
URl anzeige mit oder ohne WWW