CMS, Bookmarking, Webcrawler, Webmaster, Highlighter, Datenspeicherung, Permalink, ...
Bookmarking-systems:
bsp: Never lose a link again – siehe delicious.com - speichern, organisieren und
entdecken von interessanten Links
First steps:
Anmeldung … my links … new link
(meine URL eingeben) … text eingeben (Keywords) …. Kommentar eingeben (… lsdkfjöa
…, mit Verweis auf Public, Twitter, FB, …)
dropbox.com - Tool zur
Datenspeicherung und -organisation
Bewahren Sie
Ihre Dateien sicher auf.
Geben Sie
Ihre Daten sicher frei.
Verwalten
Sie Ihr Team.
Webmaster tool von Google - offpage optimierung
google.com/webmasters/tools/home
Website
hinzufügen --- URL der
Website oder des Blogs eingeben
Mögl. Website-Einstellungen -- Geografisches Ziel, bevorzugte Domain,
crawling geschwindigkeit, …
Unterscheide:
HTML site map --- Seitenaufbau, ist für den Leser gedacht
(bsp: e-lunte.de)
XML site map ---maschinensprache,
ist nur für den suchmaschinen crawler
relevant
Erstelle eine XML sitemap mit
dem kostenlosen sitemap generator: http://www.xml-sitemaps.com/
Sign URL …. Und verifiziere deine website (HTML code im Head –bereich der
Website einfügen)
Die
Stammdomaine ist auf dem Stammordner
des Servers abgelegt.
Stammdomaine=Topleveldomaine
/ Unteseite 1 / Unterseite 2 / Unterseite n
Pfad 0 = linktiefe 0 / linktiefe 1 / linktiefe 2
/ …
Negativ-bsp: Hier steht die Topleveldomain mit der
Linktiefe 2 in Netz, statt mit der Linktiefe 0:
„Thebridge-online.com/index-php/de”
Hier muss der Crawler alle seiten durchsuchen, bis er auf level 2 erst fündig wird – statt aif level
0 .
Ein neuer Beitrag bedeutet: eine neue sitemap muss generiert werden
>> dies erledigen die Content
Management Systeme automatisch (z.b. Wordpress, Joomla, Drupal und TYPO3)
Aboniere Posts in deinem Blog … kopiere „URL/feeds/post/default“ …. und
setzte es im Webmaster tool unter dashboard als Sitemap ein. Dann siehst
Du unter aktueller Status neben den
Crawling-fehlern und Suchanfragen auch Deine übermittelten und indexierten
Sitemaps
Darstellung der Suche (im
Webmaster-tool):
Strukturierte Daten - …
Data Highlighter – um einen Event (Produkt) zu pushen.
Markierung starten
,
Seite auf lokale Prefernzen taggen,
Adr. Und Tel. eintragen (unter Einstellungen)
und
Veröffentlichen
(tagge Deine Infos auf Webmaster tool, um viele Unterrubriken im
universal search anzeigen lassen zu können. Aber letztendlich entscheidet
google allein, was angezeigt wird und was nicht.)
Suchanfragen (im
Webmaster-tool):
z.B. Häufigste
Suchanfragen (Suchanfragen, Impressionen, Klicks)
… wenn hier
die Suchanfragen negative Werte haben, sollte man aktiv werden
Prüfe, welche Keywords optimiert
werden sollten, mit :
http://cuterank.net/ --- check and track your keyword rankings!
Suchanfragen – Links zu Ihrer
Website (im Webmaster-tool):
Der Crawler nimmt alles mit der Zeit auf. Wenn hier
etwas frisches angelegt wird, dauert es ein paar Tage, bis es im Tool
erscheint. Wenn die Seite/das Blog permanent verändert wird, sind die Chancen
gut, von Crawler ausgelesen zu werden.
Suchanfragen – Interne Links
Suchanfragen – manuelle Maßnahmen
Google index (im Webmaster-tool):
Indexierungsstatus
Idealer verlauf – stetig ansteigende Kurve
Zu vermeidender Verlauf – Zickzack-kurve oder horizontaler Verlauf
(hier wird eine inaktivität deutlich)
Google index – content -Keywords (im Webmaster-tool):
Hier wird angezeigt, wie google meine Keywords einstuft
Google index - URL entfernen (im Webmaster-tool):
Z.b. bei Crawling-fehlern… stelle einen Antrag auf „URL entfernen“ und achte darauf, dass die URL mit dem
entsprechenden level angezeigt wird, damit nicht die gesamte URL verschwindet
bzw. aus dem gesamten Verzeichnis gelöscht wird.
Robots-txt –datei:
In einer Datei dieses Namens können Betreiber von Web-Projekten
angeben, welcher Such-Robot welche Projektverzeichnisse auslesen darf und
welcher was nicht lesen darf. Die Datei enthält also Anweisungen für Robots von
Suchmaschinen (siehe : http://de.selfhtml.org/diverses/robots.htm)
Bsp: nicht freigegeben zum Auslesen:
#global
User agent*
Disallow…
…
Bsp: freigegeben zum Auslesen:
#global
User agent*
Allow…
…
(das was in der Metadatei steht ist nu rein Vorschlag, das was in der
robots-txt datei steht wird beachtet)
Crawling (im Webmaster-tool):
Anzeige von Crawling-fehlern,
Anzeige von Crawling-Statistiken (Dauer des Herunterladen einer Seite,
sollte nicht 2 sec. Überschreiten)
Blockeirte URL-s
Sitemaps
URL Parameter
Wikipedia.de –Auszüge:
Als Sitemap
rsp. Site-Map, seltener auch: Seitenübersicht, wird die
vollständige hierarchisch strukturierte Darstellung aller
Einzeldokumente (Webseiten) eines Internetauftritts
bzw. einer Website
bezeichnet (Seitenstruktur). Im Idealfall zeigt die Sitemap auch die
hierarchischen Verknüpfungsstrukturen der Seiten an. Eine Sitemap wird von
den Betreibern einer Website zur Verfügung gestellt, um den Besuchern einen
Überblick zu geben, welchen Umfang und welche Struktur ein
Webauftritt hat. Bei sehr umfangreichen Internetaufritten können in der Sitemap
nicht mehr alle Einzeldokumente angezeigt werden, so dass man sich auf die
Darstellung der hierarchischen Struktur beschränkt.
Ein HTTP-Statuscode
wird von einem Server
auf jede HTTP-Anfrage als Antwort geliefert. Auf
der anfragenden Seite steht dabei ein Client wie
beispielsweise ein Internetbrowser. Der Server teilt durch den
HTTP-Statuscode dem Client mit, ob die Anfrage erfolgreich bearbeitet wurde. Im
Fehlerfall gibt der Statuscode Auskunft darüber, wo (beispielsweise über einer
Umleitung) bzw. wie (zum Beispiel mit Authentifizierung) er die gewünschten
Informationen erhalten kann. Am bekanntesten sind dabei die Codes 404, 403 und
400.
Webcrawler sind eine spezielle Art von Bots, d. h. Computerprogrammen, die weitgehend autonom sich wiederholenden Aufgaben nachgehen.
Tool zur Erstellung von
professionellen Webauftritten für alle (domains, Homepage-baukasten,
hostsing, webshop, …), siehe https://www.strato.de/
Ab Montag:
Weiter mit offpage optimierung
Onpage optimierung
URl anzeige mit oder ohne WWW