Zum Inhalt springen

Neuste Kommentare

  • Alexander Krüger: Hi Ich hab n Frage…Wenn ich bei adfly links... 26. September 2016
  • Rolf: Hallo Uli, ich bin auf W7 auf W10 umgestiegen und hatte wieder die... 14. August 2016
  • Seba: Funktioniert nicht mit der aktuellen Version von VLC 2.2.4 Weder mit der... 6. Juli 2016

Archiv

Kategorie: Html & CSS

Der 4. Teil meiner SEO-Serie behandelt die SEO-Optimierte Linkstruktur eurer Site.

Hierbei gibt es mal wieder einiges zu beachten damit Google eure Seite optimal Crawlen und damit auch indizieren kann. Wie bei den meisten SEO-Tipps dürft Ihr aber auch hier nicht die Benutzerfreundlichkeit der Seite vergessen.

Zudem  Helfen die meisten Tipps dem User bei der Orientierung auf der Seite. Gerade in einem Blog betreten die meisten Leser den Blog nicht über die Startseite, sondern über eine thematisierte Unterseite. Von hier aus soll sich dann natürlich jeder zurechtfinden.

Denkt also auch immer daran, dass das wichtigste neben dem SEO die Zufriedenheit der User und/oder Leser ist, denn es gilt „nur eine zufriedener Besucher kommt auch wieder“ ;). weiter lesen…

In dem 3. Teil meiner SEO-Serie möchte ich auf die Suchmaschinen allgemein eingehen. Hier geht es darum den Suchmaschinen den richtigen Weg zu weisen.

Es gibt diverse Möglichkeiten die Seiten eurer Site besser bei Google & Co bekannt zu machen und dafür zu Sorgen, dass diese besser und einheitlicher indiziert werden.


Robots Meta-Tag

Dieses Meta-Tag weist Suchroboter, Sogenannte Crawleran in bestimmter Weise mit Euren Seiten umzugehen. Habt aber immer im Hintergrund, dass sich sicherlich nicht alle Suchmaschinen an die Vorgehensweise des Robots-Tags halten und es dadurch nicht sichergestellt ist, dass z.B. eine Seite mit noindex nicht doch in irgendeiner Suchmaschine indiziert wird.

Beispiel:

weiter lesen…

Im zweiten Teil meiner Reihe SEO-Maßnahmen geht um das Thema Performance. Google hat sich nach einschlägiger Meinung für das Jahr 2010 vorgenommen Websites speziell auf die Performance hin zu messen und zu bewerten. Wir können also davon ausgehen, dass sogar der Pagerank-Algorithmus hierbei großen Veränderungen unterliegt.


Google zeigt uns die Schwächen auf

Google zeigt seit neuestem in den Webmaster-Tools die sogenannte Website-Leistung an. Diese gibt euch einen Eindruck davon wie die User den Aufbau der Seite empfinden und wie Ihr im Vergleich zum restlichen Web dasteht. Zudem gibt es ja schon seit langem unter dem Bereich Crawling-Statistiken den Punkt „Dauer des Herunterladens einer Seite„. Dieser gibt halt an wie lange Google für das Herunterladen einer Seite benötigt. Im ersten Fall wird also die Zeit gemessen, welche der User warten muss (schätzungsweise inkl. OnLoad-Ereignissen) und die zweite Zeit gibt an wie schnell die Seiten (oder besser gesagt die Bytes) heruntergeladen werden. weiter lesen…

Da die User wie auch Google immer mehr Wert auf die Lade-Geschwindigkeit einer Seite legen sollte man als Webenwickler, wie auch als Webdesigner seine Seiten möglichst so gestalten, dass sie schnell vom Server an den Client ausgeliefert werden können. Die zwei Grundlegenden Dinge hierfür sind:

  1. So wenig Content wie möglich
  2. So wenig HTTP-Requests wie möglich.

Für den ersten Punkt gibt es diverse Ansätze. Als erstes solle natürlich der generierte HTML-, CSS- und JavaScript-Code so gering und komprimiert wie möglich gestaltet werden. Zu diesem Thema und gerade zum Punkt Komprimierung von JavaScript und CSS mit Hilfe des Closure Compilers von Google habe ich heute ja schon einen kleinen Artikel verfasst. weiter lesen…