UA-30115275-1

Latest News

the latest news from our team

Onsite-Optimierung

Onsite-Optimierung

Was Du selbst für gute Platzierungen tun kannst

Die Onsite-Optimierung ist ein Teilbereich der Suchmaschinenoptimierung (SEO). Nach der Analyse von Struktur und Inhalten Deiner Website gilt es, an den entsprechenden Stellen die zahlreichen Parameter der Webseite so zu verändern, dass sie optimal für Suchmaschinen auffindbar ist und sich deren Relevanz in Bezug auf die gewählten Suchbegriffe erhöht. Dabei werden die Massnahmen direkt auf Programmierebene im Quellcode der Website umgesetzt. Hier werden die zuvor analysierten Schlüsselwörter (Keywords), über die die Site gefunden werden soll, implementiert. Das Design Deiner Seite wird nicht tangiert.

In folgenden Bereichen sind Optimierungen im Quellcode möglich:

 

Title – Bei der Onsite-Optimierung ist die „Überschrift“ eines der wichtigsten Elemente. Der Seitentitel wird in den Suchergebnissen als Überschrift jedes Suchergebnisses angezeigt. Der Titel muss sowohl für Besucher als auch für Suchmaschinen gleichermassen aussagekräftig sein, für jede Seite individuell gestaltet.

Description – Das Description-Meta-Tag ist für die Trefferbeschreibung in den Suchergebnislisten von hoher Relevanz. Es muss die wichtigsten Begriffe in Form eines prägnanten, kurzen und clickstarken Fliesstextes enthalten. Individuell für jede Seite. Vermeide die blosse Aneinanderreihung von Schlüsselworten.

Content – Ohne relevante Seiteninhalte sind keine sinnvollen Suchergebnisse möglich. Internetseiten mit viel Content (Inhalt) zu relevanten Themen werden besser gewichtet, als Seiten mit zwei Bildern und einem Absatz Text. Dennoch ist auch hier zu beachten, Quantität ist nicht gleich Qualität. Bei Deinen Inhalten sollte es sich im Idealfall um „Unique Content“ handeln der zudem eine optimale Keyword-Dichte aufweist. Nur einzigartiger Content ist interessant und schafft einen Mehrwert, für Leser und Suchmaschine. „Content ist King“.

 

HTML-Tags – Achte beim Erstellen der Texte, dass die Inhalte mit Hilfe von HTML-Tags strukturiert werden, wie etwa wichtige Überschriften mit h1 (nur einmal pro Seite) und relevante Begriffe oder Passagen mit strong kennzeichnen, Links und Grafiken grundsätzlich mit title und alt Attributen versehen. (das ist html-kram aber wichtig J).

Keyword-Dichte – Die Inhalte allein sind für die hochwertige Optimierung nicht ausreichend. Der Schreibstil ist ausschlaggebend. Die richtige Wortwahl ist für Besucher wie auch für Suchmaschinen gleichermassen „lesbar“. Die Anreicherung um entsprechende Suchbegriffe sollte verhältnismässig sein, vermeide die Aneinanderreihung von Keywords. Optimiere jede Seite Deiner Website nur hinsichtlich eines Themas oder einer Keyword-Familie.

Grafiken – Gib jeder Grafik einen aussagekräftigen Dateinamen und einen für den Besucher aussagekräftigen Alternativ-Text, der den Inhalt der Grafik beschreibt. Der Alt-Text ist nicht nur für Besucher wichtig, die das Laden von Graphiken deaktiviert haben, sondern wird auch von Google und anderen Suchmaschinen ausgewertet.

Datei- und Verzeichnisnamen – Jedes Dokument Deiner Website muss einen aussagekräftigen Dateinamen bekommen. Hier liegt der Erfolg im Detail. Verwende bei der Vergabe von Dateinamen ausschliesslich Kleinbuchstaben und Zahlen um die entsprechenden Suchbegriffe einzubinden. Verzichte auf Leerzeichen, Umlaute und Sonderzeichen. Benutze keine Unterstriche, denn diese werden von Google nicht als Worttrenner gewertet.

URL-Parameter – Dynamisch generierte Websites, wie zum Beispiel Online Shops Foren und Portale bereiten den Suchmaschinen noch immer grosse Probleme bei der Indexierung. Die URLs weisen meist zahlreiche Parameter auf die für die Crawler (Suchmaschinenroboter) nicht auswertbar sind besonders schädlich sind ständig wechselnde Parameter, wie etwa eine Session-ID. Ein Lösungsweg für die Ausgabe “lesbarer” URLs bietet die Funktion „mod_rewrite“.(auch das html-Kram)

 

Session-IDs – Mit Hilfe von individuellen Session-IDs ist es möglich, den genauen Weg des Besuchers auf Ihrer Website zu protokollieren. Für Suchmaschinen sind diese IDs allerdings sehr nachteilig. Mit Hilfe eines Scripts, welches einen Crawler identifiziert und die Verwendung der Session ID in diesem Fall verhindert, kann Deine Website vollständig indexiert werden(html-kram).

Interne Verlinkung – Suchmaschinen orientieren sich auf Deiner Website anhand von Links. Achte auf eine übersichtliche und intelligente Linkstruktur. Verwende nur statisch aufrufbare, sprechende und aussagekräftige Textlinks, die einen konkreten Bezug zum Inhalt der verlinkten Zielseite haben. Links welche in JavaScript, Flash, Java Applets und Imagemaps eingebunden sind, können von den Suchmaschinen nicht ausgelesen werden.

Link-Platzierung – Ein weiteres sehr wichtiges Kriterium bei der Onsite-Optimierung ist die Platzierung der Links auf den jeweiligen Webseiten. Links innerhalb eines längeren Fliesstextes werden von den Suchmaschinen höher gewichtet als die alleinstehenden Links im Fussbereich der Seite (Footer). Eine hohe Wertigkeit nehmen zudem die Links der Hauptnavigation ein. Auch hier gilt: verwende aussagekräftige Textlinks, die einen unmittelbaren Bezug zur verlinkten Zielseite haben.

Ausgehende Links – Ausgehende Links auf Ihrer Website sind wichtig und werden von den Suchmaschinen zur Bewertung herangezogen. Die Wirkung für den Crawler ist höher, wenn die Website themenrelevant ist, auf die Sie verlinkt. Besucher und Suchmaschinen profitieren von hochwertigen ausgehenden Links. Websites, die gar keine oder nur wenige externe Links haben, werden im Netz meist als „Aussenseiter“ gesehen, auch von den Crawlern der Suchmaschinen.

Sitemaps – Sitemaps dienen als Orientierungshilfe, für Benutzer und Suchmaschinen. Der Vorgang der Indizierung durch die Crawler wird enorm erleichtert, die einzelnen Dokumente lassen sich schneller und in grösserem Umfang erfassen. Bei grossen Projekten mit entsprechenden Inhalten wie z.B. Online-Shops, Portalen oder Communities ist es mehr als ratsam zusätzlich zu den HTML-Sitemaps sog. XML-Sitemaps zu implementieren.(da kommt jetzt noch XML-kram dazu – uff).

Weiterleitungen – Suchmaschinenfreundliche Weiterleitungen ermöglichen es Crawlern diesen auch zu folgen. Bei solchen serverseitigen Formen der Weiterleitung, die meist über PHP erfolgen, wird zudem der bereits vorhandene Page Rank?? übertragen.

Robots txt – Die robots.txt ist eine Textdatei im Rootverzeichnis Ihres Webspaces und regelt, welche Suchmaschine welche Inhalte indexieren darf. So lassen sich genaue Richtlinien festlegen welche Bereiche oder einzelne Dokumente nicht erfasst werden dürfen.(frage Deinen Provider oder erkundige Dich beim Web-Verantwortlichen 🙂 .

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.