NETZADRESSE BLOG

Do it yourself SEO – Tipps für Kleinunternehmen

29.10.2018, letztes Update am 12.11.2018

In den kommenden Wochen wollen wir euch jeweils montags Tipps zum Thema SEO (Suchmaschinen- Optimierung) geben. Zielgruppe sind alle die, die die Auffindbarkeit ihrer Homepage im Netz etwas verbessern möchten,  sich aber keinen Suchmaschinenspezialisten leisten wollen/ können.

Vorarbeiten auf der Webseite

Eine Homepage haben inzwischen die meisten Firmen. Was aber vielen nicht klar ist: der Text auf der Seite wird nicht nur von den Kunden gelesen, sondern auch von den Suchmaschinen. Also sollten alle Schlüsselbegriffe (Keywords) hier zu finden sein. Meta-Tags waren gestern, der Seiteninhalt zählt.

Was sollte die eigene Webseite also beantworten?

Es sind die klassischen W-Fragen:

- Was biete ich an, Produkt oder Dienstleistung?
- Worüber biete ich es an: Infoseite, Blog, Shop?
- Wo bin ich zu finden: Standort oder nur im Netz?

Klingt leicht, ist es aber nicht und wird gerne unterschätzt. Um, zumal als kleines Unternehmen, gefunden zu werden, muss man sich nämlich differenzieren und sehr genau herausarbeiten, wie man denn vom Kunden gefunden werden kann.

Ein Beispiel:

„Babykleidung Wien“ sagt eigentlich gar nichts aus, das könnte ein Fachgeschäft sein, ein Second-Hand Onlinehändler oder eine Hobby-Handarbeiterin. Außerdem konkurriert man hier mit allen großen Ladenketten und wird sicher in der Suchmaschine nicht oben gelistet sein.

„Fachgeschäft für Babykleidung in 1050 Wien“: schon viel besser, Geschäftsart ist klar und zumindest schon einmal der Bezirk.

„Fachgeschäft für Babykleidung in der Schloßgasse 111, 1050 Wien (Mo – Sa. 10 – 15 Uhr). Wir führen die Marken Storch, Hotzenplotz und Biene Maja. Wir beraten sie gerne.“ So, allmählich passt es: das genaue Angebot ist bekannt, und die Kunden (und die Suchmaschinen) wissen, wo ihr seid, und was sie bei euch finden können.

Diese Vorbereitung ist wichtig, und es lohnt sich, Zeit zu investieren um herauszufinden, was das eigene Angebot unverwechselbar macht. Nehmt euch also am besten einen Block und notiert einmal, was ihr anbietet und – das ist der Trick – wie ein Kunde vermutlich danach fragen würde.

Wenn ihr auf gute Inhalte gekommen seid, setzt diese auf eurer Seite mit Texten (die die Keywords enthalten), Bildern und Videos um. Denn guter Content ist das A und O für die gute Auffindbarkeit in den Suchmaschinen.

„robot.txt“ und „sitemap.xml“ – Hilfsdateien für Suchmaschinen

„Bot“, „Spider“ und „Crawler“ – was klingt wie die Besetzung des letzten Netflix Horrorstreifens sind in Wahrheit Programme von Suchmaschinen, die von Zeit zu Zeit eine Webseite auf Neuigkeiten und Änderungen durchsuchen. Google & Co. erfahren so, welchen Inhalt eine Seite hat, was angeboten wird, wo die Dienstleistungen zu finden sind. Kurz, die Suchmaschinen filtern hier die Informationen heraus, mit denen deine Seite im Netz gefunden wird. Daher ist ja, wie im vergangenen Blogeintrag beschrieben, guter und exakter Text so wichtig.

Die kleinen Helfer gehen dabei sehr systematisch vor: ausgehend von der Hauptseite hangeln sie sich durch die internen Verlinkungen und besuchen so nach und nach auch alle Unterseiten, auf denen sie interessanten Content vermuten.

Um ihnen dabei ein bisschen unter die Arme zu greifen, aber auch, um eventuell einige Inhalte zu schützen, bietet es sich an, zwei Dateien, die das Crawlen (so heißt das Durchsuchen nämlich) und das Indexieren (das Melden relevanter Inhalte) erleichtern, auf deinem Server hochzuladen.

 

1. „robots.txt“

Diese Datei stellt die Verkehrsregeln auf, nach denen sich die Bots auf deiner Seite bewegen dürfen.

Es ist eine reine Textdatei, am besten erstellst du sie mit einem Texteditor, den du in der Programmsuche nach Eingabe von „Editor“ finden solltest. Abgelegt werden muss die Datei  dann zwingend unter dem Namen  „robots.txt“ im Root-Verzeichnis –  das ist die erste Ebene auf deinem Webserver, auf der die Hauptdatei deiner Webpräsenz liegt.

Der Aufbau eines Kommandos innerhalb der Datei ist dabei verbindlich vorgegeben:

Zunächst einmal wird hinter dem Codewort „User-agent“ angegeben, auf welchen Suchmaschinen-Bot sich die danach folgende Anweisung bezieht. Schließlich gibt es nicht nur den berühmten GoogleBot, sondern auch den Bingbot, den Yandex Bot, den DuckDuckBot und und und…. Wer alle Bots mit einem Kommando ansprechen will setzt einfach das Zeichen „*“.

Im zweiten Teil folgt dann das eigentliche Kommando. Grundsätzlich gilt: ein Bot geht zunächst einmal davon aus, dass er auf einer Seite alles darf. Das muss man also nicht erwähnen. Ausdrücklich aufgeschrieben werden muss nur, was er nicht darf. Das Codewort hier lautet entsprechend „Disallow“.

Hier ein Beispiel:

User-agent: Suchmaschinen-Bot1
User-agent: Suchmaschinen-Bot2
Disallow: /images*/

User-agent: *
Disallow: /

Für Suchmaschinen-Bot1 & 2 sind alle Verzeichnisse gesperrt, die mit „images“ beginnen. Alle andren Bots müssen ganz draußen bleiben.

Es gibt zahlreiche Varianten und Kombinationsmöglichkeiten, die den Rahmen dieses Blogbeitrags sprengen. Für alle Normalsterblichen empfiehlt es sich deshalb, zum Erstellen einer robots.txt-Datei einen entsprechenden Robots.txt-Generator zu verwenden. Einfach im Web danach suchen, es gibt mehrere Angebote.

Wer sich herantraut, eine solche Datei selber zu schreiben, findet unter https://wiki.selfhtml.org/wiki/Grundlagen/Robots.txt eine  gute Arbeitsanleitung und unter https://developers.google.com/search/reference/robots_txt vertiefte Informationen zur Syntax und zu möglichen Befehlen.

 

2. sitemap.xml

Diese Datei ist so etwas wie das speziell für die Bots geschriebene Inhaltsverzeichnis eurer Webpräsenz. Auch hier sind Name und Dateiendung verbindlich vorgegeben. Die Datei muss dann ebenfalls ins Root-Verzeichnis der eigenen Domain hochgeladen werden.

Ist das abgeschlossen, müssen in diesem Fall die Suchmaschinenbetreiber darüber informiert werden, dass eine solche Datei vorliegt. Dies erfolgt über die Webmaster Tools  der jeweiligen Betreiber, wie zum Beispiel die Google Search Console (genaue Beschreibung unter https://support.google.com/webmasters/answer/183668?hl=de).

Außerdem macht es Sinn, die Datei in der robots.txt-Datei anzukündigen. Hierzu wird in die allererste Zeile eingetragen:

sitemap: http://www.meinedomain.meineTLD/sitemap.xml

In der sitemap.xml-Datei selber müssen immer die folgenden Informationen zwischen den entsprechenden Codeworten (Tags) gelistet sein:

<urlset>, </urlset>: öffnet und schließt die Datei und listet den aktuellen Protokollstandard

<url>, </url>: sind URL-Einträgen übergeordnet und bezeichnen Anfang und Ende einer aufgeführten Webseite/ Unterseite

<loc>, </loc>:  mit diesem Tag werden die einzelnen Seiten Deiner Webpräsenz gekennzeichnet. Die URL muss immer mit dem Protokoll (z. B. „http“, „https“) beginnen und mit einem abschließenden Schrägstrich enden.

Optional können außerdem die folgenden Informationen eingefügt werden:

<lastmod>, </lastmod>: Datum (W3C-Format) der letzten Änderung einer Seite

<changefreq>, </changefreq>:  allgemeine Info, wie häufig du deine Seite aktualisierst

<priority>, </priority>: die Wichtigkeit der speziellen Seite innerhalb deiner Webpräsenz; als Wert können 0,0 (unwichtig) bis 1,0 (sehr wichtig) gesetzt werden

Es ist sehr komplex, die „sitemap.xml“-Datei selber zu erstellen. Auch hier gibt es aber entsprechende XML-Sitemaps-Generatoren im Netz. Wer unbedingt will, findet eine gute Anleitung zum händischen Erstellen einer sitemap.xml-Datei ist zu finden unter https://www.onlinesolutionsgroup.de/blog/sitemap-xml-erstellen-optimieren-fehler-beheben/.

Wenn du ein Content Management System oder ein Shopsystem verwendest, ist häufig ein Sitemap-Generator integriert, der euch die Arbeit abnimmt.


Viel Spaß beim Tüfteln!
Und in der kommenden Woche geht es dann um das Thema Navigation auf der Webseite.

Kurz aber wichtig: der Meta Title

Eigentlich ein einfach zu verstehender Bestandteil einer Seite, klar definiert, leicht einzubauen. Und dennoch eine der größten Herausforderungen für einen rankingrelevanten Aufbau deiner Webseite: der Meta Title.

Er ist das einzige Element des Headers innerhalb des HTML-Dokuments, das für jeden Nutzer sofort zu erkennen ist. Der Text zwischen den beiden Tags  <title> und </title> ist nämlich auf dem im Webbrowser geöffneten Tab zu lesen.

Seine Bedeutung geht aber tiefer: der Meta Title ist neben guten Content das wichtigste rankingrelevante Textelement der Seite. Außerdem wird er  für die Search Snippets in den SERPs (Search Engine Result Page = Suchergebnissen) verwendet und kann, wenn er den Suchenden neugierig genug macht, zu zusätzlichen Klicks auf die Webseite führen.

Soweit – so schön, gäbe es da nicht eine Herausforderung: das ganze inhaltliche Zauberwerk muss mit max. 70 Zeichen bewerkstelligt werden!

Der Meta Titel wird individuell für jede einzelne Seite der gesamten Webpräsenz erstellt und beschreibt möglichst präzise
•    wer du bist
•    was dich einzigartig macht
•    was du generell auf deiner Internetpräsenz anbietest
•    was du speziell auf dieser Seite anbietest

Und das, wie gesagt, in 70 Zeichen? Da ist Kreativität gefragt!

Grundsätzlich solltest du das wichtigste Schlüsselwort der jeweiligen Seite identifizieren, dieses sollte auf jeden Fall im Meta Title auftauchen. Und es sollte so weit wie möglich vorne stehen. Und es sollte sich nicht für eine andere Unterseite deines Internetauftritts wiederholen.  

Ein Beispiel: die netzadresse.at bietet Domains, Hosting und Website Builder an. Sinnvollerweise sollte die Unterseite mit der Domainsuche dann also heißen.
<title>Domains von netzadresse.at</title>
Treffend, aber nicht sehr animierend, der Titel sollte also noch angepasst werden, z.B.
<title>Domains von netzadresse.at: Klassiker und nTLDs, günstige Preise</title>

Wer weitere Anregungen braucht: Google gibt auf seinen Hilfeseiten für Webmaster Anregungen zur Formulierung von Meta Titles:
https://support.google.com/webmasters/answer/35624?rd=1