NETZADRESSE BLOG

Do it yourself SEO – Tipps für Kleinunternehmen

29.10.2018, letztes Update am 10.12.2018

In den kommenden Wochen wollen wir euch jeweils montags Tipps zum Thema SEO (Suchmaschinen- Optimierung) geben. Zielgruppe sind alle die, die die Auffindbarkeit ihrer Homepage im Netz etwas verbessern möchten,  sich aber keinen Suchmaschinenspezialisten leisten wollen/ können.

Vorarbeiten auf der Webseite

Eine Homepage haben inzwischen die meisten Firmen. Was aber vielen nicht klar ist: der Text auf der Seite wird nicht nur von den Kunden gelesen, sondern auch von den Suchmaschinen. Also sollten alle Schlüsselbegriffe (Keywords) hier zu finden sein. Meta-Tags waren gestern, der Seiteninhalt zählt.

Was sollte die eigene Webseite also beantworten?

Es sind die klassischen W-Fragen:

- Was biete ich an, Produkt oder Dienstleistung?
- Worüber biete ich es an: Infoseite, Blog, Shop?
- Wo bin ich zu finden: Standort oder nur im Netz?

Klingt leicht, ist es aber nicht und wird gerne unterschätzt. Um, zumal als kleines Unternehmen, gefunden zu werden, muss man sich nämlich differenzieren und sehr genau herausarbeiten, wie man denn vom Kunden gefunden werden kann.

Ein Beispiel:

„Babykleidung Wien“ sagt eigentlich gar nichts aus, das könnte ein Fachgeschäft sein, ein Second-Hand Onlinehändler oder eine Hobby-Handarbeiterin. Außerdem konkurriert man hier mit allen großen Ladenketten und wird sicher in der Suchmaschine nicht oben gelistet sein.

„Fachgeschäft für Babykleidung in 1050 Wien“: schon viel besser, Geschäftsart ist klar und zumindest schon einmal der Bezirk.

„Fachgeschäft für Babykleidung in der Schloßgasse 111, 1050 Wien (Mo – Sa. 10 – 15 Uhr). Wir führen die Marken Storch, Hotzenplotz und Biene Maja. Wir beraten sie gerne.“ So, allmählich passt es: das genaue Angebot ist bekannt, und die Kunden (und die Suchmaschinen) wissen, wo ihr seid, und was sie bei euch finden können.

Diese Vorbereitung ist wichtig, und es lohnt sich, Zeit zu investieren um herauszufinden, was das eigene Angebot unverwechselbar macht. Nehmt euch also am besten einen Block und notiert einmal, was ihr anbietet und – das ist der Trick – wie ein Kunde vermutlich danach fragen würde.

Wenn ihr auf gute Inhalte gekommen seid, setzt diese auf eurer Seite mit Texten (die die Keywords enthalten), Bildern und Videos um. Denn guter Content ist das A und O für die gute Auffindbarkeit in den Suchmaschinen.

„robot.txt“ und „sitemap.xml“ – Hilfsdateien für Suchmaschinen

„Bot“, „Spider“ und „Crawler“ – was klingt wie die Besetzung des letzten Netflix Horrorstreifens sind in Wahrheit Programme von Suchmaschinen, die von Zeit zu Zeit eine Webseite auf Neuigkeiten und Änderungen durchsuchen. Google & Co. erfahren so, welchen Inhalt eine Seite hat, was angeboten wird, wo die Dienstleistungen zu finden sind. Kurz, die Suchmaschinen filtern hier die Informationen heraus, mit denen deine Seite im Netz gefunden wird. Daher ist ja, wie im vergangenen Blogeintrag beschrieben, guter und exakter Text so wichtig.

Die kleinen Helfer gehen dabei sehr systematisch vor: ausgehend von der Hauptseite hangeln sie sich durch die internen Verlinkungen und besuchen so nach und nach auch alle Unterseiten, auf denen sie interessanten Content vermuten.

Um ihnen dabei ein bisschen unter die Arme zu greifen, aber auch, um eventuell einige Inhalte zu schützen, bietet es sich an, zwei Dateien, die das Crawlen (so heißt das Durchsuchen nämlich) und das Indexieren (das Melden relevanter Inhalte) erleichtern, auf deinem Server hochzuladen.

 

1. „robots.txt“

Diese Datei stellt die Verkehrsregeln auf, nach denen sich die Bots auf deiner Seite bewegen dürfen.

Es ist eine reine Textdatei, am besten erstellst du sie mit einem Texteditor, den du in der Programmsuche nach Eingabe von „Editor“ finden solltest. Abgelegt werden muss die Datei  dann zwingend unter dem Namen  „robots.txt“ im Root-Verzeichnis –  das ist die erste Ebene auf deinem Webserver, auf der die Hauptdatei deiner Webpräsenz liegt.

Der Aufbau eines Kommandos innerhalb der Datei ist dabei verbindlich vorgegeben:

Zunächst einmal wird hinter dem Codewort „User-agent“ angegeben, auf welchen Suchmaschinen-Bot sich die danach folgende Anweisung bezieht. Schließlich gibt es nicht nur den berühmten GoogleBot, sondern auch den Bingbot, den Yandex Bot, den DuckDuckBot und und und…. Wer alle Bots mit einem Kommando ansprechen will setzt einfach das Zeichen „*“.

Im zweiten Teil folgt dann das eigentliche Kommando. Grundsätzlich gilt: ein Bot geht zunächst einmal davon aus, dass er auf einer Seite alles darf. Das muss man also nicht erwähnen. Ausdrücklich aufgeschrieben werden muss nur, was er nicht darf. Das Codewort hier lautet entsprechend „Disallow“.

Hier ein Beispiel:

User-agent: Suchmaschinen-Bot1
User-agent: Suchmaschinen-Bot2
Disallow: /images*/

User-agent: *
Disallow: /

Für Suchmaschinen-Bot1 & 2 sind alle Verzeichnisse gesperrt, die mit „images“ beginnen. Alle andren Bots müssen ganz draußen bleiben.

Es gibt zahlreiche Varianten und Kombinationsmöglichkeiten, die den Rahmen dieses Blogbeitrags sprengen. Für alle Normalsterblichen empfiehlt es sich deshalb, zum Erstellen einer robots.txt-Datei einen entsprechenden Robots.txt-Generator zu verwenden. Einfach im Web danach suchen, es gibt mehrere Angebote.

Wer sich herantraut, eine solche Datei selber zu schreiben, findet unter https://wiki.selfhtml.org/wiki/Grundlagen/Robots.txt eine  gute Arbeitsanleitung und unter https://developers.google.com/search/reference/robots_txt vertiefte Informationen zur Syntax und zu möglichen Befehlen.

 

2. sitemap.xml

Diese Datei ist so etwas wie das speziell für die Bots geschriebene Inhaltsverzeichnis eurer Webpräsenz. Auch hier sind Name und Dateiendung verbindlich vorgegeben. Die Datei muss dann ebenfalls ins Root-Verzeichnis der eigenen Domain hochgeladen werden.

Ist das abgeschlossen, müssen in diesem Fall die Suchmaschinenbetreiber darüber informiert werden, dass eine solche Datei vorliegt. Dies erfolgt über die Webmaster Tools  der jeweiligen Betreiber, wie zum Beispiel die Google Search Console (genaue Beschreibung unter https://support.google.com/webmasters/answer/183668?hl=de).

Außerdem macht es Sinn, die Datei in der robots.txt-Datei anzukündigen. Hierzu wird in die allererste Zeile eingetragen:

sitemap: http://www.meinedomain.meineTLD/sitemap.xml

In der sitemap.xml-Datei selber müssen immer die folgenden Informationen zwischen den entsprechenden Codeworten (Tags) gelistet sein:

<urlset>, </urlset>: öffnet und schließt die Datei und listet den aktuellen Protokollstandard

<url>, </url>: sind URL-Einträgen übergeordnet und bezeichnen Anfang und Ende einer aufgeführten Webseite/ Unterseite

<loc>, </loc>:  mit diesem Tag werden die einzelnen Seiten Deiner Webpräsenz gekennzeichnet. Die URL muss immer mit dem Protokoll (z. B. „http“, „https“) beginnen und mit einem abschließenden Schrägstrich enden.

Optional können außerdem die folgenden Informationen eingefügt werden:

<lastmod>, </lastmod>: Datum (W3C-Format) der letzten Änderung einer Seite

<changefreq>, </changefreq>:  allgemeine Info, wie häufig du deine Seite aktualisierst

<priority>, </priority>: die Wichtigkeit der speziellen Seite innerhalb deiner Webpräsenz; als Wert können 0,0 (unwichtig) bis 1,0 (sehr wichtig) gesetzt werden

Es ist sehr komplex, die „sitemap.xml“-Datei selber zu erstellen. Auch hier gibt es aber entsprechende XML-Sitemaps-Generatoren im Netz. Wer unbedingt will, findet eine gute Anleitung zum händischen Erstellen einer sitemap.xml-Datei ist zu finden unter https://www.onlinesolutionsgroup.de/blog/sitemap-xml-erstellen-optimieren-fehler-beheben/.

Wenn du ein Content Management System oder ein Shopsystem verwendest, ist häufig ein Sitemap-Generator integriert, der euch die Arbeit abnimmt.


Viel Spaß beim Tüfteln!
Und in der kommenden Woche geht es dann um das Thema Navigation auf der Webseite.

Kurz aber wichtig: der Meta Title

Eigentlich ein einfach zu verstehender Bestandteil einer Seite, klar definiert, leicht einzubauen. Und dennoch eine der größten Herausforderungen für einen rankingrelevanten Aufbau deiner Webseite: der Meta Title.

Er ist das einzige Element des Headers innerhalb des HTML-Dokuments, das für jeden Nutzer sofort zu erkennen ist. Der Text zwischen den beiden Tags  <title> und </title> ist nämlich auf dem im Webbrowser geöffneten Tab zu lesen.

Seine Bedeutung geht aber tiefer: der Meta Title ist neben guten Content das wichtigste rankingrelevante Textelement der Seite. Außerdem wird er  für die Search Snippets in den SERPs (Search Engine Result Page = Suchergebnissen) verwendet und kann, wenn er den Suchenden neugierig genug macht, zu zusätzlichen Klicks auf die Webseite führen.

Soweit – so schön, gäbe es da nicht eine Herausforderung: das ganze inhaltliche Zauberwerk muss mit max. 70 Zeichen bewerkstelligt werden!

Der Meta Titel wird individuell für jede einzelne Seite der gesamten Webpräsenz erstellt und beschreibt möglichst präzise
•    wer du bist
•    was dich einzigartig macht
•    was du generell auf deiner Internetpräsenz anbietest
•    was du speziell auf dieser Seite anbietest

Und das, wie gesagt, in 70 Zeichen? Da ist Kreativität gefragt!

Grundsätzlich solltest du das wichtigste Schlüsselwort der jeweiligen Seite identifizieren, dieses sollte auf jeden Fall im Meta Title auftauchen. Und es sollte so weit wie möglich vorne stehen. Und es sollte sich nicht für eine andere Unterseite deines Internetauftritts wiederholen.  

Ein Beispiel: die netzadresse.at bietet Domains, Hosting und Website Builder an. Sinnvollerweise sollte die Unterseite mit der Domainsuche dann also heißen.
<title>Domains von netzadresse.at</title>
Treffend, aber nicht sehr animierend, der Titel sollte also noch angepasst werden, z.B.
<title>Domains von netzadresse.at: Klassiker und nTLDs, günstige Preise</title>

Wer weitere Anregungen braucht: Google gibt auf seinen Hilfeseiten für Webmaster Anregungen zur Formulierung von Meta Titles:
https://support.google.com/webmasters/answer/35624?rd=1

Sinnvolle Seitennavigation

Auch wenn sich in den letzten Jahren die berühmten „Onepager“ im Netz zunehmender Beliebtheit erfreuen – wer ein umfangreiches Geschäft mit verschiedenen Produktzweigen oder gar einen Online-Shop betreibt, wird um mehrere Unterseiten nicht herumkommen.

Im schlimmsten Falle entsteht so eine weit verzweigte Seitenstruktur mit Hauptseiten, Kategorien, Einzelseiten zu Produkten, AGBs und Warenkörben. Und alle diese Seiten müssen sowohl für den Nutzer als auch für die Robots ohne große Mühe auffindbar sein.

Funktionieren tut das alles natürlich über die interne Verlinkung zwischen den Webseiten. Dabei gelten zwei  wichtige Regeln:

 

1) Hierarchien sollten logisch nachvollziehbar sein

Das Beispiel eines Onlineshops für Kleidung mag dies verdeutlichen:

Eine Struktur wie die folgende macht Sinn und ist für Nutzer und Robots gleichermaßen nachvollziehbar.  

Im Gegensatz dazu kann eine Struktur wie die folgende dieselben Endprodukte beinhalten, ist aber weder für Mensch noch Maschine durchschaubar:

2) Hierarchien sollten möglichst flach sein

Die obigen Beispiele beinhalten jeweils drei hierarchische Stufen. Dies gilt als optimal für gestaffelte Seiten, eine vierte Ebene, etwa „Hosen“ – „Größe 38“, „Größe 39“ etc. ist auch noch ohne weiteres akzeptabel. Tiefere Staffelungen gelten hingegen als problematisch.

Was also tun, wenn man noch zusätzliche Produktausprägungen anbieten möchte?

Hier haben sich Such- bzw. Filterfunktionen bewährt. Wenn eine Kundin gezielt ein Etuikleid sucht, führt (bei guter Produktbeschreibung auf der Seite) eine einfache Suche über ein auf der Webseite integriertes Suchfeld schnell zur gewünschten Auswahl.

Und wenn zum Beispiel konkret nach einer blauen Hose gesucht wird, ist eine Filterfunktion nach Farben sinnvoll. Man schaue sich einmal die Art an, wie Möbelhäuser die verschiedenen Bezüge für Polstermöbel präsentieren, um zu sehen, wie eine solche Funktion perfekt eingesetzt werden kann.

Ansonsten gelten die Regeln, die auch für das setzen der externen Webadressen gelten:

  • Die URL der Seite sollte das Hauptschlagwort, also z.B. den auf der Seite angebotenen Artikel, beinhalten: meinklamottenshop.wien/damen/hosen/…
  • Lass bei sehr ähnlich klingenden Begriffen etwas Phantasie walten, um Suchmaschinen nicht unnötig zu verwirren: „Sofa-blau“ und „Sofa-bleu“ sind nicht optimal, „Sofa-ultraminblau“ und „Sofa-himmelblau“ wird kein Bot verwechseln.
  • Halte deine Linkstruktur sauber. Sowohl Kunden als auch Suchmaschinen reagieren empfindlich auf Links, die auf gelöschte Seiten verweisen.
  • Alte Webseite Builder setzen Nummernkombintionen als URLS  einer Seite. Diese Seitentitel „12834798356.htm“ sagen weder einem Nutzer, vor allem aber einem Crawler nichts über den iInhalt der Seite. Editiere in jedem Fall diese URLs und ersetze sie durch sprechende Bezeichnungen.

 

Duplicate Content

Eines der häufigsten Schlagworte im Zusammenhang mit dem Ranking von Webseiten war in den letzten Jahren “Duplicate Content” – “Doppelter Seiteninhalt”. Suchmaschinen, allen voran Google,  strafen Seiten, die ein- und denselben Inhalt haben, angeblich gnadenlos ab. Den eigentlichen – menschlichen -  Webseitennutzern ist dieses Problem übrigens in den allermeisten Fällen völlig egal.

Zunächst einmal: ist die Panik, die mit diesem Begriff häufig geschürt wird, gerechtfertigt? Nein, ist sie nicht.

Google & Co. sind durchaus in der Lage zu erkennen, ob der Inhalt einer Seite durch technische Umstände unter mehreren URLs verfügbar ist oder ob es sich wirklich um einen böswilligen Versuch handelt, Netz-Präsenz zu erschwindeln oder sich mit fremden Content-Federn zu schmücken.

Andererseits: beliebt macht man sich bei den Suchmaschinen auch nicht, wenn nicht klar ist, auf welcher Seite der angezeigte Inhalt denn nun eigentlich „im Original“ liegt und was bloße Kopie ist. Handlungsbedarf besteht also schon.

Aber der Reihe nach.

Die generelle Definition von Duplicate Content ist, dass ein- und derselbe Seiteninhalt unter verschiedenen URLs im Netz abrufbar ist. Zu unterscheiden ist im Alltag zwischen internem und externem Duplicate Content.

 

1. Was ist Interner Duplicate Content und wie geht man damit um?
Interner Duplicate Content entsteht, wenn eine Seite innerhalb eines Webauftritts unter mehreren URLs aufgerufen werden kann. Um im Beispiel der letzten Woche zu bleiben zum Beispiel also dann, wenn

www.mein-textilshop-shop.wien/damen/roecke/gruenerfaltenrock und
www.mein-textilshop-shop.wien/gruenerfaltenrock   

zum selben Suchergebnis führen. Hier ist die Lösung einfach: räume deine Seitenstruktur auf – siehe den vergangenen Blog-Beitrag.

 

2. Was ist Externer Duplicate Content und was ist hier zu tun?
Externer Duplicate Content betrifft domainübergreifende Dopplungen von Inhalten. Diese liegen zum einen vor, wenn unsere Beispielseite ebenso unter

https://www.mein-textilshop-shop.wien zu erreichen ist wie unter https://mein-textilshop-shop.wien (also ohne www.). Oder, noch eindeutiger, unter  https://mein-textilshop-shop.wien und https://meintextilshopshop.wien.

Im Prinzip ist an solchen Mehrfach-Zugängen nichts Schlimmes, das Problem ist nur, dass die Suchmaschinen nicht wissen, welche Seite denn nun das „Original“ ist und mal das eine, mal das andere Suchergebnis anzeigen. Mit entsprechend negativen Auswirkungen auf das Ranking der Seiten.

Um Klarheit zu schaffen, sind zwei Schritte notwendig:

  • Definiere für dich die Hauptdomain. Alle anderen inhaltlich identischen Domains sollten mittels einer 301-Weiterleitung (bei Fragen zum „wie“ hilft dein Webdesigner oder dein Internetanbieter) auf die Hauptdomain verweisen.
  • Setze im Header-Bereich aller „Kopie“-Seiten einen sogenannten Canonical Tag, der dem Bot anzeigt, dass diese Seite nur eine Kopie des im Tag genannten Originals ist und auf dieses verweist. Die Syntax hierzu lautet dann zum Beispiel für https://meintextilshopshop.wien : <link rel="canonical" href="https://mein-textilshop-shop.wien">

 Du siehst, Duplicate Content ist also mit ein wenig Struktur im eigenen Webseiten-Dickicht gar kein so großes Problem.

 

Umstellung unserer Systeme für kostenlose E-Mails

06.12.2018

Vom 11. auf den 12. Dezember 2018 gibt es wichtige technische Änderungen bei den kostenlosen E-Mails, die Sie mit Ihrer Domain erworben haben. Wenn Sie eine solche kostenlose E-Mail-Adresse nutzen lesen Sie bitte die folgende Information aufmerksam durch.

Detailierte Informationen >>

Im Zuge unserer technischen Umstellung sind Ihre Domains bereits in die neue Umgebung  übertragen worden. Im zweiten Schritt werden wir jetzt die kostenlosen E-Mails, die Sie mit Ihrer Domain erworben haben, ebenfalls umstellen. Dies dient der Anpassung an aktuelle Sicherheitsstandards, wir verbessern aber auch unseren Service: Sie erhalten 1 GB Speicherplatz und unbegrenzten Traffic.


Der Vorgang ist für Dienstag, den 11. Dezember 2018, ab 17:00 Uhr, geplant. Bis dahin ist Ihr bisheriger Account wie gewohnt nutzbar. Ab Mittwoch, den 12. Dezember 2018 erhalten Sie Ihre E-Mails dann über den neuen technischen Dienst.

Wichtig: während der Umstellung am 11. Dezember 2018, kann es zu Ausfallzeiten kommen, in der Sie nicht auf Ihre E-Mails zugreifen können. Ankommende E-Mails gehen aber keinesfalls verloren, sondern werden lediglich mit Zeitverzögerung zugestellt.

 

1. Welche E-Mail-Adresse sind betroffen?

Wenn eine Ihrer E-Mail-Adressen betroffen ist haben Sie mit Datum vom 06.12.2018 und dem Absender Hartmut.Schulz@domainworx.at E-Mails von uns bekommen. Bitte schauen Sie gegebenenfalls in Ihren Spam-Ordner.

Das Passwort dürfen bis nach der Umstellung am 12.12. nicht geändert werden. Für das LogIn bis zur Umstellung verwenden Sie bitte Ihre bisherigen Zugangsdaten.

 

2. Was passiert nach der Umstellung mit meinen E-Mails im alten Account?

Die alten E-Mails werden von uns im genannten Zeitfenster auf die neue Plattform übertragen. Sie können diese also weiterhin lesen und bearbeiten.

 

3. Müssen Daten im Benutzerkonto der netzadresse.at geändert werden?

Nein, bitte ändern Sie keine Daten, die in Zusammenhang mit E-Mails stehen. Alle notwendigen Schritte werden von uns automatisiert durchgeführt. Manuelle Änderungen Ihrerseits können zu technischen Störungen führen.

 

4. Was muss ich tun, damit ich ab dem 12.12.2018 meine Emaildienste wieder nutzen kann?

Sie sollten vor 11.12.2018 in Ihrem E-Mail-Programm schon einmal einen neuen Account einrichten. Wir empfehlen, diesen wie Ihren bestehenden Account plus den Zusatz _NEU zu benennen, damit keine Verwechslung entsteht. Nach der Umstellung können Sie diesen dann wieder umbenennen. Der neu angelegt Account bleibt zunächst leer, ab dem 12.12. finden Sie dann dort Ihre alten E-Mails und können ihn natürlich auch für Ihren zukünftigen Mailverkehr verwenden.

Was Sie dann tun müssen, hängt von dem von Ihnen verwendeten E-Mail-System ab.

Für Nutzer von Webmail:
Grundsätzlich ändert sich an dem Ihnen bekannten Verfahren nichts, Sie müssen ab dem 12.12.2018 lediglich das neue Passwort verwenden. Sie werden in Webmail dann sowohl die alten E-Mails vorfinden als auch neue erhalten.

Für Nutzer anderer E-Mail-Programme:
Sie müssen in Ihrem Mailsystem (am besten schon vor dem 11.12.2018) einen zusätzlichen Account mit den neuen Zugangsdaten anlegen. Wie ein neuer Account angelegt wird, entnehmen Sie bitte dem Benutzerhandbuch des jeweiligen Systems. Die einzutragenden Referenzdaten finden Sie in folgenden PDF-Dokumenten, die Sie über den angegebenen Link herunterladen können:

Ab dem 12.12. werden Sie dann Ihre alten E-Mails weiterhin im System vorfinden, neue E-Mails senden bzw. erhalten Sie über den neuen Account.

Sollten Sie Fragen haben, zögern Sie bitte nicht, unseren Kundenservice unter servicedesk@netzadresse.at bzw unter https://www.facebook.com/netzadresse/ zu kontaktieren.

 

Mit freundlichen Grüßen,

Hartmut Schulz
Leiter Service netzadresse.at