NETZADRESSE BLOG

So funktioniert das Internet – Einführung für Kinder

15.02.2019, letztes Update 19.03.2019

In den kommenden Wochen erklären wir einfach und kindgerecht, wie das Internet funktioniert.

Wer hat's erfunden?

Hast du dich schon mal gefragt, wer das Internet eigentlich erfunden hat?

Die Idee, Daten zwischen Computern auszutauschen, kam den Amerikanerin in den 60er Jahren des vergangenen Jahrhunderts. 1969 war es soweit: das Arpanet, die erste Version des Internets, wurde freigeschaltet. Es war nicht so weit verzweigt wie das Web heute, es waren nur ein paar Forschungseinrichtungen zusammengeschlossen. Aber es war der erste, wichtige Schritt.

Das Projekt war so erfolgreich, dass es schnell an seine Kapazitätsgrenzen kam. Immer mehr Institute wollten mitmachen, aber die einzelnen Rechner reichten nicht mehr aus. Also wurde 1970 das Network Control Center (NCC) ins Leben gerufen, der zentrale Knoten, über den sich die Teilnehmer jetzt weltweit vernetzten konnten.

Im Netz zu arbeiten war aber immer noch kompliziert, man musste sich über endlose Zahlenreihen anmelden. 1983 wurde das dann einfacher: das Domain Name System (DNS) wurde eingeführt. Seitdem gibt es die einfach zu merkenden Internetadressen, die du kennst. Also z.B. netzadresse.at.

Bis das ganze System weltweit zuverlässig funktionierte vergingen aber noch ein paar Jahre. Und dieses Mal waren es die Wissenschaftler vom Schweizer CERN-Institut, die zwei geniale Ideen hatten: sie erfanden den Hyperlink, also die Möglichkeit, aus einer Webseite heraus eine andere aufzurufen. Und sie definierten, wie eine Webadresse auszusehen hat (http://www......). Jetzt konnten endlich alle Nutzer weltweit ohne Verständigungsschwierigkeiten miteinander kommunizieren.

Allerdings nur von den Rechnern zu Hause aus. Dass man auch über das Handy in Netz gehen kann, ist die bisher letzte Entwicklungsstufe: 1997 wurde der WAP 1.0.-Standard eingeführt und die Ära der Smartphones begann.

In den letzten Jahren wurde dann alles immer schneller und mit dem WLAN auch besser verfügbar. Und schauen wir mal, was die Zukunft so bringt – die Geschichte des Internets hat grade erst begonnen…

Ein paar Grundregeln...

Das Thema heute ist ein bisschen schwierig. Nicht wegen der Technik, darum geht es dieses Mal gar nicht, sondern weil ihr selbst entscheiden müsst, wo eure Grenzen sind. Und da glaubt ja jeder (Erwachsene auch), dass sie selber am allerbesten wissen, was gut ist und wo man vorsichtig sein muss…

Leider wissen viele Betrüger im Internet das und greifen zu wirklich fiesen Tricks: alte Knacker stellen sich als Volksschüler vor, aus realen Männern werden virtuelle Mädchen und hinter Links mit harmlosen Namen verbergen sich teure Kostenfallen.

Dabei ist es eigentlich recht einfach, zumindest die schlimmsten Fehler zu vermeiden. Regel Nummer 1 lautet auf jeden Fall:

 

1. Gebt eure persönlichen Daten nicht einfach weiter

Euer Name, eure Festnetz- und Handynummer, vor allem aber eure Adresse und euer Geburtsdatum gehen nur eure Familie und ein paar enge Freunde was an. Auch wenn ein Gewinnspiel oder ein Download noch so spannend klingen: lasst es bleiben! Ihr wisst nicht, was die Empfänger mit den Daten im Hintergrund und ohne euer Einverständnis wirklich machen. Und wenn es unbedingt sein muss, dann bittet eure Eltern zumindest, mit euch zusammen mal in die Angaben zur Datennutzung hineinzuschauen.  Seriöse Anbieter verraten nämlich genau, wozu sie die Angaben von euch brauchen.

Und dass man keine Usernamen und keine Passwörter weitergibt, dass wisst ihr ja sowieso. Aber es gilt auch:

 

2. Vorsicht mit Bilder

Und das gleich aus zwei Gründen:

Erstens dürft ihr keine Bilder verbreiten, die euch nicht gehören, es sein denn, der Eigentümer erlaubt es ausdrücklich. Also z.B. Gifs oder Emojis in Mails, die eure Handyfirma anbietet, könnt ihr problemlos verwenden. Aber „normale“ Fotos aus dem Netz sind oft geschützt – Urheberschutz nennt sich das. Und wenn ihr sie verwendet, ohne dass der-/ diejenige die das Foto geschossen hat, es weiß, kann das eine ganz schön teure Strafe zur Folge haben.

Zweitens, wenn es Bilder von euch selber sind: im Netz sind Daten oft über Jahre für jedermann sichtbar. Entweder absichtlich, wenn ihr sie selber in einem Netzwerk offen teilt, oder unbeabsichtigt, weil jemand von euren Freunden euer Bild vielleicht weitergepostet hat. Das ist mit Bildern vom letzten Urlaub in Tirol eher nicht so schlimm, aber Fotos, die ihr eigentlich nur eurer Freundin/ eurem Freund schicken wolltet, können euch später ganz schön unter Druck setzen. Erstens wisst ihr nicht, wie eure Beziehung sich entwickelt, und intime Fotos bei jemand, mit dem man sich verkracht hat, sind dann nicht mehr so spaßig. Und außerdem sind viele Messenger-Dienste doch nicht ganz so privat, wie sie gerne behaupten. Wer weiß schon wirklich, wer alles mitliest… Postet also Fotos, die nicht alle Welt sehen soll,  gar nicht erst!

 

3. Finger weg von "cool stuff"

Das ist eine Regel, die wirklich schwierig einzuhalten ist. Denn grade das Verbotene reizt ja. Aber lasst lieber die Finger weg von Seiten, die Pornografie, extreme Gewalt oder politische Propaganda beinhalten (Hinweis an die Elter: am besten vorbeugen und einen Jugendschutz installieren).

Es mag nämlich ganz spannend sein, so etwas nachmittags mit den Kumpels anzuschauen und mächtig einen auf erwachsen zu machen. Aber spätestens, wenn ihr nachts im Bett liegt, kommen solche Inhalte wieder in die Erinnerung zurück – undzwar in der Regel als Albträume. Und das ist es nun wirklich nicht wert.

 

4. Redet mit euren Eltern oder Lehrern, wenn euch eine Seite Sorgen macht

Absichtlich oder nicht, manchmal kommt man auf Seiten, die man eigentlich lieber nicht sehen wollte. Oder man gibt halt doch ein paar Daten ein und hat plötzlich ein Online-Abo am Hals.

Blöd gelaufen, aber das passiert nun mal im Netz. Und zwar jedem, unabhängig vom Alter.

Aber bleibt dann nicht alleine auf euren Sorgen sitzen. Redet mit jemandem darüber, am besten mit euren Eltern oder einem vertrauenswürdigen Lehrer. Aber es kann auch die erwachsene Schwester oder der Fußball-Trainer sein – Hauptsache jemand, der weiterhelfen kann. Und da ist Lebenserfahrung gut – im Laufe der Jahre haben die meisten Leute nämlich gelernt, mit unangenehmen Situationen im Netz umzugehen und wissen, wie man reagieren muss. Da ist es dann wirklich mal hilfreich, ein paar Jahre mehr auf dem Buckel zu haben.

 

Also, wie ihr seht, mit ein bisschen guten Willen und ein paar einfachen Regeln ist es nicht so schwierig, sich sicher im Internet zu bewegen. Viel Spaß also dabei!

Welche Sprache spricht das Internet?

Wenn du auf deinem Computer eine Seite aufrufst, wird sie dir in der Sprache angezeigt, in der der Seitenbesitzer sie geschrieben hat: das kann Englisch oder Deutsch sein, aber auch Dänisch, Tschechisch, Mongolisch oder Brasilianisch sein. Sogar – für uns hier in Österreich - fremde Schriftzeichen kommen vor, zum Beispiel bei Seiten auf Hindi (Indien), auf Russisch, Japanisch, Arabisch etc.

Kann das Internet also alle diese Sprachen sprechen?

Natürlich nicht. Das Internet spricht nämlich seine eigene Sprache, und alle anderen Sprachen übersetzt es sich erst einmal, um sie dann bei dir auf dem Bildschirm wieder zurückzuübersetzen.

Die Sprache des Internets sind die so genannten Protokolle. Von einem davon könnt ihr den Namen sehen, wenn ihr oben in die Adresszeile eures Browsers schaut: das steht nämlich http oder https, was nichts anderes bedeutet als Hypertext Transfer Protocol bzw. Hypertext Transfer Protocol Secure. Es wird dafür benutzt, den Inhalt der Seite, die ihr ansehen wollt, auf eurem Computer richtig darzustellen.

Andere Protokolle heißen zum Beispiel Simple Mail Transfer Protocol (SMTP, wird für E-Mails gebraucht), Border Gateway Protocol (über das zwei befreundete Systeme miteinander reden können) oder Routing Protokolle (das sind quasi die Straßenkarten, nach denen die Daten durchs Internet sausen).

Was ein Protokoll macht,kannst du sogar direkt selber testen. Das sogenannte  Internetprotokoll (IP Protokoll) sagt euch nämlich den User-Namen eures Rechners im Internet – die IP-Adresse - und gibt Informationen, wo sich euer Rechner grade befindet. Und weil es eben ein Protokoll ist, macht es das nicht in Worten, sondern in Zahlen: https://whatismyipaddress.com/

Vom Rechner ins Kabel und rund um den Globus

Was das Internet eigentlich ist, verrät schon der Name: ein Netzwerk. Bestehend aus lauter miteinander verbundenen Rechnern, werden „im Netz“ in jeder Sekunde weltweit Daten ausgetauscht. Und in diesen Daten sind die E-Mails, Downloads, Internetseiten, Musicstreams, die du dir grade anschauen willst, verpackt.

Zu diesem Netzwerk aus Rechnern gehören in erster Linie die riesigen Rechnerfarmen der Internetprovider, hier in Österreich also z.B. die von UPC, A1 etc.. Auf diesen Rechnern – den Servern – sind die Webseiten gespeichert, die du in deinem Browser aufrufen kannst.

Daneben leisten aber auch Netzwerke von Firmen, Forschungseinrichtungen und Universitäten ihren Beitrag zur Infrastruktur des Netzes. Außerdem kann auch freier Platz auf privaten Computer für bestimmte Projekte genutzt werden – wie im berühmten SETI@home, das sich mit der Suche nach außerirdischem Leben beschäftigt.

Alle diese einzelnen Teilnehmer müssen natürlich zusammengeschaltet werden, damit jede auf einem Rechner gespeicherte Information für jeden Internetbenutzer weltweit verfügbar ist. Es nutzt ja nichts, wenn du an deinem Laptop in Österreich eine Frage stellst, aber der Rechner in Argentinien, der die Antwort kennt, nichts von deiner Frage erfährt.

Damit also jeder Server in der Welt deine Frage erfährt,  werden die Netzwerke mit Glasfaserkabeln und Routern (das ist so etwas wie eine Weiche, die dafür sorgt, dass die Daten in die richtige Richtung geschickt werden) untereinander verbunden. Mehrere solcher Netzwerke werden dann noch einmal zu dicken Datenleitungen gebündelt. Dies passiert in den so genannten Internetknoten, wie etwa dem Vienna Internet eXchange.  

Technisch eigentlich gar nicht so kompliziert, aber um ein solches Netz um den ganzen Globus zu spannen, müssen die Kabel, über die die Daten ausgetauscht werden, überall gezogen werden: flächendeckend auf dem Festland, aber auch zwischen den Kontinenten auf dem Meeresboden. Dort, wo das Verlegen von Kabeln technisch unmöglich oder zu teuer ist, werden Richtfunk oder Satelliten eingesetzt.

Jedes Mal, wenn ihr in einen Browser also eine www-Adresse eingebt, wird diese ganze Struktur in Bewegung gesetzt: über das ganze Netzwerk wird gesucht, auf welchen Server die Antworten auf deine Fragen liegen könnten. Und von da aus, wo sie gefunden werden, werden diese Informationen dann an deinen Rechner zu Hause zurückgespielt.

 

Nächste Woche: welche Sprache spricht das Internet?

   

Do it yourself SEO – Tipps für Kleinunternehmen

29.10.2018, letztes Update am 21.01.2019

In den kommenden Wochen wollen wir euch jeweils montags Tipps zum Thema SEO (Suchmaschinen- Optimierung) geben. Zielgruppe sind alle die, die die Auffindbarkeit ihrer Homepage im Netz etwas verbessern möchten,  sich aber keinen Suchmaschinenspezialisten leisten wollen/ können.

Vorarbeiten auf der Webseite

Eine Homepage haben inzwischen die meisten Firmen. Was aber vielen nicht klar ist: der Text auf der Seite wird nicht nur von den Kunden gelesen, sondern auch von den Suchmaschinen. Also sollten alle Schlüsselbegriffe (Keywords) hier zu finden sein. Meta-Tags waren gestern, der Seiteninhalt zählt.

Was sollte die eigene Webseite also beantworten?

Es sind die klassischen W-Fragen:

- Was biete ich an, Produkt oder Dienstleistung?
- Worüber biete ich es an: Infoseite, Blog, Shop?
- Wo bin ich zu finden: Standort oder nur im Netz?

Klingt leicht, ist es aber nicht und wird gerne unterschätzt. Um, zumal als kleines Unternehmen, gefunden zu werden, muss man sich nämlich differenzieren und sehr genau herausarbeiten, wie man denn vom Kunden gefunden werden kann.

Ein Beispiel:

„Babykleidung Wien“ sagt eigentlich gar nichts aus, das könnte ein Fachgeschäft sein, ein Second-Hand Onlinehändler oder eine Hobby-Handarbeiterin. Außerdem konkurriert man hier mit allen großen Ladenketten und wird sicher in der Suchmaschine nicht oben gelistet sein.

„Fachgeschäft für Babykleidung in 1050 Wien“: schon viel besser, Geschäftsart ist klar und zumindest schon einmal der Bezirk.

„Fachgeschäft für Babykleidung in der Schloßgasse 111, 1050 Wien (Mo – Sa. 10 – 15 Uhr). Wir führen die Marken Storch, Hotzenplotz und Biene Maja. Wir beraten sie gerne.“ So, allmählich passt es: das genaue Angebot ist bekannt, und die Kunden (und die Suchmaschinen) wissen, wo ihr seid, und was sie bei euch finden können.

Diese Vorbereitung ist wichtig, und es lohnt sich, Zeit zu investieren um herauszufinden, was das eigene Angebot unverwechselbar macht. Nehmt euch also am besten einen Block und notiert einmal, was ihr anbietet und – das ist der Trick – wie ein Kunde vermutlich danach fragen würde.

Wenn ihr auf gute Inhalte gekommen seid, setzt diese auf eurer Seite mit Texten (die die Keywords enthalten), Bildern und Videos um. Denn guter Content ist das A und O für die gute Auffindbarkeit in den Suchmaschinen.

„robot.txt“ und „sitemap.xml“ – Hilfsdateien für Suchmaschinen

„Bot“, „Spider“ und „Crawler“ – was klingt wie die Besetzung des letzten Netflix Horrorstreifens sind in Wahrheit Programme von Suchmaschinen, die von Zeit zu Zeit eine Webseite auf Neuigkeiten und Änderungen durchsuchen. Google & Co. erfahren so, welchen Inhalt eine Seite hat, was angeboten wird, wo die Dienstleistungen zu finden sind. Kurz, die Suchmaschinen filtern hier die Informationen heraus, mit denen deine Seite im Netz gefunden wird. Daher ist ja, wie im vergangenen Blogeintrag beschrieben, guter und exakter Text so wichtig.

Die kleinen Helfer gehen dabei sehr systematisch vor: ausgehend von der Hauptseite hangeln sie sich durch die internen Verlinkungen und besuchen so nach und nach auch alle Unterseiten, auf denen sie interessanten Content vermuten.

Um ihnen dabei ein bisschen unter die Arme zu greifen, aber auch, um eventuell einige Inhalte zu schützen, bietet es sich an, zwei Dateien, die das Crawlen (so heißt das Durchsuchen nämlich) und das Indexieren (das Melden relevanter Inhalte) erleichtern, auf deinem Server hochzuladen.

 

1. „robots.txt“

Diese Datei stellt die Verkehrsregeln auf, nach denen sich die Bots auf deiner Seite bewegen dürfen.

Es ist eine reine Textdatei, am besten erstellst du sie mit einem Texteditor, den du in der Programmsuche nach Eingabe von „Editor“ finden solltest. Abgelegt werden muss die Datei  dann zwingend unter dem Namen  „robots.txt“ im Root-Verzeichnis –  das ist die erste Ebene auf deinem Webserver, auf der die Hauptdatei deiner Webpräsenz liegt.

Der Aufbau eines Kommandos innerhalb der Datei ist dabei verbindlich vorgegeben:

Zunächst einmal wird hinter dem Codewort „User-agent“ angegeben, auf welchen Suchmaschinen-Bot sich die danach folgende Anweisung bezieht. Schließlich gibt es nicht nur den berühmten GoogleBot, sondern auch den Bingbot, den Yandex Bot, den DuckDuckBot und und und…. Wer alle Bots mit einem Kommando ansprechen will setzt einfach das Zeichen „*“.

Im zweiten Teil folgt dann das eigentliche Kommando. Grundsätzlich gilt: ein Bot geht zunächst einmal davon aus, dass er auf einer Seite alles darf. Das muss man also nicht erwähnen. Ausdrücklich aufgeschrieben werden muss nur, was er nicht darf. Das Codewort hier lautet entsprechend „Disallow“.

Hier ein Beispiel:

User-agent: Suchmaschinen-Bot1
User-agent: Suchmaschinen-Bot2
Disallow: /images*/

User-agent: *
Disallow: /

Für Suchmaschinen-Bot1 & 2 sind alle Verzeichnisse gesperrt, die mit „images“ beginnen. Alle andren Bots müssen ganz draußen bleiben.

Es gibt zahlreiche Varianten und Kombinationsmöglichkeiten, die den Rahmen dieses Blogbeitrags sprengen. Für alle Normalsterblichen empfiehlt es sich deshalb, zum Erstellen einer robots.txt-Datei einen entsprechenden Robots.txt-Generator zu verwenden. Einfach im Web danach suchen, es gibt mehrere Angebote.

Wer sich herantraut, eine solche Datei selber zu schreiben, findet unter https://wiki.selfhtml.org/wiki/Grundlagen/Robots.txt eine  gute Arbeitsanleitung und unter https://developers.google.com/search/reference/robots_txt vertiefte Informationen zur Syntax und zu möglichen Befehlen.

 

2. sitemap.xml

Diese Datei ist so etwas wie das speziell für die Bots geschriebene Inhaltsverzeichnis eurer Webpräsenz. Auch hier sind Name und Dateiendung verbindlich vorgegeben. Die Datei muss dann ebenfalls ins Root-Verzeichnis der eigenen Domain hochgeladen werden.

Ist das abgeschlossen, müssen in diesem Fall die Suchmaschinenbetreiber darüber informiert werden, dass eine solche Datei vorliegt. Dies erfolgt über die Webmaster Tools  der jeweiligen Betreiber, wie zum Beispiel die Google Search Console (genaue Beschreibung unter https://support.google.com/webmasters/answer/183668?hl=de).

Außerdem macht es Sinn, die Datei in der robots.txt-Datei anzukündigen. Hierzu wird in die allererste Zeile eingetragen:

sitemap: http://www.meinedomain.meineTLD/sitemap.xml

In der sitemap.xml-Datei selber müssen immer die folgenden Informationen zwischen den entsprechenden Codeworten (Tags) gelistet sein:

<urlset>, </urlset>: öffnet und schließt die Datei und listet den aktuellen Protokollstandard

<url>, </url>: sind URL-Einträgen übergeordnet und bezeichnen Anfang und Ende einer aufgeführten Webseite/ Unterseite

<loc>, </loc>:  mit diesem Tag werden die einzelnen Seiten Deiner Webpräsenz gekennzeichnet. Die URL muss immer mit dem Protokoll (z. B. „http“, „https“) beginnen und mit einem abschließenden Schrägstrich enden.

Optional können außerdem die folgenden Informationen eingefügt werden:

<lastmod>, </lastmod>: Datum (W3C-Format) der letzten Änderung einer Seite

<changefreq>, </changefreq>:  allgemeine Info, wie häufig du deine Seite aktualisierst

<priority>, </priority>: die Wichtigkeit der speziellen Seite innerhalb deiner Webpräsenz; als Wert können 0,0 (unwichtig) bis 1,0 (sehr wichtig) gesetzt werden

Es ist sehr komplex, die „sitemap.xml“-Datei selber zu erstellen. Auch hier gibt es aber entsprechende XML-Sitemaps-Generatoren im Netz. Wer unbedingt will, findet eine gute Anleitung zum händischen Erstellen einer sitemap.xml-Datei ist zu finden unter https://www.onlinesolutionsgroup.de/blog/sitemap-xml-erstellen-optimieren-fehler-beheben/.

Wenn du ein Content Management System oder ein Shopsystem verwendest, ist häufig ein Sitemap-Generator integriert, der euch die Arbeit abnimmt.


Viel Spaß beim Tüfteln!
Und in der kommenden Woche geht es dann um das Thema Navigation auf der Webseite.

Kurz aber wichtig: der Meta Title

Eigentlich ein einfach zu verstehender Bestandteil einer Seite, klar definiert, leicht einzubauen. Und dennoch eine der größten Herausforderungen für einen rankingrelevanten Aufbau deiner Webseite: der Meta Title.

Er ist das einzige Element des Headers innerhalb des HTML-Dokuments, das für jeden Nutzer sofort zu erkennen ist. Der Text zwischen den beiden Tags  <title> und </title> ist nämlich auf dem im Webbrowser geöffneten Tab zu lesen.

Seine Bedeutung geht aber tiefer: der Meta Title ist neben guten Content das wichtigste rankingrelevante Textelement der Seite. Außerdem wird er  für die Search Snippets in den SERPs (Search Engine Result Page = Suchergebnissen) verwendet und kann, wenn er den Suchenden neugierig genug macht, zu zusätzlichen Klicks auf die Webseite führen.

Soweit – so schön, gäbe es da nicht eine Herausforderung: das ganze inhaltliche Zauberwerk muss mit max. 70 Zeichen bewerkstelligt werden!

Der Meta Titel wird individuell für jede einzelne Seite der gesamten Webpräsenz erstellt und beschreibt möglichst präzise
•    wer du bist
•    was dich einzigartig macht
•    was du generell auf deiner Internetpräsenz anbietest
•    was du speziell auf dieser Seite anbietest

Und das, wie gesagt, in 70 Zeichen? Da ist Kreativität gefragt!

Grundsätzlich solltest du das wichtigste Schlüsselwort der jeweiligen Seite identifizieren, dieses sollte auf jeden Fall im Meta Title auftauchen. Und es sollte so weit wie möglich vorne stehen. Und es sollte sich nicht für eine andere Unterseite deines Internetauftritts wiederholen.  

Ein Beispiel: die netzadresse.at bietet Domains, Hosting und Website Builder an. Sinnvollerweise sollte die Unterseite mit der Domainsuche dann also heißen.
<title>Domains von netzadresse.at</title>
Treffend, aber nicht sehr animierend, der Titel sollte also noch angepasst werden, z.B.
<title>Domains von netzadresse.at: Klassiker und nTLDs, günstige Preise</title>

Wer weitere Anregungen braucht: Google gibt auf seinen Hilfeseiten für Webmaster Anregungen zur Formulierung von Meta Titles:
https://support.google.com/webmasters/answer/35624?rd=1

Sinnvolle Seitennavigation

Auch wenn sich in den letzten Jahren die berühmten „Onepager“ im Netz zunehmender Beliebtheit erfreuen – wer ein umfangreiches Geschäft mit verschiedenen Produktzweigen oder gar einen Online-Shop betreibt, wird um mehrere Unterseiten nicht herumkommen.

Im schlimmsten Falle entsteht so eine weit verzweigte Seitenstruktur mit Hauptseiten, Kategorien, Einzelseiten zu Produkten, AGBs und Warenkörben. Und alle diese Seiten müssen sowohl für den Nutzer als auch für die Robots ohne große Mühe auffindbar sein.

Funktionieren tut das alles natürlich über die interne Verlinkung zwischen den Webseiten. Dabei gelten zwei  wichtige Regeln:

 

1) Hierarchien sollten logisch nachvollziehbar sein

Das Beispiel eines Onlineshops für Kleidung mag dies verdeutlichen:

Eine Struktur wie die folgende macht Sinn und ist für Nutzer und Robots gleichermaßen nachvollziehbar.  

Im Gegensatz dazu kann eine Struktur wie die folgende dieselben Endprodukte beinhalten, ist aber weder für Mensch noch Maschine durchschaubar:

2) Hierarchien sollten möglichst flach sein

Die obigen Beispiele beinhalten jeweils drei hierarchische Stufen. Dies gilt als optimal für gestaffelte Seiten, eine vierte Ebene, etwa „Hosen“ – „Größe 38“, „Größe 39“ etc. ist auch noch ohne weiteres akzeptabel. Tiefere Staffelungen gelten hingegen als problematisch.

Was also tun, wenn man noch zusätzliche Produktausprägungen anbieten möchte?

Hier haben sich Such- bzw. Filterfunktionen bewährt. Wenn eine Kundin gezielt ein Etuikleid sucht, führt (bei guter Produktbeschreibung auf der Seite) eine einfache Suche über ein auf der Webseite integriertes Suchfeld schnell zur gewünschten Auswahl.

Und wenn zum Beispiel konkret nach einer blauen Hose gesucht wird, ist eine Filterfunktion nach Farben sinnvoll. Man schaue sich einmal die Art an, wie Möbelhäuser die verschiedenen Bezüge für Polstermöbel präsentieren, um zu sehen, wie eine solche Funktion perfekt eingesetzt werden kann.

Ansonsten gelten die Regeln, die auch für das setzen der externen Webadressen gelten:

  • Die URL der Seite sollte das Hauptschlagwort, also z.B. den auf der Seite angebotenen Artikel, beinhalten: meinklamottenshop.wien/damen/hosen/…
  • Lass bei sehr ähnlich klingenden Begriffen etwas Phantasie walten, um Suchmaschinen nicht unnötig zu verwirren: „Sofa-blau“ und „Sofa-bleu“ sind nicht optimal, „Sofa-ultraminblau“ und „Sofa-himmelblau“ wird kein Bot verwechseln.
  • Halte deine Linkstruktur sauber. Sowohl Kunden als auch Suchmaschinen reagieren empfindlich auf Links, die auf gelöschte Seiten verweisen.
  • Alte Webseite Builder setzen Nummernkombintionen als URLS  einer Seite. Diese Seitentitel „12834798356.htm“ sagen weder einem Nutzer, vor allem aber einem Crawler nichts über den iInhalt der Seite. Editiere in jedem Fall diese URLs und ersetze sie durch sprechende Bezeichnungen.

 

Duplicate Content

Eines der häufigsten Schlagworte im Zusammenhang mit dem Ranking von Webseiten war in den letzten Jahren “Duplicate Content” – “Doppelter Seiteninhalt”. Suchmaschinen, allen voran Google,  strafen Seiten, die ein- und denselben Inhalt haben, angeblich gnadenlos ab. Den eigentlichen – menschlichen -  Webseitennutzern ist dieses Problem übrigens in den allermeisten Fällen völlig egal.

Zunächst einmal: ist die Panik, die mit diesem Begriff häufig geschürt wird, gerechtfertigt? Nein, ist sie nicht.

Google & Co. sind durchaus in der Lage zu erkennen, ob der Inhalt einer Seite durch technische Umstände unter mehreren URLs verfügbar ist oder ob es sich wirklich um einen böswilligen Versuch handelt, Netz-Präsenz zu erschwindeln oder sich mit fremden Content-Federn zu schmücken.

Andererseits: beliebt macht man sich bei den Suchmaschinen auch nicht, wenn nicht klar ist, auf welcher Seite der angezeigte Inhalt denn nun eigentlich „im Original“ liegt und was bloße Kopie ist. Handlungsbedarf besteht also schon.

Aber der Reihe nach.

Die generelle Definition von Duplicate Content ist, dass ein- und derselbe Seiteninhalt unter verschiedenen URLs im Netz abrufbar ist. Zu unterscheiden ist im Alltag zwischen internem und externem Duplicate Content.

 

1. Was ist Interner Duplicate Content und wie geht man damit um?
Interner Duplicate Content entsteht, wenn eine Seite innerhalb eines Webauftritts unter mehreren URLs aufgerufen werden kann. Um im Beispiel der letzten Woche zu bleiben zum Beispiel also dann, wenn

www.mein-textilshop-shop.wien/damen/roecke/gruenerfaltenrock und
www.mein-textilshop-shop.wien/gruenerfaltenrock   

zum selben Suchergebnis führen. Hier ist die Lösung einfach: räume deine Seitenstruktur auf – siehe den vergangenen Blog-Beitrag.

 

2. Was ist Externer Duplicate Content und was ist hier zu tun?
Externer Duplicate Content betrifft domainübergreifende Dopplungen von Inhalten. Diese liegen zum einen vor, wenn unsere Beispielseite ebenso unter

https://www.mein-textilshop-shop.wien zu erreichen ist wie unter https://mein-textilshop-shop.wien (also ohne www.). Oder, noch eindeutiger, unter  https://mein-textilshop-shop.wien und https://meintextilshopshop.wien.

Im Prinzip ist an solchen Mehrfach-Zugängen nichts Schlimmes, das Problem ist nur, dass die Suchmaschinen nicht wissen, welche Seite denn nun das „Original“ ist und mal das eine, mal das andere Suchergebnis anzeigen. Mit entsprechend negativen Auswirkungen auf das Ranking der Seiten.

Um Klarheit zu schaffen, sind zwei Schritte notwendig:

  • Definiere für dich die Hauptdomain. Alle anderen inhaltlich identischen Domains sollten mittels einer 301-Weiterleitung (bei Fragen zum „wie“ hilft dein Webdesigner oder dein Internetanbieter) auf die Hauptdomain verweisen.
  • Setze im Header-Bereich aller „Kopie“-Seiten einen sogenannten Canonical Tag, der dem Bot anzeigt, dass diese Seite nur eine Kopie des im Tag genannten Originals ist und auf dieses verweist. Die Syntax hierzu lautet dann zum Beispiel für https://meintextilshopshop.wien : <link rel="canonical" href="https://mein-textilshop-shop.wien">

 Du siehst, Duplicate Content ist also mit ein wenig Struktur im eigenen Webseiten-Dickicht gar kein so großes Problem.

Backlinks

Dieses Mal ein zumindest einfach zu erklärendes Thema: Backlinks.

Backlinks sind Links von anderen Webseiten, die auf deine Seite verweisen. Suchmaschinen LIEBEN Backlinks (zumindest, wenn sie echt sind), weil sie daran erkennen können, dass dein Seiteninhalt von dritten Personen als so relevant betrachtet wird, dass sie ihn noch vielen weiteren Menschen zugänglich machen möchte. Kurz - die Suchmaschine merkt: diese Seite ist wichtig.

Und was als wichtig erkannt wird, wird weiter oben gerankt.

Die Frage ist nur, wie mal als Unternehmen mit einem kleinen Kundenkreis oder als Startup zu möglichst vielen Backlinks kommt? Denn wenige Außenkontakte bedeuten, dass nur wenige Leute deine Seite lesen (müssen). Und da kann der Inhalt dann so weltbewegend sein, wie er will: es werden nicht viele Backlinks werden.

Was also tun?


1. Linkbaits
„Bait“ ist das englische Wort für Köder, und genau darum geht es: der Inhalt deiner Seite muss so interessant sein, dass andere Leute ihn gerne teilen möchten.
Leider ist dies auch der (intellektuell) anstrengendste und langwierigste Weg.

Überlege dir, was aus deinem Themenumfeld interessant sein könnte und präsentiere es so, dass es deine Leser zur Diskussion mit ihrem Umfeld anregt. Das können zeitlich begrenzte Werbeaktionen in deinem Webshop sein, die du mit einem Produkt verknüpfst. Oder Tipps, z.B. Kochrezepte auf einer Seit, auf der man Nahrungsmittel bestellen kann. Oder stelle coole Fotos auf deine Seite, die Dritte dann als verwenden dürfen (die Bildrechte sollten also bei Dir liegen und zur allgemeinen Nutzung freigegeben werden). Gelegentlich reicht es auch, irgendetwas Provokantes oder Kontroverses zu posten – dann sollte man allerdings auch mit negativen Reaktionen umgehen können. It-Girls funktionieren so…

Mit etwas Fantasie gibt es also eine ganze Reihe an Möglichkeiten. Allen gemeinsam ist aber, dass sie einigen Aufwand und vor allem Nachhaltigkeit verlangen. Zudem müssen für Werbemaßnahmen auch die finanzielle Ressourcen zur Verfügung stehen.


2. Sich selbst Backlinks setzen
Im Prinzip ist dies die narzisstische Variante das Linkbaits: wenn andere nicht über dich reden, tue es einfach selbst. In Diskussionsforen, Blogs und den Sozialen Medien gibt es in der Regel die Möglichkeit, im Rahmen eines Posts auch die eigene Webseite zu nennen. Und so lange der Inhalt der Seite zu deinem Kommentar und zum allgemeinen Inhalt des Forums passt, ist dies sogar absolut legal.


3. Links tauschen
Das Prinzip ist einfach: verlinkst du mich, verlink ich dich.

Sinnvoll ist dies allerdings nur, wenn der Tauschpartner eine Community hinter sich stehen hat, die den Link auch sieht, als relevant einstuft und im besten Falle wiederum teilt. Der ausschließliche Tausch zwischen zwei Seitenbetreibern, ohne dass sich daraus weitere Kontakte ins Netz hinein ergeben, wird von den Suchmaschinen nämlich erkannt und ignoriert.

Ideale Partner sind also populäre Fachseiten, angesagte Blogger oder Betreiber von großen Portalen, denn sie beziehen weitere – externe - Nutzer mit ein. Womit die Schwierigkeit für die meisten Seitenbesitzer auch schon klar wäre: nämlich, solche Partner zu finden. Schließlich müssen sie ja auch noch zu deinem Thema passe.


4. Backlinks kaufen
Aus dem zuletzt Gesagten ergibt sich dieser Punkt: relevante Partner verlangen inzwischen häufig Geld dafür, dass sie deine Seite verlinken. Solange beide Seiten sich im Netz seriös verhalten ist dagegen grundsätzlich – auch aus Sicht der Suchmaschinen – nichts einzuwenden.

Schwierig wird es, wenn man Backlinks blind auf den sogenannten Social Media Märkten kauft – den Partner also nicht kennt. Das kann gegebenenfalls auf rechtlich schwieriges Terrain führen. Hier ist Gespür für das Risiko wichtig, dass man eingehen will, wenn man sich weltweit auf unbekannten Seiten verlinkt. Es können halt auch Seiten mit illegalen Inhalten darunter sein, als deren vermeintlicher „Partner“ man dann auch in ein schlechtes Licht gerät.

Und, ganz nebenbei: Backlinks zu kaufen verstößt natürlich gegen die Google Richtlinien. Wenn Google es denn herausfindet…

 

Zum Schluss noch eine grundsätzliche Regel:
der Aufbau von Backlinks muss als kontinuierlicher fortwährender Prozess erfolgen. Bei Linkbaits liegt dass in der Natur der Sache, allerdings muss man, wie gesagt, wirklich Geduld, Fantasie und die notwendigen Mittel haben um, ausschließlich diesen Weg zu nutzen.

Bei allen anderen Wegen sollten Backlinks zeitlich dosiert aufgebaut werden. Die Suchmaschinen merken es, wenn innerhalb eines Tages dutzende Backlinks gesetzt werden – und dann nichts mehr nachkommt. So ein Effekt wird automatisch als unerwünschter Linkkauf gewertet und abgestraft.

 

Umgang mit Bildern auf deiner Webseite

Zunächst einmal: Bilder sollen Ranking-relevant sein?


Die klare Antwort: sie sind es, so sehr sogar, dass Google einen eigenen Bot, den Google Bot Image 1.0. am Start hat. Seine Aufgabe ist es, Bilder von Webseiten zu indizieren, die dann anschließend in der Google-Bildersuche angezeigt werden.


Dieser Imagebot wird immer dann aktiv, wenn auf deiner Webseite neue Bilder hochgeladen werden. Daraus ergeben sich gleich zwei Tipps:

  • Lade öfter einmal Bilder hoch, gerne auch die gleichen, die du bereits verwendest. Der Imagebot schaut dennoch durch deine Seite durch – es könnte ja etwas Neues dabei sein.
  • Verlinke zumindest einige der Bilder in den Tiefen deiner Seiten als Thumbnails auf der Indexseite. Schließlich wird dieses regelmäßig gecrawlt.


Erstaunlicherweise reagiert der Bot auf ganz verschiedene Formen von Verweisen auf Bilder: er liest natürlich im Quelltext die üblichen Tags (<img …>; <a href=….>; <iframesrc….>), aber auch Informationen im Header und – größte Überraschung – im eigentlichen Fließtext der Seite.


Daher gilt es, beim Erstellen und Einbinden von Bildern auf den Seiten ein paar einfache Grundregeln zu beachten:


1. Kleine Dateigrößen bevorzugt

Wegen des auf der Hand liegenden Zusammenhangs mit den optimierten Ladezeiten für die Webseite ist das Kriterium „Dateigröße“ wohl der bekannteste Bewertungsfaktor. Die Regel ist einfach: je kleiner, je besser (Zumindest, solange das nicht spürbar auf Kosten der Bildqualität geht). Selbst in Zeiten des schnellen Internets und großer Daten-Freikontingente gelten 150 KB pro Bild immer noch als ideal.
Zu diesem Thema gehört auch die Wahl der richtigen Bildgröße.
Je hochauflösender ein Bild ist, desto mehr wird es natürlich deinen Seitenbesucher ansprechen. Das entscheidende Kriterium ist dabei nicht die absolute angezeigte Größe des Bildes – diese variiert ohnehin, je nachdem welches Endgerät benutzt wird – sondern die Pixeldichte. Wähle diese so, dass das Bild immer klar und scharf erscheint.


2. Die richtige Wahl des Formats

Für die Bildersuche an sich ist das Dateiformat (.gif, .jpg oder .png) irrelevant. Optimale Ladenzeiten bieten allerdings vor allem .png-Dateien, die du deshalb bevorzugt einsetzen solltest.


3. Namensgebung der Bilder und Bildattribute

Wie die Bilddatei heißt, ist tatsächlich der relevanteste Faktor für den für den Imagebot. Anhand dieser Bezeichnung erkennt er, inwieweit das Bild relevante Information zum Seiteninhalt liefert. Deshalb sollte der Bildname immer das dazugehörige Keyword beinhalten. Also z.B. „sofa_gelb_modern.png“ und nicht “192465hef2356.png“. Mit letzterem kann keine Suchmaschine der Welt etwas anfangen.
Ein Teil der Problematik lässt sich allerdings durch die richtige Verwendung der Bildattribute kompensieren. So sollte immer der Alt-Tag gesetzt werden, in dem eine konkrete Beschreibung des Bildinhalts mitgegebene werden kann. Ebenso sollte, soweit vorhanden, die „Description“-Funktion vieler CMS-Systeme konsequent verwendet werden.


4. Ordnerstruktur der Bildablage

Hier gilt das gleiche, wie schon früher einmal bei der Seitenstruktur erwähnt: logische Ordnungen erleichtern es den Suchmaschinen, Inhalte zu erkennen und korrekt zuzuordnen. Und wie beim vorhergehenden Punkt gilt auch beim Ablegen der Bilder, dass sprechende Ordnersequenzen leichter zu interpretieren sind als abstrakte Nummern. Also, um in der Logik des vorhergehenden Beispiels zu bleiben: „Möbel“  „Sofas“  „Einzelangebote Sofas“ ist deutlich besser als eine wüste Abfolge aus Ziffern und Zeichen ohne jeden semantischen Sinn.


5. Nicht im Safesearch-Filter landen

Google indiziert Bilder, die echten oder vermeintlichen pornografischen oder jugendgefährdenden Charakter haben. Zur Bewertung werden dabei sowohl das Bild selbst als auch der Bildname herangezogen. Das Unangenehme daran: taucht ein solches Bild auf deiner Seite auf, zeigt die Suchmaschine auch keine anderen Bilder der Seite mehr an. Also: unbedingt vermeiden!


6. Bei Bildern gibt es keinen Duplicate Content

Wie bekannt, reagieren Suchmaschinen auf identische Textinhalte, dem  sogenannten Duplicate Content, auf verschiedenen Seiten empfindlich. Bei Bildern ist genau das Gegenteil der Fall: je häufiger das gleiche Bild auftaucht, als desto relevanter wird es bewertet. Es dürfen sogar fremde Seiten sein, je öfter ein Bild im Netz geteilt wird, desto beliebter ist es – und desto relevanter die Ursprungseite.

 

 

Umstellung unserer Systeme für kostenlose E-Mails

06.12.2018

Vom 11. auf den 12. Dezember 2018 gibt es wichtige technische Änderungen bei den kostenlosen E-Mails, die Sie mit Ihrer Domain erworben haben. Wenn Sie eine solche kostenlose E-Mail-Adresse nutzen lesen Sie bitte die folgende Information aufmerksam durch.

Detailierte Informationen >>

Im Zuge unserer technischen Umstellung sind Ihre Domains bereits in die neue Umgebung  übertragen worden. Im zweiten Schritt werden wir jetzt die kostenlosen E-Mails, die Sie mit Ihrer Domain erworben haben, ebenfalls umstellen. Dies dient der Anpassung an aktuelle Sicherheitsstandards, wir verbessern aber auch unseren Service: Sie erhalten 1 GB Speicherplatz und unbegrenzten Traffic.


Der Vorgang ist für Dienstag, den 11. Dezember 2018, ab 17:00 Uhr, geplant. Bis dahin ist Ihr bisheriger Account wie gewohnt nutzbar. Ab Mittwoch, den 12. Dezember 2018 erhalten Sie Ihre E-Mails dann über den neuen technischen Dienst.

Wichtig: während der Umstellung am 11. Dezember 2018, kann es zu Ausfallzeiten kommen, in der Sie nicht auf Ihre E-Mails zugreifen können. Ankommende E-Mails gehen aber keinesfalls verloren, sondern werden lediglich mit Zeitverzögerung zugestellt.

 

1. Welche E-Mail-Adresse sind betroffen?

Wenn eine Ihrer E-Mail-Adressen betroffen ist haben Sie mit Datum vom 06.12.2018 und dem Absender Hartmut.Schulz@domainworx.at E-Mails von uns bekommen. Bitte schauen Sie gegebenenfalls in Ihren Spam-Ordner.

Das Passwort dürfen bis nach der Umstellung am 12.12. nicht geändert werden. Für das LogIn bis zur Umstellung verwenden Sie bitte Ihre bisherigen Zugangsdaten.

 

2. Was passiert nach der Umstellung mit meinen E-Mails im alten Account?

Die alten E-Mails werden von uns im genannten Zeitfenster auf die neue Plattform übertragen. Sie können diese also weiterhin lesen und bearbeiten.

 

3. Müssen Daten im Benutzerkonto der netzadresse.at geändert werden?

Nein, bitte ändern Sie keine Daten, die in Zusammenhang mit E-Mails stehen. Alle notwendigen Schritte werden von uns automatisiert durchgeführt. Manuelle Änderungen Ihrerseits können zu technischen Störungen führen.

 

4. Was muss ich tun, damit ich ab dem 12.12.2018 meine Emaildienste wieder nutzen kann?

Sie sollten vor 11.12.2018 in Ihrem E-Mail-Programm schon einmal einen neuen Account einrichten. Wir empfehlen, diesen wie Ihren bestehenden Account plus den Zusatz _NEU zu benennen, damit keine Verwechslung entsteht. Nach der Umstellung können Sie diesen dann wieder umbenennen. Der neu angelegt Account bleibt zunächst leer, ab dem 12.12. finden Sie dann dort Ihre alten E-Mails und können ihn natürlich auch für Ihren zukünftigen Mailverkehr verwenden.

Was Sie dann tun müssen, hängt von dem von Ihnen verwendeten E-Mail-System ab.

Für Nutzer von Webmail:
Grundsätzlich ändert sich an dem Ihnen bekannten Verfahren nichts, Sie müssen ab dem 12.12.2018 lediglich das neue Passwort verwenden. Sie werden in Webmail dann sowohl die alten E-Mails vorfinden als auch neue erhalten.

Für Nutzer anderer E-Mail-Programme:
Sie müssen in Ihrem Mailsystem (am besten schon vor dem 11.12.2018) einen zusätzlichen Account mit den neuen Zugangsdaten anlegen. Wie ein neuer Account angelegt wird, entnehmen Sie bitte dem Benutzerhandbuch des jeweiligen Systems. Die einzutragenden Referenzdaten finden Sie in folgenden PDF-Dokumenten, die Sie über den angegebenen Link herunterladen können:

Ab dem 12.12. werden Sie dann Ihre alten E-Mails weiterhin im System vorfinden, neue E-Mails senden bzw. erhalten Sie über den neuen Account.

Sollten Sie Fragen haben, zögern Sie bitte nicht, unseren Kundenservice unter servicedesk@netzadresse.at bzw unter https://www.facebook.com/netzadresse/ zu kontaktieren.

 

Mit freundlichen Grüßen,

Hartmut Schulz
Leiter Service netzadresse.at