Datenverkehrsanalyse – Google Analytics

https://analytics.google.com

Regelmässig über buero@hofergrafik.at einsteigen

Filter

URL ausschleißen, welche arbeitsbedingt auf die Website zugreifen:

Über Verwalten  Symbol – links unten – > Alle Filter: IP-Adressen ausschließen

Frage:

Wie können Mobiles mit Mobilen Traffic ausgeschlossen werden?

Handy über WLAN im Büro hat gleich adresse wie über Kabel-Internetverbindung.

infos zum Thema

Dr. Web Google Analytics für Einsteiger, Teil 1 – 10
https://www.drweb.de/magazin/google-analytics-fuer-einsteiger-teil-1/ (sehr gute einladung zum thema)

https://www.drweb.de/magazin/google-analytics-fuer-einsteiger-teil-9-tracking-von-404-fehlerseiten/ (erklärung zur rolle von google analytics über 404-fehlerseiten -> lesenswert)

Google Tag Assistant
eine sehr hilfreiche Erweiterung Chrome-Browser
https://support.google.com/analytics/answer/1008083?hl=de

Responsive Webdesign

Tabelle mit CSS-height und width von mobilen Geräten

http://mydevice.io/devices/#sortSmartphones

Tools

http://www.canbike.org/CSSpixels/

Übersicht über Viewports in absoluten und css-pixel von extrem vielen geräten (devices)

http://www.codeply.com/bootstrap-4-breakpoints

Bootstrap 4 Breakpoint Test – gibt rückmeldung über den viewport in (relativen) pixel und dem bootstrap 4 breakpoint

https://search.google.com/search-console/mobile-friendly

Responsive Webdesign: 18 kostenlose Tools und Extensions zum Testen deiner Seite http://t3n.de/news/responsive-webdesign-tools-380139/

http://www.jamus.co.uk/demos/rwd-demonstrations/

http://lab.maltewassermann.com/viewport-resizer/

TLS – SSL

TLS – SSL

Transport Layer Security (TLS, englisch für Transportschichtsicherheit), weitläufiger bekannt unter der Vorgängerbezeichnung Secure Sockets Layer (SSL), ist ein hybrides Verschlüsselungsprotokoll zur sicheren Datenübertragung im Internet. Unter Hybrider Verschlüsselung, auch Hybridverschlüsselung genannt, versteht man eine Kombination aus asymmetrischer Verschlüsselung und symmetrischer Verschlüsselung. Dabei wählt der Sender einen zufälligen symmetrischen Schlüssel, der Session-Key bzw. Sitzungsschlüssel genannt wird. Mit diesem Session-Key werden die zu schützenden Daten symmetrisch verschlüsselt. Anschließend wird der Session-Key asymmetrisch mit dem öffentlichen Schlüssel des Empfängers verschlüsselt. Dieses Vorgehen löst das Schlüsselverteilungsproblem und erhält dabei den Geschwindigkeitsvorteil der symmetrischen Verschlüsselung.

Ein SSL-Zertifikat wird eingesetzt, um Ihre Website-Daten beim Aufruf durch den Browser sicher zu übertragen. Eine SSL-Verschlüsselung wird z.B. auch für die Übertragung von E-Mails verwendet.

Was muss man auf der Webseite ändern,
wenn man das Zertifikat installiert hat?

  • Alle HTTP-URLs müssen auf HTTPS weitergeleitet werden sonst entsteht „Duplicate Content“.
  • Gibt es interne, absolute Links, müssen diese auf HTTPS umgeschrieben werden.
  • Werden externe Dienste, wie z.B. Google Maps, verwendet, muss überprüft werden, ob diese über HTTPS eingebunden werden können.
  • Alle Links sollten anschließend überprüft und Fehler korrigiert werden.
  • Die XML-Sitemap darf ebenfalls nur noch HTTPS-Links enthalten.
  • Die XML-Sitemap sollte anschließend neu in der Google Search Console eingereicht werden.

Ein SSL-Zertifakat kann zum Beispiel hier online erworben werden:
https://ssl-trust.com/SSL-Zertifikate/PositiveSSL

SEO

Grundsätzliches / Einleitung

siehe: https://de.ryte.com/wiki/OnPage_Optimierung

Was ist SEO?

Suchmaschinenoptimierung, oder englisc hsearch engine optimization (SEO), bezeichnet Maßnahmen, die dazu dienen, dass Inhalte wie Webseiten, Videos und Bilder im organischen Suchmaschinenranking in den unbezahlten Suchergebnissen (Natural Listings) auf höheren Plätzen erscheinen.
https://de.wikipedia.org/wiki/Suchmaschinenoptimierung https://de.wikipedia.org/wiki/Suchmaschinenoptimierung

Geschichte

Webmaster begannen Mitte der 1990er Jahre damit, Webseiten für Suchmaschinen zu optimieren, als die ersten Suchmaschinen damit anfingen, das frühe Web zu katalogisieren. In den Anfängen reichte es aus, die URL der entsprechenden Seite an die verschiedenen Suchmaschinen zu senden, die dann einen Webcrawler zur Analyse der Seite aussendeten und diese indexierten.

Der Webcrawler lud die Webseite auf den Server der Suchmaschine, wo ein zweites Programm, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten). Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in den Suchergebnissen der Suchmaschinen und recht bald entwickelten sich Unternehmen, die sich auf diese Technik spezialisierten.

Die frühen Versionen der Suchalgorithmen basierten auf Informationen, die durch die Webmaster selbst gegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Überblick über den Inhalt einer Seite, allerdings stellte sich bald heraus, dass die Nutzung dieser Hinweise nicht zuverlässig war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Seiten bei spezifischen Suchen listen. Auch versuchten Seitenersteller verschiedene Attribute innerhalb des HTML-Codes einer Seite so zu manipulieren, dass die Seite besser in den Suchergebnissen gelistet wird.

Da die frühen Suchmaschinen sehr auf Faktoren angewiesen waren, die allein in den Händen der Webmaster lagen, waren sie auch sehr anfällig für Missbrauch und Manipulationen im Ranking. Um bessere und relevantere Ergebnisse in den Suchergebnissen zu erhalten, mussten sich die Betreiber der Suchmaschinen an diese Gegebenheiten anpassen. Weil der Erfolg einer Suchmaschine davon abhängt, relevante Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, konnten unpassende Ergebnisse dazu führen, dass sich die Benutzer nach anderen Möglichkeiten für die Suche im Web umsehen. Die Antwort der Suchmaschinen bestand in komplexeren Algorithmen für das Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur schwer beeinflussbar waren.

Larry Page und Sergey Brin entwickelten mit „Backrub“ eine Suchmaschine, die auf einem mathematischen Algorithmus basierte, der die Prominenz von Webseiten bewertete. Die Nummer, die vom Algorithmus (PageRank) zu einer Seite berechnet wurde, ist eine Funktion der Quantität und der Stärke von Backlinks. PageRank gibt die Wahrscheinlichkeit wieder, dass ein Benutzer auf einer bestimmten Webseite landet, wenn er durch das Web surft und zufällig Links anklickt.

Page und Brin gründeten Google 1998 und das simple Design verhalf der Suchmaschine zu einem enormen Erfolg. Google verwendete Off-Page-Faktoren (wie PageRank und Hyperlinkanalysen) genauso wie On-Page-Faktoren (Frequenz von Schlüsselworten, Metadaten, Seitenstruktur etc.) für das Ranking. Die Suchmaschine wollte damit Manipulationen wie in jenen Suchmaschinen umgehen, die nur die On-Page-Faktoren verwendeten. Obwohl PageRank schwieriger zu beeinflussen war, hatten Webmaster bereits Strategien und Tools zum Linkbuilding entwickelt, die es ihnen erlaubten, das Ranking der Suchmaschine Inktomi zu beeinflussen. Diese Methoden erwiesen sich auch erfolgreich für PageRank. Viele Seiten legten ihren Schwerpunkt auf das Kaufen, Verkaufen und Tauschen von Links, oftmals in großem Ausmaß. Diese Linkfarmen erstellten oftmals tausende Seiten mit dem einzigen Ziel, Linkspamming zu betreiben.

Ab 2004 setzten Suchmaschinen ein weites Spektrum an geheimgehaltenen Faktoren in ihre Rankingalgorithmen ein, um den Einfluss durch Linkmanipulationen zu vermindern. 2007 benutzte Google bereits mehr als 200 verschiedene Signale, um die Listung spezifischer Webseiten in den Suchergebnissen zu bestimmen. Die führenden Suchmaschinen Google, Bing und Yahoo geben die Algorithmen für das Ranking nicht preis. Einige SEOs studierten diese mit verschiedenen Annäherungen zur Suchmaschinenoptimierung und teilten ihre Erkenntnisse. Auch Patente in Bezug auf Suchmaschinen wurden zur Informationsgewinnung über die Funktion herangezogen.

2005 begann Google die Suchergebnisse auf Basis der früheren Suchanfragen registrierter Nutzer zu personalisieren. Bruce Clay erklärte daraufhin 2008, dass Ranking aufgrund der personalisierten Suche keinen Sinn mehr habe und die Diskussionen über Manipulationen beim Ranking von Suchmaschinen obsolet seien, da gleiche Suchanfragen bei unterschiedlichen Nutzern potentiell andere Ergebnisse liefern würden. 2007 kündigte Google eine Kampagne gegen gekaufte Links an, die Einfluss auf PageRank ausüben. 2009 teilte Google mit, dass Maßnahmen ergriffen wurden, um die Effekte des sogenannten PageRank-Sculptings (eine Methode, um bestimmten Links auf einer Seite mehr Gewicht zu verleihen und das Linkziel dadurch in Google höher zu listen) durch das „nofollow“-Attribut auf Links einzuschränken. Dieses Attribut, ursprünglich von Google eingeführt, wurde nun von PageRank nicht mehr berücksichtigt, um die Effekte des PageRank-Sculptings durch SEOs abzuschwächen. Als Reaktion wurden bald andere Techniken angewandt, die nofollow-Tags mit verstecktem Java-Code ersetzten, wodurch PageRank-Sculpting wieder möglich wurde. Auch andere Lösungsansätze, wie der Gebrauch von iframes oder Flash, wurden vorgeschlagen.

2009 gab Google bekannt, die Suchgeschichte aller Nutzer für populäre Suchergebnisse heranzuziehen. 2010 stellte Google das neue Indexsystem Google Caffeine vor. Es ermöglichte Benutzern die Suche nach Nachrichten, Forenbeiträgen und anderweitigem Content kurz nach dem Veröffentlichungsdatum. Google Caffeine stellte einen Wechsel dar in der Art und Weise, wie Google seinen Index aktualisiert.

Die Echtzeitsuche Google Instant wurde 2010 vorgestellt, um Suchergebnisse zeitnaher und relevanter erscheinen zu lassen. Durch die steigende Popularität von Sozialen Netzwerken und Blogs wurde dem mit der Echtzeitsuche Rechnung getragen und verstärkt darauf fokussiert. Mit dem Panda-Upgrade 2011 wurden schließlich Webseiten abgestraft, die Seiteninhalte von anderen Seiten kopierten. Mit Google Penguin 2012 werden auch Seiten abgestraft, die manipulative Techniken zur Verbesserung des Rankings anwenden.

Arbeitsweise

Das Aufsuchen und Einlesen der Inhalte von Webseiten folgt bekannten HTML-Standards des Web, weshalb deren Einhaltung bei der Erstellung von Webseiten den ersten Schritt einer Optimierung darstellt. Laut Aussagen von Google stellt die Validität einer HTML-Seite jedoch keinen Einflussfaktor auf deren Ranking dar. Dennoch können Seiten, die besonders HTML-konform sind, vom Browser schneller geladen werden, was von Suchmaschinen durchaus honoriert wird. Man unterteilt die Suchmaschinenoptimierung im Online-Marketing grob in zwei Aufgabenbereiche, die Onpage- sowie die Offpage-Optimierung. Diese Kategorisierung wird an dem Kriterium festgemacht, ob dabei die eigene Seite bearbeitet wird oder man Einfluss auf andere Webseiten nimmt.

Onpage-Optimierung

Die Onpage-Optimierung umfasst alle inhaltsseitigen Anpassungen der eigenen Internetseite. Hierzu zählen die Optimierung des Seiteninhalts (auch Content) in Bezug auf Inhaltsqualität, Formatierungen, Überschriften etc., aber auch technische Aspekte, wie die Header und Tags, sowie die interne Linkstruktur der Seite.
In der Regel geht einer Offpage-Optimierung immer eine OnPage-Optimierung voraus.
Das eigentlich für Suchmaschinen konzipierte Meta-Element „Keyword“ wird von Google inzwischen nicht mehr berücksichtigt. Gleiches gilt für das Meta-Element „Description“. Dieser wird jedoch (abhängig von der Suchanfrage) möglicherweise als Textauszug in den SERPs angezeigt und sollte deshalb nicht ignoriert werden.
Ein weiterer Schritt ist die Auswahl der geeigneten Suchbegriffe (Keywords). Hierzu kann man sich frei verfügbarer Datenbanken, wie einer Keyword-Datenbank oder des MetaGer-Web-Assoziators, bedienen. Weiterhin bietet sich die Verwendung des Google-AdWords-Keyword-Tools an, das neben verwandten Suchbegriffen auch die ungefähre Anzahl der monatlichen Suchanfragen pro Suchbegriff auflistet.
Üblicherweise wird eine Seite für ein bis drei Suchwörter optimiert. Oft wird auch eine umfangreiche Seite in mehrere Einzelseiten aufgeteilt, um diese für verschiedene Suchbegriffe zu optimieren. Hierbei werden Haupt- sowie Nebenkeywords (auch Primär- und Sekundärkeywords) für die jeweiligen Seiten festgelegt. Dabei werden die Suchwörter mit den entsprechenden Inhalten kombiniert. Eine Art der Optimierung erfolgt durch sogenannte Landingpages (Landeseiten). Dabei gelangt der Benutzer mit dem Klick auf den Link auf eine speziell für SEO-Zwecke optimierte Seite.
Im Zuge der Methoden des SEO hat sich in diesem Bereich ein eigener Schreibstil entwickelt, den man als suchmaschinenoptimierten Stil beschreiben kann. Dieser folgt den „Regeln“ des SEO, die gewissermaßen durch die Suchmechanismen der Suchmaschine vorgegeben werden. Es handelt sich dabei um implizite Regeln, da diese anhand der Erfolgsfaktoren der Optimierung rekonstruiert werden, denn ein Suchmaschinenanbieter gibt in der Regel seine Kriterien zur qualitativen Einstufung der indexierten Seiten nicht bekannt.
Bei der Suchmaschinenoptimierung werden demnach die Techniken der Webcrawler und Sortieralgorithmen von Suchmaschinen untersucht. Diese werden nur zum Teil offengelegt und häufig geändert, um Missbrauch zu erschweren und dem Benutzer relevante Ergebnisse zu liefern. Die nicht bekannten und geheim gehaltenen Techniken werden durch Reverse Engineering der Suchergebnisse untersucht. Dabei wird analysiert, wie Suchmaschinen Webseiten und deren Inhalte indexieren und nach welchen Kriterien diese von der Suchmaschine bewertet, zusammengestellt und sortiert werden.
Die Vorgaben durch die Suchmaschine an Inhalte der Seiten können dabei gänzlich den Regeln klassischer Textproduktion widersprechen. Beispielsweise spielen grammatikalische Regeln für die Suchalgorithmen kaum eine Rolle. Auf diese Weise kann ein oft falsch geschriebenes Keyword mehr zur Optimierung des Rankings beitragen als ein fachlich korrekter Begriff. Dieses Vorgehen nimmt aber ab, da Google und andere Suchmaschinen zunehmend Falschschreibweisen selbstständig erkennen und zuordnen.
Da diese Mechanismen einer Entwicklungsdynamik unterliegen, wird dieser Schreibstil ebenso oft angepasst, um jeweils wieder das bestmögliche Ergebnis bei der Optimierung zu liefern. Das bedeutet, dass eine Seite niemals nur einmal optimiert wird. Es bedarf vielmehr einer dauerhaften Überprüfung der Relevanz der verwendeten Keywords, da sich auch das Nutzerverhalten verändert.
Im Rahmen der stetigen Weiterentwicklung der Suchmaschinen-Algorithmen, nehmen auch die mobilen Endgeräte (Smartphones, Tablets) einen immer wichtigeren Platz bei der Suchmaschinenoptimierung ein. Eine Webseite, die nicht für mobile Endgeräte angepasst ist, wird vor allem bei der mobilen Suche deutlich schlechter gelistet, als Webseiten die zum Beispiel über ein Responsive Design verfügen.
Aufbau ordentlicher META Tags
Verwendung von Rich Snippets (https://developers.google.com/structured-data/)
Aufbau einer ordentlichen Seitenstruktur

Offpage-Optimierung

Die „Offpage-Optimierung“ findet fernab der zu optimierenden Seite statt und bezeichnet alle Maßnahmen außerhalb der zu optimierenden Webseite.
Es genügt nicht alleine, die Relevanz durch OnPage-Maßnahmen zu erhöhen. Ein gutes Listing in Suchmaschinen und ein hoher PageRank wird von der Quantität und Qualität der eingehenden Links auf eine Website (Rückverweis oder auch Backlink genannt) beeinflusst. Bei der Offpage-Optimierung geht es um die Herausbildung einer Linkstruktur mit anderen Webseiten, um sich besser in bestimmten thematischen Bereichen zu positionieren. Dafür sucht man nach thematisch passenden Internetseiten, um sie für eine Linkpartnerschaft zu gewinnen. Eine weitere Maßnahme um mögliche Linkpartner zu finden, ist die Linkanalyse von Wettbewerbern. Auch der Einsatz sogenannter Link Research Tools kann sich lohnen, um die besten Unterseiten einer Domain zu durchforsten. Zudem ist die Ausgestaltung des Linktextes der Rückverweise essentiell für die Platzierung bestimmter Suchwörter. Um Websites auf ihr Potenzial hin zu untersuchen, können kostenlose Webanwendungen genutzt werden. Oftmals genügen kleine Veränderungen, um die Platzierung in Suchmaschinen stark zu erhöhen.
Es wird vermutet, dass neben Backlinks zunehmend die simultane Erzeugung von sogenannten „Social Signals“ ebenfalls für das Ranking berücksichtigt werden. Dabei handelt es sich um Erwähnungen der Webseite in Form von „Likes“, „Shares“, „Comments“ (Facebook) oder „Plus1“ (Google+) sowie „Tweets“ und „Retweets“ (Twitter). Hintergrund dieser Entwicklung ist, dass Suchmaschinen nicht nur die Backlinks analysieren, sondern zugleich algorithmisch prüfen, wie intensiv sich Nutzer über eine Webseite innerhalb ausgewählter sozialer Netzwerke wie Facebook oder Google+ austauschen.
Ebenfalls werden von Suchmaschinen gesammelte Nutzersignale bei der Rankingberechnung berücksichtigt. Wie häufig ein Nutzer ein Ergebnis anklickt, auf einer Trefferwebseite verweilt oder wieder zur Ergebnisliste zurückkommt, beeinflusst das Ranking. So werden positive Signale für zum Beispiel Google erzeugt, wenn der Nutzer längere Zeit auf einer Webseite verweilt, anstatt diese direkt wieder zu verlassen.

Bild Image Tags

Alt-Tag

Kann das Bild nicht geladen werden oder wird das Format vom Webbrowser nicht unterstützt, wird stattdessen der Text „Haus am waldrand in der dämmerung“ angezeigt. Dies soll sehbehinderten Menschen oder Websitebesuchern, deren Browser das Bild nicht darstellen können, den Inhalt des Bildes vermitteln. Es gilt gemäß der offiziellen HTML-Spezifikation als Mangel, bei Bildern auf diesen Alt-Text zu verzichten. Mittlerweile gilt dieser Alt-Text auch als ein Kriterium in der Onpage-Suchmaschinenoptimierung, denn die Suchmaschinen erfassen über diesen Text ebenfalls den Inhalt von Bildern.

Title-Tag

Wenn man im browser mit dem Cursor über einem Bild schwebt, wird nach kurzer Zeit ein “Layer mit Erklärungstext” angezeigt. Dieser Text, ist genau jener, welchen Wir im Title-Tag definiert haben.

Bildunterschrift

Die Bildunterschrift ist kein normaler Tag in einem img-Element. Um Bildunterschriften machen zu können, muss das ganze img-Element mit einem figure-Tag umschlossen werden. in diesem Element kann dann mit Hilfe von dem figcaption-Tag eine Bildunterschrift definiert werden.

<figure>
<img src=”xxx.jpg” alt=”xxx xx yx yy” />
<figcaption>Caption goes here</figcaption>
</figure>

Page Speed

Page Speed | Seitenladegeschwindigkeit

Was ist die Seitenladegeschwindigkeit einer Website und warum sollte man darauf achten?

Die Seitenladegeschwindigkeit oder auch Page Speed oder Ladezeit genannt, ist die Zeit, die benötigt wird um eine Website auf dem Endgerät (Smartphone, Tablet oder PC) anzuzeigen und wird vom Absenden eines Requests bis zum vollständigen Anzeigen aller Inhalte gemessen. Alles zwischen 1,5 und 3 Sekunden wird hierbei gemeinhin als schnell verstanden, wobei die durchschnittliche Ladezeit aller Websites mit 3,25 Sekunden (Stand Dezember 2016) leicht darüber liegt.

Wichtig ist eine schnelle Ladezeit der Website nicht nur für das Usererlebnis, vorallem auf mobilen Geräten, sondern auch für das Ranking auf Google oder anderen Suchmaschinen.

Die Ladezeit einer Website kann ganz einfach online mit folgendem Tool getestet werden:

https://developers.google.com/speed/pagespeed/insights/?hl=de

Weitere nützliche Links:

https://www.sem-deutschland.de/blog/page-speed-seo-ranking/

https://www.seo-suedwest.de/2110-google-seiten-mit-normaler-groesse-muessen-sich-keine-gedanken-um-das-crawl-budget-machen.html

Barrierefreiheit für Webseiten

Richtlinen für Barrierefreiheit auf Webseiten

Dieser Artikel beschreibt ausführlich worum es geht und worauf zu achten ist: https://www.w3.org/Translations/WCAG20-de/

Um den Bedürfnissen verschiedener Gruppen und unterschiedlicher Situationen gerecht zu werden, wurden drei Stufen der Konformität definiert: A (niedrigste), AA und AAA (höchste).

Die 4 Hauptprinzipien

Prinzip 1: Wahrnehmbar – Informationen und Bestandteile der Benutzerschnittstelle müssen den Benutzern so präsentiert werden, dass diese sie wahrnehmen können.

Prinzip 2: Bedienbar – Bestandteile der Benutzerschnittstelle und Navigation müssen bedienbar sein.

Prinzip 3: Verständlich – Informationen und Bedienung der Benutzerschnittstelle müssen verständlich sein.

Prinzip 4: Robust – Inhalte müssen robust genug sein, damit sie zuverlässig von einer großen Auswahl an Benutzeragenten einschließlich assistierender Techniken interpretiert werden können.

Im Grunde sind also die (Haupt-)Kriterien laut WCAG folgende:

  • Farbwahl und Kontrast
  • Einstellbarkeit der Schriftgröße bzw. Ansichtsgröße
  • Bedienbarkeit/Navigation mittels Tastatur anstelle von Maus
  • Screenreader-Tauglichkeit

Überprüfung von Barrierefreiheit auf Webseiten

Es gibt verschieden Tools zur Überprüfung der Barrierefreiheit von Webseiten:

https://tenon.io/ (zeigt ohne registrierung nicht an wo die probleme sind)

https://chrome.google.com/webstore/detail/siteimprove-accessibility/efcfolpjihicnikpmhnmphjhhpiclljc?hl=en-US (chrome plugin; anmeldung kann übersprungen werden, zeigt direkt auf der seite an, wo probleme liegen)

https://www.wko.at/Content.Node/service/w/Barrierefreiheit.html (kein tool, nur eine begriffserklärung)

https://www.einfach-fuer-alle.de/ (verschiedene artikel zum thema)

Kontakte

Rian Rietveld, Niederlande, Mitgleid im WordPress-Accessibility-Team, http://www.rianrietveld.com/

Wolfgang Berndorfer, Innsbruck, Austria, Projektbegleitung bei barrierefreien Webseitenprojekten, http://zweiterblick.at/index.php

Servicesstelle Gleichbehandlung, Innsbruck, servicestelle.gleichbehandlung@tirol.gv.at

Blindenverband Tirol, Innsbruck, office@bsvt.at
Behindertenverband, Innsbruck, tkov@aon.at