»This site is under construction« – ein Inhalt der wenig sagt und keinem nützt

»Baustelle«, »under construction«, diese und andere Baustellenschilder findet man auf einer Informationsreise durch das Internet viel zu oft. Information gesucht, Baustelle gefunden. Das nützt weder dem Domaineigner noch dem Besucher.

So oder ähnlich passiert es immer wieder: der Domainname ist noch frei, die Erkenntnis ist da, wir wollen endlich das Potenzial des Internet für unsere Firma nutzen. Dann geht alles ganz schnell: Die Domain ist reserviert, es fehlt die Zeit, vielleicht wird der kompetente Partner nicht gleich gefunden, vielleicht wollte man es selber machen, stößt an Grenzen, die Zeit vergeht … Weil man sowieso gerade die gesamte Firmenpräsenz überarbeitet ist die Domain auch gleich auf Werbemitteln oder auf dem Briefpapier abgedruckt, doch wenn Informationssuchende dort nachsehen wollen finden sie nur die lapidare Baustelle. Wenn sich nach dem zweiten Besuch noch immer nichts getan hat, wandert diese Domain-Adresse unwiderruflich in den Papierkorb. Kontakt verschenkt, Geld verloren!

Eine Domain zu reservieren so lange sie noch frei ist macht natürlich zunächst Sinn. Allerdings produziert diese laufende Kosten und – nicht zu unterschätzen – auch von Anfang an Interesse! Das Wesen des Internet war, ist und bleibt nunmal a priori die Vermittlung von Informationen aller Art. Unterschiedlich verpackt, unterschiedlich relevant, aber immer Information. Daher sollte, wer eine Domain für sich reserviert, diese auch mit Inhalt füllen. Eine ungenutzte Domain schadet eher als dass sie nützt! Mit einer guten Präsenz im Internet kann Interesse geweckt werden, repräsentiert werden, informiert werden. Das alles muss nicht unbedingt viel und bunt sein, auch eine einfache Seite mit wichtigen Kontaktmöglichkeiten kann schon viel von ihrem Zweck erfüllen. Mit solchen Kontaktinfos (+ ein paar wenigen weiteren Informationen, lesen Sie hierzu auch unseren Artikel über die Impressumspflicht) ist darüberhinaus der Impressumspflicht nach dem »Gesetz über die Nutzung von Telediensten« oder kurz Teledienstgesetz (TDG) Genüge getan.

Wenn schon diese Kontaktinformationen eingepflegt werden, ist es ein leichtes diese Baustelle für weitere Funktionen zu nutzen. Anstelle eines lapidaren »under cunstruction« für unbestimmte Zeit können im Rahmen einer einfachen, knappen Seite die ersten wichtigsten Informationen gegeben werden: wer verbirgt sich hinter der Domain, was hat der/diejenige zu bieten, was wird an dieser Stelle in Zukunft an Information zu finden sein und vor allem wann werden diese Informationen bereitstehen. Eine klare Gestaltung, natürlich bei Firmen im Rahmen der corporate identity, eine klare Botschaft.

Ein weiterer Nutzen für beide Seiten kann elegant eingebracht werden: eine kleine Eingabezeile für den Besucher/die Besucherin, in welcher diese/r – ausdrücklich auf eigenen Wunsch – ausschliesslich seine email-Adresse hinterlassen kann, wenn er/sie über den Start der Präsenz informiert werden möchte. Der/die Besucher/in muss nicht immer wieder nachsehen, ob es jetzt endlich die ersehnten Informationen gibt; und nicht zu verachten: der Betreiber erhält eine Liste von qualifizierten email-Adressen, absolut freiwillig abgegeben, und dadurch einen Überblick, wer sich für seine Leistungen oder Produkte interessiert. Ein kleiner Aufwand für den Betreiber, grosser Nutzen für beide Seiten: Betreiber und Nutzer.

red@ktiv – die etwas andere WebAgentur hilft Ihnen gerne bei der Umsetzung Ihrer Präsenz im Internet – von der Planung über die Baustellenbeschilderung, die Entwicklung, die erste Präsenz bis hin zur kontinuierlichen Weiterentwicklung Ihrer Geschäfte im Internet.

Barrieren gibt es nur in den Köpfen von WebDesignern

»Ich schau mal schnell im Internet nach«. Längst gehört das Internet zu den täglichen Werkzeugen in Haushalt, Schule und Beruf. Ein Werkzeug, das sich zudem auch noch eine grunddemokratische Struktur auszeichnet. Jeder kann hier seine Botschaften einstellen, jeder kann diese Informationen nutzen. Wirklich jeder?

Bekanntermassen ist nicht jeder Mensch mit allen Sinnen gleich gut ausgestattet. Unsere Wahrnehmung der Welt ist unterschiedlich – auch die der Netzwelt. Umso mehr gilt das Gebot, das diesen unterschiedlichen Wahrnehmungen Rechnung getragen werden muss. Ein Gebot, das durch WAI erstmals konkretisiert wurde. Später mündete es für deutsche Bundesbehörden sogar in die Verordnung zur Barrierefreiheit in der Informationstechnik (BITV) ein. In zunehmendem Masse wird diese Verordnung auch durch die Gleichstellungsgesetze der Bundesländer in die Länder- und Kommunalverwaltungen einziehen. Bei Unternehmen wird der Markt für den notwendigen Druck sorgen. Welcher klug rechnende Kaufmann wird es sich auf Dauer leisten können auch nur einen Teil seiner potentiellen Kundschaft von seinem Warenangebot aussperren zu können?

Die Umsetzung in der Praxis ist derzeit jedoch noch nicht sehr weit fortgeschritten. Unverständlicherweise, ist doch der Anspruch an einen barrierefreien Internetauftritt mit einem sehr geringen Aufwand zu realisieren. Alle notwendigen Techniken um einen barrierefreien Internetauftritt zu erstellen sind etabliert und verfügbar. Mehr noch: es sind die Techniken, die man braucht um den gängigen Anforderungen an einen Internetauftritt gerecht zu werden:

  • Schnelle Ladezeiten durch »schmalen« Code
  • Leichte Pflegbarkeit der Präsenz durch stringente Trennung von Gestaltung und Inhalt
  • Suchmaschinenoptimierung durch textbasierten Inhalt in semantisch korrektem Kontext
  • Universelle Zugänglichkeit durch validen Code, der von allen Ausgabegeräten verarbeitet werden kann

Von diesen Zielvorgaben ausgehend ist es nur noch ein kleiner Schritt hin zur Barrierefreiheit. Für die Aufteilung von Gestaltung und Inhalt stehen HTML und CSS zur Verfügung. Beschränkt sich der WebDesigner bei der Seitenerstellung auf die Hinzufügung von einigen wenigen HTML-Tags zum eigentlichen Inhalt ist damit die Zugänglichkeit für alle, ein schneller Seitenaufbau und eine optimale Suchmaschinenwahrnehmung sichergestellt.

Dieses »HTML-Gerippe« ist optisch alles andere als ansprechend. Wer durch eine Sehbehinderung jedoch von dieser Optik sowieso nichts erfährt, wird jedoch für eine klare Struktur die ein Screenreader optimal verarbeiten kann dankbar sein. Für die Sehenden kommt dann im zweiten Schritt via CSS ein ansprechende Gestaltung dazu. Funktion und Ästhetik müssen dabei keine Gegensätze sein. Die Möglichkeiten die CSS für moderne und reiche Gestaltungen liefern reichen von der Vielfalt an die von Printlayout heran. Halbtransparenzen, mehrspaltiger Satz mit überlappenden Bildern, Schriftvariationen, mitwachsende Layouts, … alles ist (mit etwas Hirnschmalz) machbar.

Barrieren können aber nicht nur in der Visualisierung bestehen. Auch motorische Beeinträchtigungen, Schwierigkeiten im Textverständnis (Pisa lässt grüßen!) oder auch Hörschäden können zur Barriere hin zu einen erfolgreichen Webauftritt werden. Auch diese Lösungen sind nicht schwer umzusetzen. Ein kurzer Text, der ein Bild beschreibt, ein Untertitel in einem Tonfilm oder die Möglichkeit Links einfach nur per Tastatur statt mit einer Maus zu erreichen. Alles einfaches Handwerkszeug, das ein WebDesigner in seiner Werkzeugkiste finden sollte.

Fazit: schaut man sich im Netz um, finden sich immer wieder sehr gute Umsetzungen von Barrierefreien Internetseiten, die auch für uns »Normale« ansprechend und leicht zu bedienen sind. Leider überwiegen immer noch handwerklich schlechte Lösungen, die mit Frames, Javascripten oder Flash vielen ihrer Nutzer das Leben schwer machen. Bei einigen Internetauftritten muss man nicht mal behindert sein um daran zu verzweifeln. Die größte Barriere im Netz besteht leider immer noch in den Köpfen von WebDesignern.

Dieser Artikel erschien Anfang Januar auch in der Zeitschrift »Sprachrohr«

Das virtuelle Grundbuch

Der erste Schritt um eine Aufmerksamkeit im Netz zu erzielen ist und bleibt der eigene Domainname. Aber wie so oft ist unter Juristen auch hier der Begriff des Besitzes und des Eigentums zu unterscheiden. Die pure Erreichbarkeit meiner Seiten unter www.meinname.de ist lediglich der Besitz, noch nicht das Eigentum an diesem Namen. Für den Begriff des Eigentums ist die Eintragung der Webadresse entscheidend. Diese Eintragung erfolgt in nationalen Registern welches in Deutschland durch die DENIC unterhalten und gepflegt wird. Diese nationalen Register sind faktisch so etwas wie die »Grundbücher« des Internets. Wer als Domaininhaber vermerkt ist, ist der Eigentümer der Domäne, also der Webadresse. Für zwei aktuelle Vorgänge ist dieser Unterschied von elementarer Bedeutung.

Zum einen das Urteil des OLG Celle vom 8.4.2004. Im vorliegenden Fall hatte eine WebAgentur eine Kundendomain widerrechtlich auf ihren Namen registrieren lassen. In der (durchaus kontroversen) Kommentierung des LawBlogs von Rechtsanwalt Arne Trautmann heißt es richtigerweise dazu:

Eigentlich gibt es keinen wirklich triftigen Grund, eine Domain für einen Kunden nicht auf dessen Namen als Inhaber zu registrieren. Ziemlich dünn ist jedenfalls das Argument der Kundenbindung: gerade mit der Domain kann man einen Kunden bestenfalls erpressen, nicht aber binden. Es tut an dieser Stelle also nicht weh, dem Urteil Folge zu leisten und damit jedenfalls auf der sicheren Seite zu stehen.

Leider gibt es nach wie vor genügend schwarze Schafe die lieber auf ihren, statt auf den Namen ihrer Kunden registrieren oder auch Altbestände dieser Praxis mit sich herumschleppen. Als Kunde sollten Sie ein hohes Interesse daran haben, dass Sie für Ihre Domain auch mit Ihren Namen und mit korrekter Adresse beim Registrar als Domaininhaber vermerkt sind!

Denn: dieser Umstand wird nach dem 12. November 2004 von zunehmender Bedeutung. Ab diesem Datum gelten für alle im ICANN akkreditierten Registrare (das sind praktisch alle namhaften deutschen Webhoster) veränderte Umzugsregeln. Bisher mußte der Provider, bei dem eine Domain bisher gehostet wurde, einem Umzug zu einem anderen, neuen Provider explizit zustimmen. Nun wird daraus ein expliziter Widerspruch. Das Umzugsverfahren wird also in aller Regel vereinfacht und beschleunigt. Aber diese Vereinfachung und Beschleunigung gilt auch für einen widerrechtlichen Domaineigentümer! Eines bleibt nämlich unverändert: Initiator eines solchen Umzugsverfahrens kann immer nur der Domaininhaber sein. Fatal wenn dies ein unberechtigter Dritter ist, der über ihre Adresse im Internet nun frei und relativ ungebremst verfügen kann. Kommt es zu einem Rechtsstreit sind zwar – wie oben gesehen – die Chancen hoch die Domain zugesprochen zu bekommen. Aber die Zeit die bis zu einer solchen Klärung verstreicht kann das faktische Ende der Domain und ggf. ihres Geschäfts bedeuten.

Unsere Handlungsempfehlung daher:

  • Prüfen Sie unter http://www.denic.de/de/whois/index.jsp ob Sie als Domaininhaber für ihre .de-Domain eingetragen sind. Achten Sie auch darauf, ob ihre aktuellen Adressdaten sind und ob innerhalb einer Firma der richtige Ansprechpartner benannt ist.
  • Leiten Sie ggf. ein sogenanntes Eignerwechselverfahren ein, mit dem Sie den Domainnamen auf sich übertragen lassen können.
  • Sollten Sie sich bei ihrem bisherigen Provider aufgrund der Registierungsvorkommnisse nicht gut aufgehoben fühlen oder bekommen Sie beim Eignerwechsel von ihm Steine in den Weg gelegt – erwägen Sie einen Providerwechsel.
  • Kontaktieren Sie uns, wenn Sie einen stressfreien Service für alle Arbeiten vom Domaincheck bis zum Provider- und/oder Eignerwechsel wünschen.

Neuigkeiten frei Haus

Wer seine Kundschaft regelmässig mit aktuellen Informationen, Angeboten u.ä. versorgen möchte, griff bisher auf eMail-Newsletter zurück. Durch die zunehmende Flut an Spam in den Postfächern aller Anwender ist dieses Medium jedoch beinahe verbrannt. Kaum jemand unterscheidet noch sauber zwischen den wirklich angeforderten Informationen oder den unverlangt zugesandten »Viagra-Schnäppchen-«, »Ich mach Dich Reich-« und »Hier geht die Post ab-« Spammails. An dieser Stelle springt zunehmend RSS in die Bresche.

RSS steht für »Rich Site Summary« – also eine inhaltsreiche, aussagekräftige Zusammenfassung einer Webpräsenz. Technisch gesehen steckt ein sehr einfaches XML-Format dahinter. Durch dieses schlanke, standardisierte Format ist es möglich Informationshäppchen nur formal klassifiziert (also: was ist Überschrift, was ist der Inhalt, gibt es einen Link) ohne Gestaltungsinformationen bereitzustellen. RSS wird damit dem Postulat »Information ist eine Bringschuld« in hohem Maße gerecht.

Bereitstellen läßt sich prinzipiell alles: aktuelle Nachrichten aus aller Welt, der Änderungsdienst von Stücklisten eines Produktionsprogramms, die letzten Diskussionsbeiträge im Community-Forum, die kommenden Termine für eine Veranstaltungsreihe, … der Phantasie sind fast keine Grenzen gesetzt. Neuester Trend bei der Nutzung dieses Formates ist das sog. Weblog – eine Art elektronisches, öffentliches Tagebuch im Internet. Leider oft genug auch mit den entsprechenden Banalitäten in den Einträgen behaftet wie ein »echtes« Tagebuch. Allgemein gesprochen ist ein RSS-Einsatz überall dort sinnvoll möglich, wo über Veränderungen eines Datenbestands aktuell informiert werden soll.

Wer bietet bereits solche RSS Informationen an?

Die Spannbreite ist so bunt wie der Zeitschriftenständer im Bahnhofskiosk. Tagesaktuelle Nachrichten und Hintergrundberichte werden von namhaften Fernsehsendern wie N24 ebenso wie von Zeitungen und Zeitschriften wie Spiegel, Stern, Welt, Zeit etc. bereitgestellt. Wer sich für entsprechende internationale Publikationen interessiert wird auch da fündig: New York Times oder lieber BBC – kein Problem. Erwartungsgemäß sind die IT-Themenanbieter ebenfalls stark engagiert. Neueste Virenwarungen für den Windows-PC gewünscht? Oder die letzten Gerüchte zu kommenden Konsolenspielen? Aktuelle Trends aus der IT-Branche, oder spezielles zu Linux oder Macintosh – alles ist auf dem Markt zu haben. Ebenso breitgefächert und z.T. inhaltlich sehr hochwertig sind die Special-Interest Themen. Ob zu WebDesign und -programmierung wie hier bei red@ktiv, das Kulturprogramm von München, Mystery oder Marketing – zu finden gibt es reichlich. Einen ersten Überblick über das RSS-Angebot gibt das RSS-Verzeichnis, das trotz seines Versuchsstadiums bereits über 1.000 Feeds aus den verschiedensten Bereichen listet. Auch der Blick auf interessanten Webseiten nach einem »RSS« oder »XML«-Button oder -Link kann lohnen. Dr. Web bemüht sich derzeit einen Standard für ein RSS-Icon zu finden.

Wie kann ich Informationen aus RSS-Feeds nutzen?

HTML-Seiten werden durch den Browser betrachtet, eMails kommen ins elektronische Postfach und werden von entsprechenden eMail-Programmen aufbereitet und dargestellt. Entsprechend gibt es auch für RSS-Feeds Programme mit denen sich die bereitgestellten Informationen auslesen lassen. Diese sog. RSS-Reader sind in einer breiten Auswahl für alle Plattformen verfügbar – sehr oft sogar kostenlos oder für geringe Shareware-Entgelte. Zunehmend finden RSS-Reader auch Einzug in den Internet-Suites, also den Programmpaketen, die einen »All-in-one«-Ansatz für Browser, eMail, z.T. Chat und eben RSS verfolgen. So können bereits Mozilla und Opera RSS-Feeds verarbeiten und in einer Seitenleiste darstellen. Auch die nächste Version von Apples Safari, der bis Mitte 2005 erscheinen soll, wird über entsprechende Funktionen verfügen. Ebenso ist es möglich solche RSS-Feeds Dritter direkt in die eigene Internetseite einzubauen.

Durch die Zusammenführung mehrerer Feeds entsteht so beim Benutzer eine stets frische und individuelle »Tageszeitung« auf dem Rechner. Aus dem reichhaltigen Informationsangebot der RSS-Feeds kann sich jeder den Teil, der ihn interessiert herauspicken. Die Nachrichten laufen dann unmittelbar nach Veröffentlichung ein. Zudem können sie in den meisten Readern aggregiert, gespeichert und durchsucht werden.

Die Vorteile von RSS für den Nutzer lassen sich also wie folgt zusammenfassen:

  • Informationen aus RSS-Feeds sind stets aktuell – zumindest solange man online ist
  • Informationen aus RSS-Feeds sind nutzergerecht – der Nutzer selbst bestimmt was er abonnieren und lesen mag und was nicht
  • Informationen aus RSS-Feeds sind spamfrei – durch den Pull-Ansatz (der Benutzer holt sich die Informationen ab) werden unerwünschte Inhalte ungeklärten Ursprungs komplett vermieden.
  • Informationen aus RSS-Feeds sind authentisch – dies gilt insbesondere für Individualquellen. Es gibt keine »Info-Zwischenhändler« wie Nachrichtenagenturen oder Redaktionen die Informationen filtern oder manipulieren (bitte im wörtlichen Sinne anwenden: frz. manipuler = handhaben), sondern es gibt eine direkte Beziehung zwischen Nachrichtenlieferant und Nachrichtenkonsument.

!DOCTYPE-HTML-PUBLIC“-// W3C//DTD XHTML 1.0 ohne Einschränkungen

Zum ersten Mal ein Artikel, der nicht aus unserer Feder stammt sondern dem Weblog »The Man in Blue« entnommen wurde. Cameron Adams – der »Mann in Blau« – spricht uns in seinem englischsprachigen Artikel dermaßen aus der Seele, das wir uns eine Übersetzung nicht verkneifen konnten:

Beim Gestalten tabellenfreier Websites sind viele Dinge zu beachten: Das Box-Modell, mysteriöse 3-Pixel große Abstände, relative Schriftgrößen, kaskadierende Stilregeln, Textumfluß … aber nichts davon ist wirklich wichtig. Beim Entwurf einer Website sollte man an all das nicht denken.

Wenn es an die Gestaltung von Websites geht, sind reine Grafikdesigner mit Unwissenheit gesegnet. Sie müssen nicht vorausdenken, wie ihr Design umzusetzen ist. Sie müssen sich keine Gedanken machen, wie ein Fußbereich auf einer Seite konstant unten fixiert wird. Und genau so
sollten es WebDesigner machen.

Standard-basiertes WebDesign steckt noch in den Kinderschuhen. Überall findet man Tutorials über die Erstellung von Webseiten in XHMTL/CSS und jeden Tag entsteht eine neue Technik in diesem Bereich. Ohne fortschrittliches Design, ohne die Freiheit mal nicht über die Umsetzung nachzudenken, würde niemand die Grenzen der Webstandards verschieben. Möglicherweise wären sie in dem Moment
verschwunden, wenn jemand die Frage stellte »Wie schaffe ich es, daß zwei Spalten immer gleich lang sind?«.

Beim Design geht es nicht um die Werkzeuge, es soll dem Anwender das bestmögliche Erlebnis vermitteln. Ein Design sollte auf Benutzbarkeit (usability), Zugänglichkeit (accesibility) und Ästhetik beruhen, aber niemals auf Umflüssen, Listen oder Hintergrundbildern.

Wenn ich)* beginne, eine Website zu entwerfen, ist es ein rein graphischer Ansatz. Photoshop und Illustrator allein bestimmen die Grenzen. Innerhalb dieser Grenzen kann ich ein fünfspaltiges Layout mit fixiertem Fußbereich, Drop-Down-Menüs und freischwebender Farbauswahl für die Schrift erschaffen. Egal ob ich das umsetzen kann – das ist, was ich gerne sehen würde.

Dann, … danach geht es an die Lösung der Probleme. Es ist die analytische Seite des WebDesign, bei der uns WebDesignern das Wasser im Mund zusammenläuft, die uns teilweise zu Turing, teilweise zu Picasso (zumindest ein bischen) macht. Natürlich dürfte es ruhig machmal etwas einfacher sein, die Lösung für das Layout zu finden, Aber ich genieße die Herausforderung und stelle mich allem, was da kommt.

Das Ziel der Web-Standards ist es, unsichtbar zu sein. Sie dürfen nichts anderes hervorbringen als Tabellenlayouts oder jeder andere Tag-Sumpf. Es ist also unsere Pflicht, gut zu designen und uns erst
später um die Standards zu kümmern.

* ich = „The Man in Blue“, AKA Cameron Adams. Aber wir arbeiten da genauso…

(Übersetzt von The Man in Blue
Dort an ein Gespräch mit der Web Standards Group angelehnt.)

Die teuersten Textzeilen des Internets …

… oder: Warum 5 bis 10 Zeilen Text in ihrer Internetpräsenz 50.000 Euro und mehr kosten können. Die Branche der Internet-Dienstleister hat schon manches zweifelhafte Preismodell, wie z.B. die Abrechnung nach der Zahl der Seiten hervorgebracht. Aber jetzt auch noch nach Zeilen? Und zu Konditionen die kein Spitzenjournalist zu berechnen wagen würde!? Nicht einmal Systemhäuser, welche Anwendungen für die LKW-Maut oder für den virtuellen Arbeitsmarkt erstellen. Obwohl gerade dort dieser Eindruck enstehen könnte, es würde zeilenweise abgerechnet. Und jetzt kommt`s noch besser: Das Geld wird für Zeilen fällig, die gar nicht vorhanden sind!

Nein, keine Angst. Wir sind natürlich nicht größenwahnsinnig geworden in unserer Preisgestaltung. Die Rede ist natürlich vom fehlenden Impressum. Laut »Gesetz über die Nutzung von Telediensten« oder kurz Teledienstgesetz (TDG) § 6 sind für »geschäftsmässige Teledienste« bestimmte Informationen vorzuhalten. Zu diesen Informationen zählen:

  • Name und Anschrift, sowie bei juristischen Personen der Vertretungsberechtigte
  • Kontaktdaten für eMail
  • ggf. Angaben zur zuständigen Aufsichtsbehörde (abhängig von Zulassungsvorschriften für bestimmte Tätigkeiten)
  • ggf. Registerdaten von Handels-, Vereins-, Partnerschafts- oder Genossenschaftsregister (abhängig von der Rechtsform)
  • ggf. Berufsrechtliche Angaben, Kammerzugehörigkeiten, Berufsbezeichnungen (abhängig von der Branche/Berufszugehörigkeit)
  • ggf. Umsatzsteueridentifikationsnummer (sofern vorhanden)
  • ggf. weitergehende Informationen die sich aus anderen weitergehenden Gesetzen ergeben

§ 2 TDG regelt, wer und was alles unter »geschäftsmässigen Diensten« zu verstehen ist. Der einfachste Fall ergibt sich schon aus der Vorhaltung einer Webpräsenz. Wohlgemerkt: schon der privaten! Nicht erst bei der Unternehmenspage »uns gibt`s, wir können, wir machen, wir bieten« und schon gar nicht erst ab WebShop aufwärts! Geschäftsmässig steht nicht synonym für »gewerblich« oder »kommerziell«, sondern eher für »nachhaltig« (Abgeleitet aus § 3, Punkt 5 TKG Telekommunikationsgesetz).

Weiterhin regelt das TDG, dass die o.g. Informationen »leicht erkennbar, unmittelbar erreichbar und ständig verfügbar« zu halten sind. Was das genau heißt ist noch höchstrichterlich herauszufinden. Die OLG-Rechtssprechungen sind derzeit noch höchst wiedersprüchlich:

Wer auf Nummer sicher gehen will, bietet auf allen Seiten innerhalb der stets sichtbaren Navigation einen Link, der die entsprechenden Informationen bereit hält. An dieser Stelle trifft unser Credo, dass Seiten für alle zugänglich sein müssen, besonders zu. Grafische Links ohne Textpendant oder Links in Javascript, Flash, Java etc. werden ansonsten zum teueren Beinschuß. Die Infos selbst sollten (analog der Rechtssprechung zu den AGBs) lesbar, also z.B. in nicht zu kleiner Schrift gehalten sein.

Aktuelle Schätzungen gehen davon aus, das rund 80 % der betroffenen Webpräsenzen über keine, unvollständige oder nicht erreichbare Impressumangaben verfügen. Die Folgen davon können sehr schnell sehr teuer werden. Im »billigsten« Fall können solche Seiten kostenpflichtig abgemahnt werden. Auch wenn angedrohte Unterlassungsstrafen aufgrund von Nachbesserungen umgangen werden können, sind zumindest die Kosten für die Abmahung selbst zu berappen. Der Verstoß gegen die Impressumspflicht ist eine Ordnungswidrigkeit die mit einer Geldbuße von bis zu 50.000 € belegt ist. Wichtig: das Eine (die Abmahung) schließt das Andere (die Geldbuße) nicht aus! Im ungünstigsten Fall addieren sich also diese Kosten.

red@ktiv – die etwas andere WebAgentur – hilft ihnen bei der technischen Umsetzung eines Impressums. Sei es als Einzelleistung oder im Rahmen einer kompletten Neugestaltung. Was wir nicht leisten können (dürfen) ist juristische Beratung im Sinne des Rechtsberatungsgesetz. Hier hilft ihnen ein zugelassener Anwalt. Den Volltext des TDG gibt`s vom Bundesministerium für Wirtschaft und Arbeit über den JURIS-Dienst

Elastisches Design

Bei der Überarbeitung der red@ktiv-Webseite wurde nicht nur Wert auf eine inhaltliche Neuausrichtung gelegt. Ziel des Redesigns war u.a. auch die universelle Zugänglichkeit (Accessibilty) für alle Browser und alternative Ausgabegeräte. Die technische Umsetzung mit Cascading Style Sheets (CSS) ist dabei die erste Wahl. Und wenn schon CSS dann gleich richtig.

Was kann an Webdesign elastisch sein?

Gemeint ist, das eine Seite unabhängig von der Fenstergröße oder der Bildschirmauflösung für den Betrachter benutzbar bleibt. Inspiriert durch die Artikel Sliding Doors of CSS und Elastic Design entstand für die red@ktiv-Seite ein entsprechendes Layout.

Zunächst gilt es das Font-Size Problem zu lösen. Während Mac und Linux Browser i.d.R. eine Auflösung von 72 dpi (dot per inch = Pixel pro Zoll) nutzen, sind Windows Browser i.d.R. auf 96 dpi eingestellt. Wie immer, so auch hier: keine Regel ohne Ausnahme. Aber egal wie ihr Browser eingestellt ist: Bei Schriftgrößen, die über die Einheit »Punkt« definiert werden, kommt es zum Problem, das eine mittlere Schriftgröße auf 72 dpi für den 96 dpi-Browser zu groß erscheint und umgekehrt eine mittlere Schriftgröße für 96 dpi bei 72 dpi-Browsern zu Augenpulver wird. Ein erster Ansatz »Pixel« (px) als Einheit zu wählen (10 px sind und bleiben 10 px, egal wieviele davon auf einem Zoll untergebracht werden, die Schriften erscheinen also überall gleich groß) stellt sich schnell als unbrauchbar heraus, weil damit die Skalierung der Schrift durch den Benutzer unterbunden wird. Genau diese Bevormundung steht dem Anspruch einer »universellen Zugänglichkeit« aber im Weg. Man denke nur an Menschen mit eingeschränkter Sehfähigkeit, die auf die Vergrößerung der Schrift angewiesen sind. Abhilfe schafft die Verwendung der Einheit »em«. »em« steht dabei für »Elementeinheit«. 1 em entspricht dabei 100 % der im Browser voreingestellten Standardschriftgröße. Diese kann der Benutzer global in den Voreinstellungen seines Browsers anpassen; oder auch je Fenster individuell über entsprechende Vergrößerungs-/Verkleinerungs-Tasten oder -Menüeinträge in seinem Browser. Damit ist ein erster Schritt zum »elastischem Design« getan.

Der zweite wesentliche und konsequente Schritt besteht nun darin, die Einheit »em« auf weitere Seitenelemente zu übertragen. Arbeitet man CSS nach dem Box-Modell ab, besteht eine Seite letztlich immer aus neben-, über- und ineinander gestapelten Rechtecken (Boxes). Diese Boxes wiederum sind durch einige Attribute beschrieben – z.B. die Beschaffenheit des Hintergrunds (Farbe, eingebundenes Bild, das ggf. wiederholt wird), Beschaffenheit des Rahmens (Dicke, Farbe, Strichelung), der Abstand des enthaltenen Textes zum äußeren Rahmen (padding) und der Randabstand der Box zu benachbarten Elementen (margin). Wendet man nun auf alle Größenangaben die eine solche Box beschreiben wiederum die Einheit »em« an, so werden auch diese Elemente anhand der Browservorgaben skaliert.

Als dritter – schon etwas anspruchsvollerer – Schritt kommt noch die Anwendung der Einheit »em« auf Bilder dazu. Anstatt der üblichen Höhen- und Breitenangaben in Pixeln (px) erfolgt auch hier die Angabe in »em«. Dabei ist darauf zu achten, das durch die Verwendung das Seitenverhältnis des Bildes gewahrt bleibt. Letztlich eine einfache Dreisatzrechnung um die vorhandene Pixelgröße in em zu übertragen. Idealerweise sollten daher Bilder verarbeitet werden, die über ein fixes Seitenverhältnis verfügen (4:3 oder 16:9 oder quadratisch). Damit können CSS-Klassen auf das jeweilige Verhältnis in Hoch- und Querformat beschränkt werden. Desweiteren müssen die Bilder in einer etwas höheren Qualitätsstufe als ansonsten üblich vorliegen, da diese ja vergrößert werden können und dann immer noch scharf sein sollten. Wahlweise kann dies über eine niedrigere Kompressionsrate bei .jpgs oder über ein größeres Format (mehr Pixel) erfolgen. Die Möglichkeiten muß man abhängig vom Motiv durchprobieren, ein Patentrezept für einen Kompromiß aus bestmöglicher Darstellungsqualität und kleiner Dateigröße (für schnelle Ladezeiten) gibt es leider nicht.

Im Ergebnis ergibt sich dann eine Webseite, die komplett »mitwächst« wenn die Darstellung vergrößert oder verkleinert wird. Die Proportionen innerhalb der Seite von Textgrößen zueinander, Bild zu Text und Gestaltungsmerkmale des Layouts bleiben – unabhängig von der eingestellten Darstellungsgröße – weitestgehend erhalten. Weitestgehend deshalb, weil »ems« mit »nur« einer Stelle hinter dem Komma zuverlässig anzugeben sind. Durch Rundungsfehler beim Skalieren können dann einzelne geringere Abweichungen entstehen.

Wird das CSS komplett abgeschaltet (z.B. durch alternative Darstellungsgeräte, wie Screenreader, Brailledisplays oder auch durch reine Textbrowser) bleibt der Inhalt komplett zugänglich. Durch eine durchdachte Struktur z.B. bei der Anordnung von Links zur Navigation innerhalb der Seite wird zudem auch bei nicht vorhandenem CSS eine gute Nutzbarkeit (Usability) sichergestellt.

Spam, Eggs, Spam, Ham, Spam, Spam, Sausage and Spam

Jeder der über einen Mail-Account verfügt wird es schon verflucht haben: die unzähligen Werbebotschaften, die einem die Mailbox dermassen fluten, das wesentliche Informationen beinahe untergehen. Spam ist eigenlich Frühstücksfleisch. Als nerviges Element wurde es durch einen Sketch der Komiker-Truppe Monty Python geprägt. Stellt sich also für jeden die Frage wie man sich vor Spam – richtiger vor Unsolicited Bulk eMail, UCE – schützen kann.

Eine Patentlösung gibt es leider nicht. Aber über ein paar Instrumente kann man den Spamern wenigstens das Leben etwas schwerer machen.

  1. bei der Gewinnung von eMail-Adressen über Webseiten kann man Spambots ein paar Beine stellen. Spambots sind Roboterprogramme die das Netz nach einem eMail-Adressmuster auf Webseiten durchforsten. Klassisch sind dabei »mailto:« oder das »@«-Zeichen. Ggf. auch verfeinert durch sog. reguläre Ausdrücke, z.B. ob hinter dem @ auch noch irgendwann ein Punkt und ein »de«, »com» oder ähnlich erscheint. Tauscht man solche verräterischen Bestandteile durch URL-Codierungen aus, muß der Erkennungsfilter des Spambots darauf schon wieder trainiert sein. Etliche sind’s, aber ein paar eben nicht, und die sind dann schon mal draussen. Für den Mac gibt es das Programm SpamStopper, das einem hilft solche URL-Codierten Mail-Adressen zusammen zu bauen. Dieser Schutz geht allerdings nicht sehr weit und wird in der Netiquette z.T. als »unfreundlich« eingestuft.
  2. einen Schritt weiter geht unsere red@ktiv-Lösung. Wir codieren eMail-Adressen beim Seitenaufruf mit PHP-Funktionen und generieren aus dem Text des Maillinks ein Bildchen. Dieses Bildchen ist für jeden User Klartext lesbar, aber Spambots können mit dem .png-Format nichts anfangen. Der Link der um dieses Bild liegt ruft darüberhinaus nicht das lokale Mailprogramm auf (was »mailto:« machen würde), sondern verzweigt in ein eigenes WebForumular. Praktische Anwendung z.B. bei http://www.transalp.de/about/kontakt.php Sämtliche dort gelisteten eMail-Adressen sind solche Bildchen, die das Kontaktformular aufrufen. Nachteil der Lösung: es braucht ein Webhosting mit PHP-Unterstützung, was i.d.R. etwas teuerer ist.
  3. wenn schon PHP, dann richtig: in jeder Datei steckt ein Header drin, der überprüft, wer diese Seite gerade aufruft. Die Spambots identifizieren sich gegenüber dem Server, so wie das auch jeder Browser oder jede Suchmaschinen tut (ein Spambot ist genau genommen nichts anderes als eine Suchmaschine und eine Suchmaschine streng genommen auch nur ein Sonderfall eines Browsers). Da diese Kennungen bekannt sind, können Seitenaufrufe durch solche Kanditaten von vorherein unterbunden werden. Nachteil: ändert der Bot seine Kennung oder gibt sich als stinknormaler Browser aus, ist diese Bremse umgangen.
  4. Noch einen Schritt weiter geht die Methode von Daniel Rehbein: Dieser wirft per PHP-Programm den Spambots »getürkte« Mailadressen zum Fraß vor, die für einen normalen Nutzer unsichtbar sind (also garantiert nur von Spamern genutzt werden). Die krude Adresse hat aber dennoch einen realen Hintergrund. Durch entschlüsseln der Mailadresse kann der Zeitpunkt des Aufrufs, die IP des Aufrufers etc. bestimmt werden. Tauchen bestimmte IP-Bereiche dabei häufiger auf, kann man schon mal nachsetzen wer sich dahinter verbirgt und einen solchen Adresslieferanten dingfestmachen. Teleinfo.de, die in Daniels Falle geraten war, hatte jedenfalls ordentlichen Rechtfertigungsdruck :-D.
  5. für Registrierungen, Umfragen, etc. etc. sollte jeder mindestens eine »Mülleimer«-Adresse haben. Gerade Webmail-Anbieter wie http://freemail.web.de oder http://www.gmx.de etc. etc. taugen sehr gut für solche Adressen, die man den Spamern zum Fraß vorwerfen kann. Wird das Postfach zu voll, einfach den Account kündigen. Für die wirklich wichtigen Sachen hat man dann noch eine zweite Adresse, die nur im engen Kreis gestreut wird.
  6. Wer eine eigene Domain besitzt, verfügt i.d.R. auch über reichlich eMail-Adressen, die man über eine Weiterleitung oder ein Default-Postfach wieder zusammenführen kann. Damit kann man dann für ebay, amazon etc. etc. eigene Mailadressen wie ebay@meinedomain.de kreiieren. Läuft dann irgendwann mal Spam auf so einer Adresse ein, kann man nachvollziehen, woher dieser kam und ggf. auch den Betreiber einer solchen Seite angehen. Gerade namhafte Anbieter, die eine Weitergabe von eMail-Adressen vorher ausdrücklich ausgeschlossen haben. werden ein Eigeninteresse haben, undichte Stellen dann zu lokalisieren um nicht selbst in Verruf zu geraten.
  7. Spamfilter. Die aus AppleMail oder aus Eudora lassen sich schon recht gut trainieren, weitere Möglichkeiten gibt es insbesondere durch den Einsatz eines eigenen Mailservers (z.B. unter Linux) der über eigene Filterregeln verfügt und diese laufend mit dem Internet abgleicht. Im Netz werden sog. Blacklists von Spamern bereitgestellt, mit der sich bestimmte aktuelle Spamaufkommen sehr gut klassifizieren und filtern lassen. Eine Übersicht liefert http://www.spam-blockers.com/SPAM-blacklists.htm Mit einem solchen vorgeschalteten Server lassen sich weiterhin auch sehr gut Virenfilter aufsetzen.

Der Vollständigkeithalber, auch wenn’s nicht zum engeren Kreis von Spam gehört:

eMail-Verkehr geht Klartext über die Leitung. D.h. jede Zwischenstation (sog. Mail-Relays) können diese theoretisch mitlesen und auswerten. Auch wenn es keinen direkten Schutz für die eMail-Adressen von Sender und Empfänger bedeutet (logisch: die müssen Klartext lesbar bleiben) kann und sollte man wichtige Nachrichten PGP-verschlüsseln.

Nur einen geringen Schutz bieten die SSL-Verbindungen zu den Mail-Relays des jeweiligen Providers. Damit wird lediglich der Datenverkehr auf dieser einen Strecke verschlüsselt. Alle anderen Zwischen-Hops von Server zu Server die zwischen Mailabsender und -empfänger liegen laufen nach wie vor Klartext ab.

Fazit: Wie auch bei Viren, Firewalls, WLAN-Abschottung und anderen Sicherheitsthemen kann es immer nur darum gehen, Hürden aufzustellen, die Leuten mit unlauteren Absichten das Leben schwer machen. Je mehr Hürden desto schwerer, aber unüberwindlich ist in letzter Konsequenz keine dieser Hürden. Nur der Aufwand zur Überwindung wächst und zumeist entwickelt sich damit das Interesse an der Überwindung umgekehrt proportional ;-).

Der Monty Python Spam-Sketch

Optimiert für …

Weil ich es gerade mal wieder – bei einem hochdekorierten Preisträger! – gefunden habe: es gibt nach wie vor WebDesigner die glauben, die Webwelt bestehe aus ihrer (beschränkten) Produktionsumgebung. Oder dem was Aldi verkauft. In der Konsequenz verlangt das nichts anderes als daß der Anbieter des Produkts als erstes nicht sein Produkt kommunizieren kann, sondern seiner Kundschaft Rahmenbedinungen diktieren muß. Oder gleich auf deren Besuch verzichtet. Beide Alternativen sind unter Marketinggesichtspunkten eine schlichte Katastrophe. Kunden wünschen bedient zu werden, nicht belehrt oder gar abgewiesen. Wie würden Sie empfinden, wenn Ihnen vor dem Supermarkt ein Türsteher erklärt das Sie nur unter diesen oder jenen Bedingungen hier einkaufen könnten?

Wir diskutieren mit einigen Kollegen. Und immer wieder mit welchen, die glauben an dieser Stelle die Statistiken auf ihrer Seite zu haben. Über den Verbreitungsgrad dieses oder jenes Betriebssystems, des Browsers XYZ, die Bildschirmauflösung 08/15 und des Sowieso-PlugIns.

Ok, reden wir über Statistik:

Blenden wir die auch in diesem Fall völlig richtige Weisheit Winston Churchills Man kann nur einer Statistik trauen, die man selbst gefälscht hat einmal komplett aus. Versuchen wir einfach den höchstmöglichen Verbreitungsgrad für die häufigst unterstellte Umgebung zu errechnen:

  • aktueller Internet Explorer (ab Version 5 und neuer)
  • unter Windows (wir nehmen alles mit: 3.x, 95, 98, ME, 2000, NT, XP)
  • bei einer Bildschirmauflösung von mindestens 1024 x 768 Pixeln
  • mit installiertem Macromedia Flash-PlugIn, wahlweise aktiviertem JavaScript

Unterstellen wir Windows einen Marktanteil von 90% (genaue Zahlen für Desktop Betriebssysteme sind leider nirgends zu bekommen – wahrscheinlich aus gutem Grund nicht mal von Microsoft selbst). Auch für die Browserverteilung gehen wir von 90% aus . Ebenso nehmen wir für Bildschirmauflösungen von 1024 x 768 und höher einen Verbreitungsgrad von 90% an. Bei der Auswahl zwischen Pest und Cholera Flash und JavaScript entscheiden wir uns für Flash und übernehmen die 97% Verbreitungsgrad die Macromedia von sich selbst behauptet.

Jetzt wird’s spannend

Nach einfachen Rechenregeln und der Annahme einer statistischen Normalverteilung macht das: 0,9 * 0,9 * 0,9 * 0,97 = 0,70713 oder großzügig gerundet: 71%! Nochmal: sämtliche Basiszahlen sind mit hoher Unsicherheit behaftet. Aber selbst wenn man einen »Sicherheitsaufschlag« dazu nähme und mit 0,95 * 0,95 * 0,95 * 0,99 rechnete, würden »nur« knappe 85% herauskommen. Das Szenario das eintritt, wenn die Zahlen schlechter sein sollten, mag sich jeder selbst ausmalen.

Sind 85% viel?

Nein, es sind glatte 15%, die an vollständiger Zugänglichkeit fehlen. Mal ehrlich: welcher klug rechnende Geschäftsmann kann es sich heutzutage leisten auf 15 oder gar 30% seiner potentiellen Kundschaft, seiner Umsätze, seiner Gewinne zu verzichten? Die Antwort ist ebenso einfach wie die Lösung für das oben beschriebene Dilemma: Verlangen Sie als Kunde von ihrem WebDesigner Seiten die auf allen Browsern, auf allen Betriebssystemen, bei allen Bildschirmauflösungen – richtiger sogar auf allen Ausgabegeräten, es gibt mehr als nur optische Ausgabegeräte! – mit allen Systemumgebungen funktionieren. Nicht auf einigen. Nicht auf den meisten. Auf allen! Der Aufwand für solche Seiten ist nicht größer als für das was die »optimiert für«-Fraktion abliefert.

„Kollegen“ – und wer sich sonst noch so im WebDesign-Markt tummelt

Bei meiner Reise durch’s Netz stoße ich immer wieder auf Seiten deren Macher mich interessieren. Sei es weil diese Seiten herausragend gut oder einfach nur grottenschlecht sind.

Nach unseren Recherchen lassen sich die Seiten und ihre Macher dabei in eine Matrix einsortieren, die etwa wie folgt ausschaut:

seitenmachermatrix

In Segment 1 (eigentlich sollte man es »Segment 0« nennen) sind die klassischen Billigheimer der Branche zu finden: private Homepage-Bastler, Studenten, Freunde und Bekannte, die einem für kleines Geld »einen Gefallen tun«. Auch Bürodienstleister, »Unternehmensberater« die alles und jedes an Dienstleistungen in ihrem Portfolio haben das hilft, die Büromiete zu zahlen, sind hier anzutreffen. Oft genug sind die Angebot in diesem Segment an Preisen pro Seite erkennbar. Die Seiten die dort entstehen sind eben trivalstes, statisches HTML das oft genug auf Standarddesigns der einschlägigen Homepage-Bastelsoftware beruht. Meine Bewertung: wer hier kauft, kauft zweimal. Von »Gefallen tun« kann daher eigentlich keine Rede sein. Wer sich als Unternehmen professionel im Internet darstellen will, braucht dazu auch professionelle Partner.

Segment 2 wird im wesentlichen durch Systemhäuser und Anbieter von Branchensoftware repräsentiert. Vorhandene Kenntnisse aus Netzwerken, Softwareentwicklung etc. wurden und werden auf Internetentwicklungen angewandt. Funktional kommen dabei z.T. sehr hochentwickelte Lösungen heraus, die oft genug aber durch den Einsatz von »zweitbesten« Technologien noch etwas ungeschliffen sind. Die optische Gestaltung ist zumeist eher rudimentär – an vielen Ecken wird erkennbar, das die Lösung aus der Hand eines Technikers stammt.

Umgekehrt verhält es sich im Segment 3: was hier an Gestaltung sogar zuviel drin steckt, fehlt auf der funktionalen Seite. Diese Seiten, die sich durch Flash-Gezappel, JavaSript-Gefummel und kruden Seitencode auszeichen, stammen zumeist aus der Feder von klassischen Werbeagenturen. Die unbestritten vorhandenen Kompetenzen aus der grafischen Gestaltung von Print und/oder TV werden größtenteils 1:1 auch dem völlig anderen Medium Internet übergestülpt.

Meine Bewertung: gut, das 2 und 3 verschiedene Sprachen sprechen. Als Team könnte daraus ansonsten eine starke Konkurrenz erwachsen. Jeder für sich kocht im eigenen Saft. Die Preise korrellieren mehr mit dem Namen der Agentur oder des Systemhauses als mit der wirklichen Leistung.

Folgerichtig sind in Segment 4 die »echten« Web-Arbeiter zu finden. Die Kernkompetenz dieser Unternehmen liegt vorallem im Team. Es ist nahezu unmöglich (ok, einzelne Genies gibt’s immer) jemanden zu finden, der über ebenso vertiefte Kenntnisse zu den Eigenheiten des Mediums Internet, wie über gestalterische Fähigkeiten als auch Programmierkenntnisse verfügt. Sehr gut qualifizierte Leute decken zumindest 2 Bereiche ab. Gute wissen wenigstens noch einzusortieren worüber der andere Spezialist redet. Billig ist keiner davon. Wo viele qualifizierte Hände Teilleistungen beisteuern ist obendrein auch noch ein gutes Projektmanagement erforderlich. Aus dieser Personalintensität und der hohen Qualifikation erklären sich die zumeist nicht ganz billigen Angebote. Qualität hat ihren Preis, rechnet sich aber langfristig.

Natürlich gibt es immer Ausnahmen von diesen Regeln, aber sie liefern Ihnen als Kunde ein Orientierung, die Sie bei der Auswahl ihres WebDesigners berücksichtigen sollten.