!DOCTYPE-HTML-PUBLIC“-// W3C//DTD XHTML 1.0 ohne Einschränkungen

Zum ersten Mal ein Artikel, der nicht aus unserer Feder stammt sondern dem Weblog »The Man in Blue« entnommen wurde. Cameron Adams – der »Mann in Blau« – spricht uns in seinem englischsprachigen Artikel dermaßen aus der Seele, das wir uns eine Übersetzung nicht verkneifen konnten:

Beim Gestalten tabellenfreier Websites sind viele Dinge zu beachten: Das Box-Modell, mysteriöse 3-Pixel große Abstände, relative Schriftgrößen, kaskadierende Stilregeln, Textumfluß … aber nichts davon ist wirklich wichtig. Beim Entwurf einer Website sollte man an all das nicht denken.

Wenn es an die Gestaltung von Websites geht, sind reine Grafikdesigner mit Unwissenheit gesegnet. Sie müssen nicht vorausdenken, wie ihr Design umzusetzen ist. Sie müssen sich keine Gedanken machen, wie ein Fußbereich auf einer Seite konstant unten fixiert wird. Und genau so
sollten es WebDesigner machen.

Standard-basiertes WebDesign steckt noch in den Kinderschuhen. Überall findet man Tutorials über die Erstellung von Webseiten in XHMTL/CSS und jeden Tag entsteht eine neue Technik in diesem Bereich. Ohne fortschrittliches Design, ohne die Freiheit mal nicht über die Umsetzung nachzudenken, würde niemand die Grenzen der Webstandards verschieben. Möglicherweise wären sie in dem Moment
verschwunden, wenn jemand die Frage stellte »Wie schaffe ich es, daß zwei Spalten immer gleich lang sind?«.

Beim Design geht es nicht um die Werkzeuge, es soll dem Anwender das bestmögliche Erlebnis vermitteln. Ein Design sollte auf Benutzbarkeit (usability), Zugänglichkeit (accesibility) und Ästhetik beruhen, aber niemals auf Umflüssen, Listen oder Hintergrundbildern.

Wenn ich)* beginne, eine Website zu entwerfen, ist es ein rein graphischer Ansatz. Photoshop und Illustrator allein bestimmen die Grenzen. Innerhalb dieser Grenzen kann ich ein fünfspaltiges Layout mit fixiertem Fußbereich, Drop-Down-Menüs und freischwebender Farbauswahl für die Schrift erschaffen. Egal ob ich das umsetzen kann – das ist, was ich gerne sehen würde.

Dann, … danach geht es an die Lösung der Probleme. Es ist die analytische Seite des WebDesign, bei der uns WebDesignern das Wasser im Mund zusammenläuft, die uns teilweise zu Turing, teilweise zu Picasso (zumindest ein bischen) macht. Natürlich dürfte es ruhig machmal etwas einfacher sein, die Lösung für das Layout zu finden, Aber ich genieße die Herausforderung und stelle mich allem, was da kommt.

Das Ziel der Web-Standards ist es, unsichtbar zu sein. Sie dürfen nichts anderes hervorbringen als Tabellenlayouts oder jeder andere Tag-Sumpf. Es ist also unsere Pflicht, gut zu designen und uns erst
später um die Standards zu kümmern.

* ich = „The Man in Blue“, AKA Cameron Adams. Aber wir arbeiten da genauso…

(Übersetzt von The Man in Blue
Dort an ein Gespräch mit der Web Standards Group angelehnt.)

Die teuersten Textzeilen des Internets …

… oder: Warum 5 bis 10 Zeilen Text in ihrer Internetpräsenz 50.000 Euro und mehr kosten können. Die Branche der Internet-Dienstleister hat schon manches zweifelhafte Preismodell, wie z.B. die Abrechnung nach der Zahl der Seiten hervorgebracht. Aber jetzt auch noch nach Zeilen? Und zu Konditionen die kein Spitzenjournalist zu berechnen wagen würde!? Nicht einmal Systemhäuser, welche Anwendungen für die LKW-Maut oder für den virtuellen Arbeitsmarkt erstellen. Obwohl gerade dort dieser Eindruck enstehen könnte, es würde zeilenweise abgerechnet. Und jetzt kommt`s noch besser: Das Geld wird für Zeilen fällig, die gar nicht vorhanden sind!

Nein, keine Angst. Wir sind natürlich nicht größenwahnsinnig geworden in unserer Preisgestaltung. Die Rede ist natürlich vom fehlenden Impressum. Laut »Gesetz über die Nutzung von Telediensten« oder kurz Teledienstgesetz (TDG) § 6 sind für »geschäftsmässige Teledienste« bestimmte Informationen vorzuhalten. Zu diesen Informationen zählen:

  • Name und Anschrift, sowie bei juristischen Personen der Vertretungsberechtigte
  • Kontaktdaten für eMail
  • ggf. Angaben zur zuständigen Aufsichtsbehörde (abhängig von Zulassungsvorschriften für bestimmte Tätigkeiten)
  • ggf. Registerdaten von Handels-, Vereins-, Partnerschafts- oder Genossenschaftsregister (abhängig von der Rechtsform)
  • ggf. Berufsrechtliche Angaben, Kammerzugehörigkeiten, Berufsbezeichnungen (abhängig von der Branche/Berufszugehörigkeit)
  • ggf. Umsatzsteueridentifikationsnummer (sofern vorhanden)
  • ggf. weitergehende Informationen die sich aus anderen weitergehenden Gesetzen ergeben

§ 2 TDG regelt, wer und was alles unter »geschäftsmässigen Diensten« zu verstehen ist. Der einfachste Fall ergibt sich schon aus der Vorhaltung einer Webpräsenz. Wohlgemerkt: schon der privaten! Nicht erst bei der Unternehmenspage »uns gibt`s, wir können, wir machen, wir bieten« und schon gar nicht erst ab WebShop aufwärts! Geschäftsmässig steht nicht synonym für »gewerblich« oder »kommerziell«, sondern eher für »nachhaltig« (Abgeleitet aus § 3, Punkt 5 TKG Telekommunikationsgesetz).

Weiterhin regelt das TDG, dass die o.g. Informationen »leicht erkennbar, unmittelbar erreichbar und ständig verfügbar« zu halten sind. Was das genau heißt ist noch höchstrichterlich herauszufinden. Die OLG-Rechtssprechungen sind derzeit noch höchst wiedersprüchlich:

Wer auf Nummer sicher gehen will, bietet auf allen Seiten innerhalb der stets sichtbaren Navigation einen Link, der die entsprechenden Informationen bereit hält. An dieser Stelle trifft unser Credo, dass Seiten für alle zugänglich sein müssen, besonders zu. Grafische Links ohne Textpendant oder Links in Javascript, Flash, Java etc. werden ansonsten zum teueren Beinschuß. Die Infos selbst sollten (analog der Rechtssprechung zu den AGBs) lesbar, also z.B. in nicht zu kleiner Schrift gehalten sein.

Aktuelle Schätzungen gehen davon aus, das rund 80 % der betroffenen Webpräsenzen über keine, unvollständige oder nicht erreichbare Impressumangaben verfügen. Die Folgen davon können sehr schnell sehr teuer werden. Im »billigsten« Fall können solche Seiten kostenpflichtig abgemahnt werden. Auch wenn angedrohte Unterlassungsstrafen aufgrund von Nachbesserungen umgangen werden können, sind zumindest die Kosten für die Abmahung selbst zu berappen. Der Verstoß gegen die Impressumspflicht ist eine Ordnungswidrigkeit die mit einer Geldbuße von bis zu 50.000 € belegt ist. Wichtig: das Eine (die Abmahung) schließt das Andere (die Geldbuße) nicht aus! Im ungünstigsten Fall addieren sich also diese Kosten.

red@ktiv – die etwas andere WebAgentur – hilft ihnen bei der technischen Umsetzung eines Impressums. Sei es als Einzelleistung oder im Rahmen einer kompletten Neugestaltung. Was wir nicht leisten können (dürfen) ist juristische Beratung im Sinne des Rechtsberatungsgesetz. Hier hilft ihnen ein zugelassener Anwalt. Den Volltext des TDG gibt`s vom Bundesministerium für Wirtschaft und Arbeit über den JURIS-Dienst

Elastisches Design

Bei der Überarbeitung der red@ktiv-Webseite wurde nicht nur Wert auf eine inhaltliche Neuausrichtung gelegt. Ziel des Redesigns war u.a. auch die universelle Zugänglichkeit (Accessibilty) für alle Browser und alternative Ausgabegeräte. Die technische Umsetzung mit Cascading Style Sheets (CSS) ist dabei die erste Wahl. Und wenn schon CSS dann gleich richtig.

Was kann an Webdesign elastisch sein?

Gemeint ist, das eine Seite unabhängig von der Fenstergröße oder der Bildschirmauflösung für den Betrachter benutzbar bleibt. Inspiriert durch die Artikel Sliding Doors of CSS und Elastic Design entstand für die red@ktiv-Seite ein entsprechendes Layout.

Zunächst gilt es das Font-Size Problem zu lösen. Während Mac und Linux Browser i.d.R. eine Auflösung von 72 dpi (dot per inch = Pixel pro Zoll) nutzen, sind Windows Browser i.d.R. auf 96 dpi eingestellt. Wie immer, so auch hier: keine Regel ohne Ausnahme. Aber egal wie ihr Browser eingestellt ist: Bei Schriftgrößen, die über die Einheit »Punkt« definiert werden, kommt es zum Problem, das eine mittlere Schriftgröße auf 72 dpi für den 96 dpi-Browser zu groß erscheint und umgekehrt eine mittlere Schriftgröße für 96 dpi bei 72 dpi-Browsern zu Augenpulver wird. Ein erster Ansatz »Pixel« (px) als Einheit zu wählen (10 px sind und bleiben 10 px, egal wieviele davon auf einem Zoll untergebracht werden, die Schriften erscheinen also überall gleich groß) stellt sich schnell als unbrauchbar heraus, weil damit die Skalierung der Schrift durch den Benutzer unterbunden wird. Genau diese Bevormundung steht dem Anspruch einer »universellen Zugänglichkeit« aber im Weg. Man denke nur an Menschen mit eingeschränkter Sehfähigkeit, die auf die Vergrößerung der Schrift angewiesen sind. Abhilfe schafft die Verwendung der Einheit »em«. »em« steht dabei für »Elementeinheit«. 1 em entspricht dabei 100 % der im Browser voreingestellten Standardschriftgröße. Diese kann der Benutzer global in den Voreinstellungen seines Browsers anpassen; oder auch je Fenster individuell über entsprechende Vergrößerungs-/Verkleinerungs-Tasten oder -Menüeinträge in seinem Browser. Damit ist ein erster Schritt zum »elastischem Design« getan.

Der zweite wesentliche und konsequente Schritt besteht nun darin, die Einheit »em« auf weitere Seitenelemente zu übertragen. Arbeitet man CSS nach dem Box-Modell ab, besteht eine Seite letztlich immer aus neben-, über- und ineinander gestapelten Rechtecken (Boxes). Diese Boxes wiederum sind durch einige Attribute beschrieben – z.B. die Beschaffenheit des Hintergrunds (Farbe, eingebundenes Bild, das ggf. wiederholt wird), Beschaffenheit des Rahmens (Dicke, Farbe, Strichelung), der Abstand des enthaltenen Textes zum äußeren Rahmen (padding) und der Randabstand der Box zu benachbarten Elementen (margin). Wendet man nun auf alle Größenangaben die eine solche Box beschreiben wiederum die Einheit »em« an, so werden auch diese Elemente anhand der Browservorgaben skaliert.

Als dritter – schon etwas anspruchsvollerer – Schritt kommt noch die Anwendung der Einheit »em« auf Bilder dazu. Anstatt der üblichen Höhen- und Breitenangaben in Pixeln (px) erfolgt auch hier die Angabe in »em«. Dabei ist darauf zu achten, das durch die Verwendung das Seitenverhältnis des Bildes gewahrt bleibt. Letztlich eine einfache Dreisatzrechnung um die vorhandene Pixelgröße in em zu übertragen. Idealerweise sollten daher Bilder verarbeitet werden, die über ein fixes Seitenverhältnis verfügen (4:3 oder 16:9 oder quadratisch). Damit können CSS-Klassen auf das jeweilige Verhältnis in Hoch- und Querformat beschränkt werden. Desweiteren müssen die Bilder in einer etwas höheren Qualitätsstufe als ansonsten üblich vorliegen, da diese ja vergrößert werden können und dann immer noch scharf sein sollten. Wahlweise kann dies über eine niedrigere Kompressionsrate bei .jpgs oder über ein größeres Format (mehr Pixel) erfolgen. Die Möglichkeiten muß man abhängig vom Motiv durchprobieren, ein Patentrezept für einen Kompromiß aus bestmöglicher Darstellungsqualität und kleiner Dateigröße (für schnelle Ladezeiten) gibt es leider nicht.

Im Ergebnis ergibt sich dann eine Webseite, die komplett »mitwächst« wenn die Darstellung vergrößert oder verkleinert wird. Die Proportionen innerhalb der Seite von Textgrößen zueinander, Bild zu Text und Gestaltungsmerkmale des Layouts bleiben – unabhängig von der eingestellten Darstellungsgröße – weitestgehend erhalten. Weitestgehend deshalb, weil »ems« mit »nur« einer Stelle hinter dem Komma zuverlässig anzugeben sind. Durch Rundungsfehler beim Skalieren können dann einzelne geringere Abweichungen entstehen.

Wird das CSS komplett abgeschaltet (z.B. durch alternative Darstellungsgeräte, wie Screenreader, Brailledisplays oder auch durch reine Textbrowser) bleibt der Inhalt komplett zugänglich. Durch eine durchdachte Struktur z.B. bei der Anordnung von Links zur Navigation innerhalb der Seite wird zudem auch bei nicht vorhandenem CSS eine gute Nutzbarkeit (Usability) sichergestellt.

Spam, Eggs, Spam, Ham, Spam, Spam, Sausage and Spam

Jeder der über einen Mail-Account verfügt wird es schon verflucht haben: die unzähligen Werbebotschaften, die einem die Mailbox dermassen fluten, das wesentliche Informationen beinahe untergehen. Spam ist eigenlich Frühstücksfleisch. Als nerviges Element wurde es durch einen Sketch der Komiker-Truppe Monty Python geprägt. Stellt sich also für jeden die Frage wie man sich vor Spam – richtiger vor Unsolicited Bulk eMail, UCE – schützen kann.

Eine Patentlösung gibt es leider nicht. Aber über ein paar Instrumente kann man den Spamern wenigstens das Leben etwas schwerer machen.

  1. bei der Gewinnung von eMail-Adressen über Webseiten kann man Spambots ein paar Beine stellen. Spambots sind Roboterprogramme die das Netz nach einem eMail-Adressmuster auf Webseiten durchforsten. Klassisch sind dabei »mailto:« oder das »@«-Zeichen. Ggf. auch verfeinert durch sog. reguläre Ausdrücke, z.B. ob hinter dem @ auch noch irgendwann ein Punkt und ein »de«, »com» oder ähnlich erscheint. Tauscht man solche verräterischen Bestandteile durch URL-Codierungen aus, muß der Erkennungsfilter des Spambots darauf schon wieder trainiert sein. Etliche sind’s, aber ein paar eben nicht, und die sind dann schon mal draussen. Für den Mac gibt es das Programm SpamStopper, das einem hilft solche URL-Codierten Mail-Adressen zusammen zu bauen. Dieser Schutz geht allerdings nicht sehr weit und wird in der Netiquette z.T. als »unfreundlich« eingestuft.
  2. einen Schritt weiter geht unsere red@ktiv-Lösung. Wir codieren eMail-Adressen beim Seitenaufruf mit PHP-Funktionen und generieren aus dem Text des Maillinks ein Bildchen. Dieses Bildchen ist für jeden User Klartext lesbar, aber Spambots können mit dem .png-Format nichts anfangen. Der Link der um dieses Bild liegt ruft darüberhinaus nicht das lokale Mailprogramm auf (was »mailto:« machen würde), sondern verzweigt in ein eigenes WebForumular. Praktische Anwendung z.B. bei http://www.transalp.de/about/kontakt.php Sämtliche dort gelisteten eMail-Adressen sind solche Bildchen, die das Kontaktformular aufrufen. Nachteil der Lösung: es braucht ein Webhosting mit PHP-Unterstützung, was i.d.R. etwas teuerer ist.
  3. wenn schon PHP, dann richtig: in jeder Datei steckt ein Header drin, der überprüft, wer diese Seite gerade aufruft. Die Spambots identifizieren sich gegenüber dem Server, so wie das auch jeder Browser oder jede Suchmaschinen tut (ein Spambot ist genau genommen nichts anderes als eine Suchmaschine und eine Suchmaschine streng genommen auch nur ein Sonderfall eines Browsers). Da diese Kennungen bekannt sind, können Seitenaufrufe durch solche Kanditaten von vorherein unterbunden werden. Nachteil: ändert der Bot seine Kennung oder gibt sich als stinknormaler Browser aus, ist diese Bremse umgangen.
  4. Noch einen Schritt weiter geht die Methode von Daniel Rehbein: Dieser wirft per PHP-Programm den Spambots »getürkte« Mailadressen zum Fraß vor, die für einen normalen Nutzer unsichtbar sind (also garantiert nur von Spamern genutzt werden). Die krude Adresse hat aber dennoch einen realen Hintergrund. Durch entschlüsseln der Mailadresse kann der Zeitpunkt des Aufrufs, die IP des Aufrufers etc. bestimmt werden. Tauchen bestimmte IP-Bereiche dabei häufiger auf, kann man schon mal nachsetzen wer sich dahinter verbirgt und einen solchen Adresslieferanten dingfestmachen. Teleinfo.de, die in Daniels Falle geraten war, hatte jedenfalls ordentlichen Rechtfertigungsdruck :-D.
  5. für Registrierungen, Umfragen, etc. etc. sollte jeder mindestens eine »Mülleimer«-Adresse haben. Gerade Webmail-Anbieter wie http://freemail.web.de oder http://www.gmx.de etc. etc. taugen sehr gut für solche Adressen, die man den Spamern zum Fraß vorwerfen kann. Wird das Postfach zu voll, einfach den Account kündigen. Für die wirklich wichtigen Sachen hat man dann noch eine zweite Adresse, die nur im engen Kreis gestreut wird.
  6. Wer eine eigene Domain besitzt, verfügt i.d.R. auch über reichlich eMail-Adressen, die man über eine Weiterleitung oder ein Default-Postfach wieder zusammenführen kann. Damit kann man dann für ebay, amazon etc. etc. eigene Mailadressen wie ebay@meinedomain.de kreiieren. Läuft dann irgendwann mal Spam auf so einer Adresse ein, kann man nachvollziehen, woher dieser kam und ggf. auch den Betreiber einer solchen Seite angehen. Gerade namhafte Anbieter, die eine Weitergabe von eMail-Adressen vorher ausdrücklich ausgeschlossen haben. werden ein Eigeninteresse haben, undichte Stellen dann zu lokalisieren um nicht selbst in Verruf zu geraten.
  7. Spamfilter. Die aus AppleMail oder aus Eudora lassen sich schon recht gut trainieren, weitere Möglichkeiten gibt es insbesondere durch den Einsatz eines eigenen Mailservers (z.B. unter Linux) der über eigene Filterregeln verfügt und diese laufend mit dem Internet abgleicht. Im Netz werden sog. Blacklists von Spamern bereitgestellt, mit der sich bestimmte aktuelle Spamaufkommen sehr gut klassifizieren und filtern lassen. Eine Übersicht liefert http://www.spam-blockers.com/SPAM-blacklists.htm Mit einem solchen vorgeschalteten Server lassen sich weiterhin auch sehr gut Virenfilter aufsetzen.

Der Vollständigkeithalber, auch wenn’s nicht zum engeren Kreis von Spam gehört:

eMail-Verkehr geht Klartext über die Leitung. D.h. jede Zwischenstation (sog. Mail-Relays) können diese theoretisch mitlesen und auswerten. Auch wenn es keinen direkten Schutz für die eMail-Adressen von Sender und Empfänger bedeutet (logisch: die müssen Klartext lesbar bleiben) kann und sollte man wichtige Nachrichten PGP-verschlüsseln.

Nur einen geringen Schutz bieten die SSL-Verbindungen zu den Mail-Relays des jeweiligen Providers. Damit wird lediglich der Datenverkehr auf dieser einen Strecke verschlüsselt. Alle anderen Zwischen-Hops von Server zu Server die zwischen Mailabsender und -empfänger liegen laufen nach wie vor Klartext ab.

Fazit: Wie auch bei Viren, Firewalls, WLAN-Abschottung und anderen Sicherheitsthemen kann es immer nur darum gehen, Hürden aufzustellen, die Leuten mit unlauteren Absichten das Leben schwer machen. Je mehr Hürden desto schwerer, aber unüberwindlich ist in letzter Konsequenz keine dieser Hürden. Nur der Aufwand zur Überwindung wächst und zumeist entwickelt sich damit das Interesse an der Überwindung umgekehrt proportional ;-).

Der Monty Python Spam-Sketch

Optimiert für …

Weil ich es gerade mal wieder – bei einem hochdekorierten Preisträger! – gefunden habe: es gibt nach wie vor WebDesigner die glauben, die Webwelt bestehe aus ihrer (beschränkten) Produktionsumgebung. Oder dem was Aldi verkauft. In der Konsequenz verlangt das nichts anderes als daß der Anbieter des Produkts als erstes nicht sein Produkt kommunizieren kann, sondern seiner Kundschaft Rahmenbedinungen diktieren muß. Oder gleich auf deren Besuch verzichtet. Beide Alternativen sind unter Marketinggesichtspunkten eine schlichte Katastrophe. Kunden wünschen bedient zu werden, nicht belehrt oder gar abgewiesen. Wie würden Sie empfinden, wenn Ihnen vor dem Supermarkt ein Türsteher erklärt das Sie nur unter diesen oder jenen Bedingungen hier einkaufen könnten?

Wir diskutieren mit einigen Kollegen. Und immer wieder mit welchen, die glauben an dieser Stelle die Statistiken auf ihrer Seite zu haben. Über den Verbreitungsgrad dieses oder jenes Betriebssystems, des Browsers XYZ, die Bildschirmauflösung 08/15 und des Sowieso-PlugIns.

Ok, reden wir über Statistik:

Blenden wir die auch in diesem Fall völlig richtige Weisheit Winston Churchills Man kann nur einer Statistik trauen, die man selbst gefälscht hat einmal komplett aus. Versuchen wir einfach den höchstmöglichen Verbreitungsgrad für die häufigst unterstellte Umgebung zu errechnen:

  • aktueller Internet Explorer (ab Version 5 und neuer)
  • unter Windows (wir nehmen alles mit: 3.x, 95, 98, ME, 2000, NT, XP)
  • bei einer Bildschirmauflösung von mindestens 1024 x 768 Pixeln
  • mit installiertem Macromedia Flash-PlugIn, wahlweise aktiviertem JavaScript

Unterstellen wir Windows einen Marktanteil von 90% (genaue Zahlen für Desktop Betriebssysteme sind leider nirgends zu bekommen – wahrscheinlich aus gutem Grund nicht mal von Microsoft selbst). Auch für die Browserverteilung gehen wir von 90% aus . Ebenso nehmen wir für Bildschirmauflösungen von 1024 x 768 und höher einen Verbreitungsgrad von 90% an. Bei der Auswahl zwischen Pest und Cholera Flash und JavaScript entscheiden wir uns für Flash und übernehmen die 97% Verbreitungsgrad die Macromedia von sich selbst behauptet.

Jetzt wird’s spannend

Nach einfachen Rechenregeln und der Annahme einer statistischen Normalverteilung macht das: 0,9 * 0,9 * 0,9 * 0,97 = 0,70713 oder großzügig gerundet: 71%! Nochmal: sämtliche Basiszahlen sind mit hoher Unsicherheit behaftet. Aber selbst wenn man einen »Sicherheitsaufschlag« dazu nähme und mit 0,95 * 0,95 * 0,95 * 0,99 rechnete, würden »nur« knappe 85% herauskommen. Das Szenario das eintritt, wenn die Zahlen schlechter sein sollten, mag sich jeder selbst ausmalen.

Sind 85% viel?

Nein, es sind glatte 15%, die an vollständiger Zugänglichkeit fehlen. Mal ehrlich: welcher klug rechnende Geschäftsmann kann es sich heutzutage leisten auf 15 oder gar 30% seiner potentiellen Kundschaft, seiner Umsätze, seiner Gewinne zu verzichten? Die Antwort ist ebenso einfach wie die Lösung für das oben beschriebene Dilemma: Verlangen Sie als Kunde von ihrem WebDesigner Seiten die auf allen Browsern, auf allen Betriebssystemen, bei allen Bildschirmauflösungen – richtiger sogar auf allen Ausgabegeräten, es gibt mehr als nur optische Ausgabegeräte! – mit allen Systemumgebungen funktionieren. Nicht auf einigen. Nicht auf den meisten. Auf allen! Der Aufwand für solche Seiten ist nicht größer als für das was die »optimiert für«-Fraktion abliefert.

„Kollegen“ – und wer sich sonst noch so im WebDesign-Markt tummelt

Bei meiner Reise durch’s Netz stoße ich immer wieder auf Seiten deren Macher mich interessieren. Sei es weil diese Seiten herausragend gut oder einfach nur grottenschlecht sind.

Nach unseren Recherchen lassen sich die Seiten und ihre Macher dabei in eine Matrix einsortieren, die etwa wie folgt ausschaut:

seitenmachermatrix

In Segment 1 (eigentlich sollte man es »Segment 0« nennen) sind die klassischen Billigheimer der Branche zu finden: private Homepage-Bastler, Studenten, Freunde und Bekannte, die einem für kleines Geld »einen Gefallen tun«. Auch Bürodienstleister, »Unternehmensberater« die alles und jedes an Dienstleistungen in ihrem Portfolio haben das hilft, die Büromiete zu zahlen, sind hier anzutreffen. Oft genug sind die Angebot in diesem Segment an Preisen pro Seite erkennbar. Die Seiten die dort entstehen sind eben trivalstes, statisches HTML das oft genug auf Standarddesigns der einschlägigen Homepage-Bastelsoftware beruht. Meine Bewertung: wer hier kauft, kauft zweimal. Von »Gefallen tun« kann daher eigentlich keine Rede sein. Wer sich als Unternehmen professionel im Internet darstellen will, braucht dazu auch professionelle Partner.

Segment 2 wird im wesentlichen durch Systemhäuser und Anbieter von Branchensoftware repräsentiert. Vorhandene Kenntnisse aus Netzwerken, Softwareentwicklung etc. wurden und werden auf Internetentwicklungen angewandt. Funktional kommen dabei z.T. sehr hochentwickelte Lösungen heraus, die oft genug aber durch den Einsatz von »zweitbesten« Technologien noch etwas ungeschliffen sind. Die optische Gestaltung ist zumeist eher rudimentär – an vielen Ecken wird erkennbar, das die Lösung aus der Hand eines Technikers stammt.

Umgekehrt verhält es sich im Segment 3: was hier an Gestaltung sogar zuviel drin steckt, fehlt auf der funktionalen Seite. Diese Seiten, die sich durch Flash-Gezappel, JavaSript-Gefummel und kruden Seitencode auszeichen, stammen zumeist aus der Feder von klassischen Werbeagenturen. Die unbestritten vorhandenen Kompetenzen aus der grafischen Gestaltung von Print und/oder TV werden größtenteils 1:1 auch dem völlig anderen Medium Internet übergestülpt.

Meine Bewertung: gut, das 2 und 3 verschiedene Sprachen sprechen. Als Team könnte daraus ansonsten eine starke Konkurrenz erwachsen. Jeder für sich kocht im eigenen Saft. Die Preise korrellieren mehr mit dem Namen der Agentur oder des Systemhauses als mit der wirklichen Leistung.

Folgerichtig sind in Segment 4 die »echten« Web-Arbeiter zu finden. Die Kernkompetenz dieser Unternehmen liegt vorallem im Team. Es ist nahezu unmöglich (ok, einzelne Genies gibt’s immer) jemanden zu finden, der über ebenso vertiefte Kenntnisse zu den Eigenheiten des Mediums Internet, wie über gestalterische Fähigkeiten als auch Programmierkenntnisse verfügt. Sehr gut qualifizierte Leute decken zumindest 2 Bereiche ab. Gute wissen wenigstens noch einzusortieren worüber der andere Spezialist redet. Billig ist keiner davon. Wo viele qualifizierte Hände Teilleistungen beisteuern ist obendrein auch noch ein gutes Projektmanagement erforderlich. Aus dieser Personalintensität und der hohen Qualifikation erklären sich die zumeist nicht ganz billigen Angebote. Qualität hat ihren Preis, rechnet sich aber langfristig.

Natürlich gibt es immer Ausnahmen von diesen Regeln, aber sie liefern Ihnen als Kunde ein Orientierung, die Sie bei der Auswahl ihres WebDesigners berücksichtigen sollten.