Das Zwei-Sinne-Prinzip

In diesem Text erfahren Sie:

  • Was ist das Zwei-Sinne-Prinzip?
  • Wie und wo wird das Zwei-Sinne-Prinzip umgesetzt?

Was ist das Zwei-Sinne-Prinzip?

Das Zwei-Sinne-Prinzip ist ein wichtiger Grundsatz für die barrierefreie Kommunikation. Ein anderer Name dafür ist das Mehr-Sinne-Prinzip. Nach diesem Prinzip sollten Informationen über mindestens zwei Kommunikationswege zugänglich sein. So können Menschen, die nicht gut hören oder sehen, die Informationen trotzdem wahrnehmen und verstehen. Die Sinne Hören, Sehen und Tasten werden dabei genutzt. Mindestens zwei dieser Sinne sollen angesprochen werden. Das heißt zum Beispiel: Eine schriftliche Information sollte auch als auditive oder taktile Information angeboten werden.

Wie und wo wird das Zwei-Sinne-Prinzip umgesetzt?

Das Prinzip sollte überall dort angewendet werden, wo kommuniziert wird.

In der visuellen Kommunikation

  • Nach luxemburgischem Recht müssen öffentliche Plätze und Wege für alle zugänglich sein. Um die Orientierung zu erleichtern, muss eine visuelle Beschilderung auch taktil oder akustisch verfügbar sein. So sollten beispielsweise Ampeln auch akustische Signale abgeben. Die Schilder können durch taktile Elemente, Beschriftungen auf Handläufen oder akustische Orientierungshilfen ergänzt werden.
  • Gedruckte Texte auf Papier lassen sich durch QR-Codes barrierefrei gestalten. Diese Codes führen zu einer Audio-Version, die den Text vorliest. Auch sind Informationen in Braille-Schrift oder tastbare Grafiken sinnvolle Alternativen.

In der mündlichen Kommunikation

Mündliche Kommunikation sollte zusätzlich auf visuelle Art und Weise zur Verfügung gestellt werden, um mehr Menschen teilhaben zu lassen. Hier einige Beispiele:

  • Dolmetschen in Gebärdensprache
  • Schriftdolmetschen
  • Schriftliche Fassungen von Vorträgen.

In digitalen Medien

Auch digitale Inhalte sollten nach dem Zwei-Sinne-Prinzip gestaltet sein. Auditive Inhalte brauchen eine visuelle oder taktile Alternative und visuelle Inhalte brauchen eine auditive oder taktile Alternative. Hier einige Beispiele:

  • Untertitel in Videos
  • Gebärdensprachvideos
  • Visuelle Signale für Systemtöne
  • Transkriptionen für Podcasts
  • Audiodeskriptionen für Videos (Hörfilmfassungen)
  • Alternativtexte für Bilder (die auditiv via Screenreader zugänglich sind)
  • Textuelle Beschreibungen für Diagramme, Grafiken und Tabellen
  • Spürbare Vibrationssignale bei mobilen Anwendungen
  • Unterstützung der Braille-Zeile durch semantisches HTML.