Digital

Kollege Roboter

Kollege Roboter

Jedermann hat eine Vorstellung von einem Roboter. Was vor einigen Jahrzehnten noch Science-Fiction war, ist heute in den meisten Produktionsbetrieben längst Realität. Große Roboter mit riesigen Greifarmen machen im Gleichklang der Hydraulik ihren Job. Man sollte ihnen nicht zu nahe kommen, deshalb verrichten sie ihr Werk überwiegend hinter Schutzeinrichtungen. Sie können große Werkstücke bearbeiten, schweißen oder montieren, präzise, ausdauernd und schnell. Industrieroboter haben nicht nur in der Automobilindustrie ein neues Level der Produktivität ermöglicht.

Diese Art der Industrieroboter hat inzwischen Nachwuchs bekommen, kleinere kollaborative und kooperative Roboter, meist Cobots genannt, die unmittelbar mit dem Menschen zusammenarbeiten. Die erste Begegnung mit einem Cobot ist durchaus ein ungewöhnliches Erlebnis. Er bewegt sich nahezu geräuschlos, arbeitet bis auf den Zehntelmillimeter präzise und ist mit einer beeindruckenden Sensitivität ausgestattet. Roboter verändern die Arbeitswelt und häufig sieht man in ihnen die Lösung zur Beseitigung des Fachkräftemangels. Doch können sie das wirklich leisten?

In den kommenden acht bis zehn Jahren werden dem deutschen Arbeitsmarkt rund fünf Millionen Fachkräfte fehlen. Der Grund ist die Generation der Boomer, die in den nächsten Jahren in Rente geht. Diese Zahlen vom Deutschen Institut für Wirtschaft sind nur ein Beleg für den drohenden Fachkräftemangel. Politik und Verbände drängen deshalb auf qualifizierte Zuwanderung, um die Lücken zu schließen. Andere Ansätze verfolgt der Deutsche Robotik Verband, der nicht ganz uneigennützig zunehmend leistungsfähigere Roboter als Lösung präsentiert. In einem Arbeitspapier werden eine Million Roboter genannt, die bis 2030 den Arbeitskräftemangel beseitigen könnten. Und zwar nicht nur in der Industrie, sondern ebenso in der Pflege und der Gastronomie.

»Die erste Begegnung mit einem Cobot ist durchaus ein ungewöhnliches Erlebnis.«

Dabei wird schnell klar: Roboter ist nicht gleich Roboter. „Wir müssen zwischen klassischen Industrierobotern und modernen Cobots sowie Servicerobotern unterscheiden“, sagt Prof. Dr. Oliver Bendel von der Fachhochschule Nordwestschweiz, der zu ethischen, gesellschaftlichen und wirtschaftlichen Fragen der Robotik forscht. „Manche Serviceroboter sind ansatzweise humanoid gestaltet, haben etwa Augen oder einen Mund.“ Während in industriellen Wertschöpfungsketten häufig große Industrieroboter zum Einsatz kommen, mit denen tatsächlich auch Arbeitsplätze ersetzt werden, verfolgt der Einsatz von Cobots oder Servicerobotern einen anderen Zweck. „Cobots arbeiten Hand in Hand mit menschlichen Arbeitskräften“, so Bendel. Ausgestattet mit ein oder zwei Armen interagiert der Cobot direkt mit einem Mitarbeiter. Man kommt sich sehr nahe und auch Berührungen sind nicht ausgeschlossen. Darauf reagiert der Cobot mit einer kurzen Unterbrechung, oder er zieht seinen Arm zurück.

Cobots kommen meist in der Montage zum Einsatz, insbesondere bei Arbeitsschritten, die sehr monoton sind oder ein sehr hohes und zuverlässiges Maß an Präzision erfordern. Zusammen bilden Mensch und Roboter eine Art Dream-Team im Sinne der Produktivität. Doch das hat auch negative Aspekte. „Ich halte den Einsatz von Cobots für sinnvoll und zukunftsweisend“, sagt Bendel. „Dennoch kann es passieren, dass der Arbeiter bestimmte Handgriffe nicht machen kann und darf, die er eigentlich schätzt, und nun dem Rhythmus der Maschine folgen muss.“ In welchem Umfang dies geschieht, ist auch von der Programmierung abhängig. Tatsächlich können die Cobots, entsprechend programmiert, auch das Arbeitstempo vorgeben.

Damit das Dream-Team auch funktioniert, ist aber nicht nur eine reibungslose und unfallfreie Kollaboration notwendig. Vielmehr erfordert es auch Akzeptanz der beteiligten Mitarbeiter. Studien haben gezeigt, dass technikaffine Arbeitskräfte in ihrem mechanischen Gegenüber eher eine Maschine mit speziellen Fähigkeiten sehen, die sie von monotonen oder lästigen Aufgaben befreit. Weniger technikaffine Menschen schreiben Robotern menschenähnlichere Eigenschaften zu. Das wirkt sich unmittelbar auf die Akzeptanz aus. Laut aktuellem Robotik Spiegel 2022 des Deutschen Robotik Verbands sieht eine Mehrheit zwar eine Verbesserung des Arbeitsalltags durch den Roboter, allerdings wird dieser meist als Maschine und nicht als Kollege favorisiert. „Roboter haben dann die größte Akzeptanz, wenn sie für die Mitarbeiter einen Mehrwert bieten, etwa indem sie anstrengende, gefährliche oder verschleißende Arbeiten übernehmen“, sagt Oliver Bendel.

Diese neuen Formen von Robotern werden die Arbeitswelt der nahen Zukunft prägen. Dabei werden sie selten Arbeitskräfte ersetzen, sondern es wird eher ein Neben- und Miteinander geben. Das gilt nicht nur in den Produktionshallen, sondern zunehmend auch in anderen Bereichen der Arbeitswelt. Beispielsweise in Büros, im Dienstleistungssektor, in der Pflege oder der Gastronomie. Die Studie Robots@work4.0 der TU-Darmstadt hat sich mit der Akzeptanz in den Büros beschäftigt. Diese kommt zu ganz ähnlichen Ergebnissen, zeigt aber auch, dass Unternehmen Roboter oftmals unreflektiert einsetzen, ohne dabei Aspekte wie Arbeitsklima und Unternehmenskultur zu berücksichtigen. Noch sind in diesen Bereichen Roboter selten anzutreffen. Das gilt auch im Pflegebereich, wo Roboter immer wieder als Lösung für den Fachkräftebedarf ins Feld geführt werden. „Dazu bräuchte es aber mehr leistungsfähige Modelle in hoher Anzahl“, sagt Oliver Bendel. „Die Realität sieht anders aus“. Der größte Teil der Cobots und animaloiden oder humanoiden Roboter für die Pflege befindet sich noch in der Entwicklungs- und Testphase. Ein großer Rollout von Serienmodellen ist noch nicht in Sicht.

Dennoch werden Roboter weiter Einzug halten in unseren Arbeitsalltag. Kosten und Produktivitätssteigerungen sind nur zwei Aspekte, die dabei eine Rolle spielen. „Unternehmen müssen dafür sorgen, dass Mitarbeitern erfüllende Aufgaben zukommen, während die monotonen Arbeiten von Robotern erledigt werden“, so Bendel. „Wahrscheinlich werden wir in ein paar Jahren sehen, dass mehrere Cobots zusammenarbeiten. Dann könnte die Robotik tatsächlich helfen, den Fachkräftemangel zu beseitigen. Aber zugleich werden weiter Arbeitsplätze verschwinden.“

Dieser Beitrag erschien zuerst auf inpactmedia.com und als Beilage in der Zeit.

Kollege Roboter | inpactmedia.com

Posted by Thomas Feldhaus in Allgemein
Trau, schau, wem…

Trau, schau, wem…

Verschlossene Türen, heruntergelassene Tore, Zäune und Kameras. Unternehmen nutzen die gesamte Bandbreite der Möglichkeiten, um Unbefugten den Zutritt zu ihren Geschäftsräumen zu verwehren. Dabei lauern die größten Gefahren nicht vor der Tür. Einbrüche in Unternehmensgebäude und Lagerhallen nehmen seit Jahren kontinuierlich ab. Vielmehr verschaffen sich Unbefugte, oftmals gänzlich unbehelligt, über Kupfer oder Glasfaser den begehrten Einlass und können dabei erheblich größeren Schaden anrichten. Nahezu jedes Unternehmen in Deutschland ist davon mehr oder weniger stark betroffen, wie eine aktuelle, repräsentative Umfrage des Branchenverbands Bitkom zeigt. Für das Jahr 2022 liest sich das so: 84 Prozent der 1.000 befragten Unternehmen wurden Opfer von Datendiebstahl, Diebstahl von IT-Technologie, Spionage oder Sabotage, bei weiteren 9 Prozent wird eine solcher Angriff vermutet. Im gesamten Jahr 2021 waren 100 Prozent der Unternehmen von mindestens einem der Delikte betroffen, 88 Prozent sicher, bei 12 Prozent vermutet.

Tatsächlich verlagern sich die Taten immer mehr in den digitalen Raum. „Spätestens mit dem russischen Angriffskrieg gegen die Ukraine und einer hybriden Kriegsführung auch im digitalen Raum ist die Bedrohung durch Cyberattacken für die Wirtschaft in den Fokus von Unternehmen und Politik gerückt“, kommentiert Bitkom-Präsident Achim Berg die Zahlen. Unabhängig davon sei die Bedrohungslage sowieso sehr hoch. So hat sich die wahrgenommene Bedrohung für Unternehmen innerhalb nur eines Jahres dramatisch erhöht. Fast jedes zweite Unternehmen glaubt, dass Cyberattacken ihre geschäftliche Existenz bedrohen können, ein Jahr zuvor lag dieser Wert noch bei 9 Prozent. Das hat einen einfachen Grund: Die Täter haben es zunehmend auf Kommunikations- und Kundendaten abgesehen, und dabei ist ihnen jedes Unternehmen recht. „Wir gehen davon aus, dass zirka drei Viertel der mittelständischen Unternehmen bereits Opfer eines Cyberangriffs waren und es mitunter vielleicht nicht gemerkt haben, beziehungsweise keinen echten Schaden davongetragen haben“, sagt Volker Wittberg, Leiter des Instituts für Cyber Security und digitale Innovationen. „Andererseits sind drei Prozent der Unternehmen durch Cyberangriffe bereits in ihrer Existenz gefährdet worden und haben ernstzunehmende Schwierigkeiten bekommen.“

Lösegeldzahlungen schützen nicht vor Schaden

Es geht um viel Geld, allein für das vergangene Jahr schätzt Bitkom den Gesamtschaden bei deutschen Unternehmen auf 223 Milliarden Euro. Ein Rekordwert, der sich innerhalb weniger Jahre verdoppelt hat. Größer als der direkte finanzielle Schaden ist allerdings die Furcht vor Reputations- und Vertrauensverlust. Laut Bundeslagebericht Cyberkriminalität, der jedes Jahr vom Bundeskriminalamt (BKA) veröffentlicht wird, war das Jahr 2021 auch von einem Höchstwert bei den Delikten gekennzeichnet. 146.363 Delikte haben die Ermittler aufgeführt, von denen etwa 29 Prozent aufgeklärt werden konnten. Allerdings geht das BKA von einem riesigen Dunkelfeld aus, denn der größte Teil der Angriffe wird den Strafverfolgungsbehörden gar nicht gemeldet. Besonders bei den gefürchteten Ransomware-Angriffen, mit denen Unternehmen erpresst werden sollen, ist die Gefahr eines Vertrauensverlusts sehr hoch. Entsprechend zurückhaltend äußern sich Unternehmen zu Angriffen. Sie wählen nicht selten lieber den scheinbar einfacheren Weg und kommen Lösegeldforderungen nach, bevor sie einen Datenverlust in Kauf nehmen. Keine gute Idee, wie eine Untersuchung des US-Amerikanischen Unternehmes Cybereason zeigt. Denn die Täter geben sich oft nicht mit dem einmaligen Erpressungsversuch zufrieden. Mehr als 80 Prozent der betroffenen Unternehmen wurden trotz Zahlung der Lösegeldforderung ein zweites Mal erpresst, bei einem kleineren Teil gab es sogar einen dritten Erpressungsversuch.

Zu den bekannt gewordenen Attacken gehörte im vergangenen Jahr der Cyber-angriff auf den Textilkonzern Gerry Weber aus dem westfälischen Halle. Ende Juni bestätigte das Unternehmen einen entsprechenden Versuch, von außen Kontrolle über die IT-Systeme zu bekommen. Die Installation einer Ransom-Software konnte verhindert werden und nach Angaben des Unternehmens seien auch keine Daten entwendet worden. Zur Sicherheit mussten allerdings die betroffenen IT-Systeme heruntergefahren werden mit zeitweisen Auswirkungen auf die innerbetrieblichen Abläufe. Bei Gerry Weber ging man allerdings nicht einfach zur Tagesordnung über, sondern gründete eine Cyber Defence Cooperation (CDC), in der sich Bekleidungshersteller aus Deutschland austauschen können. Zahlreiche Unternehmen, darunter Branchengrößen wie S.Oliver, Peek & Cloppenburg, Deichmann und Hugo Boss, machen mit. „Nach dieser Attacke aus dem Netz haben wir festgestellt, dass der Wunsch nach Erfahrungsaustausch unter den IT-Abteilungen der Unternehmen immens groß ist“, begründet Stefan Beyler, CIO bei Gerry Weber, die Initiative. Die Unternehmen sollen untereinander ihre Erfahrungen weitergeben und voneinander lernen können. Dabei geht es vor allem um Prävention, wie Beyler betont.

Unternehmen unterschätzen die Bedrohungslage

Auch wenn der umfangreiche Schutz der IT- Systeme der entscheidende Schlüssel ist, um gegen Cyberangriffe gewappnet zu sein, die Wirklichkeit in der deutschen Unternehmenslandschaft sieht meist anders aus. Vor allem im Mittelstand ist der Nachholbedarf bei der IT-Sicherheit groß, unter anderem weil man dort die Gefahr häufig unterschätzt. Tatsächlich geht die Schere zwischen konkreter und wahrgenommener Gefahr weit auseinander. Jörg Asmussen, Hauptgeschäftsführer des Versicherungsverbands GDV, schätzt, dass rund 80 Prozent der mittelständischen Unternehmen nicht einmal die Basisanforderungen an eine funktionierende IT-Sicherheit erfüllen. Der Verband sieht vor allem eine ungenügende Datensicherung und fehlende Notfallpläne als Schwachpunkte betrieblicher IT-Sicherheit. Zudem würden häufig fehlende Zuständigkeiten und Verantwortlichkeiten eine schnelle und angemessene Reaktion auf einen Angriff erschweren. Laut einer Studie des Analyseunternehmens IDC sind Unternehmen oftmals selbstsicherer, als es eigentlich angemessen wäre. Zwei Drittel der im Rahmen der Studie befragten Unternehmen glauben, ohne externen Beistand Bedrohungen ihrer IT-Systeme bewältigen zu können. Das verwundert, weil ebenso viele Unternehmen bereits Opfer einer Attacke waren. „Gemessen an der Häufigkeit von erfolgreichen Ransomware-Vorfällen ist eine solche Selbstsicherheit nicht gerechtfertigt“, sagt Marco Becker, Senior Consultant bei IDC. Denn auch wenn Unternehmen einen Angriff abwehren konnten oder sogar Lösegeld bezahlt haben, mussten sie oftmals Datenverluste und Störungen im IT-System hinnehmen.

Erfolgreiche Cyberangriffe ziehen zunehmend stärkere wirtschaftliche Folgen nach sich. So dauert es immer länger, bis die IT-Systeme nach einem Angriff wieder vollständig einsatzbereit sind. Zwar können die Unternehmen in rund einem Drittel aller Fälle nach einem Tag wieder normal arbeiten, bei 39 Prozent dauert die Wiederherstellung der vollen Arbeitsfähigkeit allerdings mindestens vier Tage. Unternehmen sind also gut beraten, wenn ihre IT-Systeme stabil und geschützt sind und sie für den Fall der Fälle klare Handlungsanweisungen festgelegt haben. Doch daran mangelt es, wie der Branchenverband Bitkom in einer repräsentativen Umfrage herausgefunden hat, bei der Unternehmen mit einem Jahresumsatz von mindestens 1 Million Euro im Mittelpunkt standen. Demnach kann knapp jedes zweite Unternehmen auf einen solchen Notfallplan zugreifen, in dem die erforderlichen Maßnahmen, insbesondere die notwendigen Sofortmaßnahmen klar geregelt sind. Der Grund, warum sich nicht mehr Unternehmen auf einen Angriff einstellen, ist einfach. Viele Mittelständler glauben nicht, in den Fokus von Hackern und Cyberkriminellen zu geraten, weil sie sich für zu unbekannt halten und daher für zu uninteressant.

Eine fatale Fehleinschätzung, wie nahezu alle Zahlen zu Cyberangriffen zeigen. Auch im Praxisreport 2022 der Initiative „Deutschland sicher im Netz“ spricht man von einem deutlichen Anstieg der Angriffe auf mittelständische Unternehmen mit immer gravierenderen Auswirkungen, die in Einzelfällen – die allerdings auch zunehmen – existenzbedrohend sein können. Die Initiative des Bundesministeriums für Wirtschaft und Klimaschutz will neben Privatpersonen vor allem kleinere Unternehmen für die Risiken sensibilisieren und zu entsprechenden Vorkehrungen animieren. Das Bewusstsein dafür wächst, wie der Parlamentarische Staatssekretär Michael Keller betont, „doch viele kleine und mittlere Unternehmen sind noch nicht ausreichend vor Cyberrisiken geschützt.“ Häufig würden die Hackerangriffe gar nicht erkannt und auch Schwachstellen im IT-System seien häufig unbekannt.
 

Mitarbeiter für Cyberrisiken sensibilisieren

Es gibt also zahlreiche Handlungsfelder für IT-Fachkräfte in den Unternehmen, vor allem im Mittelstand. Laut Bitkom sind in erster Linie größere Unternehmen auf eventuelle Angriffe vorbereitet. Je kleiner das Unternehmen, umso weniger präventive Maßnahmen werden ergriffen. „Dabei ist bei der Abwehr eines Cyberangriffs Zeit eine ganz entscheidende Komponente“, sagt Simran Mann, Bitkom-Referentin für Sicherheitspolitik. Doch dafür braucht es nicht nur einen Notfallplan, sondern auch eine sensibilisierte Belegschaft. In diesem Punkt unterscheiden sich große und kleine Unternehmen kaum, überall kommen Schulungen zu Sicherheitsthemen zu kurz. Simran Mann hält das für einen Fehler, denn die Mitarbeiterinnen und Mitarbeiter sind unter Umständen als erste mit Angriffen konfrontiert. Ihr Verhalten kann dann mitentscheidend dafür sein, ob ein Angriff erfolgreich ist oder erfolgreich abgewehrt werden kann. Doch in der Praxis wissen die Beschäftigten meist nicht, wie sie sich verhalten sollen.
Die Gründe für unzureichend geschützte IT-Systeme sind vielschichtig. Personalmangel und Budgetfragen sind dabei nur zwei Aspekte. In vielen Unternehmen arbeitet man noch die Auswirkungen der Corona-Pandemie ab, als schnell neue IT-Lösungen installiert werden mussten und das Thema Security dabei unter den Tisch fiel. Hinzu kommen immer komplexere IT-Landschaften, die auch in kleineren Unternehmen schnell unübersichtlich werden. Anwendungen von bis zu 20 verschiedenen Lösungsanbietern sind auch in kleineren Unternehmen keine Seltenheit, in größeren Unternehmen liegt die Zahl deutlich höher. Da können auch erfahrene IT-Experten den Überblick verlieren. Die Probleme liegen aber noch tiefer. „Über viele Jahre war Cybersicherheit vor allem ein Thema für die IT-Abteilung, mit dem das Management sich höchstens punktuell beschäftigen wollte. Das war und ist eine Fehleinschätzung“, sagt Andreas Lüning, Vorstand von G DATA CyberDefense. Sein Unternehmen veröffentlicht regelmäßig die Studie „Cybersicherheit in Zahlen“ und gießt deren Ergebnisse in einen Index zur Cybersicherheit. Corona und der Krieg in der Ukraine haben der Gefühlslage zugesetzt und für einen zweiprozentigen Rückgang des Index gesorgt. IT-Sicherheit beginnt mit der Technik, aber damit ist noch lange nicht genug getan, ist Lüning überzeugt und fordert auch vom Management ein Umdenken. „Gerade Führungskräfte müssen eine gute Fehlerkultur vorleben und Mitarbeiter ermutigen auch Fehler, welche die Sicherheit gefährden können, zu melden.“

Kein automatisches Vertrauen

Cybersecurity muss vermehrt ganzheitlich betrachtet werden, da sind sich nahezu alle Experten einig. Unternehmen, die vom IT-Sicherheitsgesetz 2.0 betroffen sind, müssen Lösungen einsetzen, die automatisch Angriffe erkennen können und somit helfen, die Komplexität bestehender IT-Systeme mit Blick auf deren Sicherheit in den Griff zu bekommen. In der Praxis kommt dabei immer öfter, aber noch viel zu selten, das Konzept Zero Trust zum Einsatz. Damit ist ein Sicherheitssystem gemeint, in dem es kein automatisches Vertrauen gibt und jeder Zugriff auf die Systeme verifiziert werden muss, auch, und das ist der Unterschied zu klassischen Sicherheitsarchitekturen, innerhalb des eigenen Netzwerks. In großen Unternehmen spielt Zero Trust eine immer bedeutendere Rolle, die in der Folge auch Auswirkungen auf die Liefer- und Wertschöpfungsketten hat und darüber im Mittelstand ankommt.
Und auch die kulturelle Dimension sollte eine größere Rolle spielen, weg von der reinen technischen Absicherung hin zu einem Verständnis von Cybersecurity, das als Basis einer modernen Unternehmensführung gilt, um sich sicher und erfolgreich im digitalen Raum zu bewegen. Das ist schwerer als gedacht, denn in der Praxis scheitern nicht wenige Unternehmen schon daran, sicherzustellen, dass ihre Beschäftigten sichere Passwörter nutzen und diese regelmäßig ändern. Mit der Haltung „das war schon immer so“ oder „das ist einfacher so“, setzen sich Unternehmen auch in Zukunft ungeahnten Risiken aus.

Dieser Text erschien zuerst auf inpactmedia.com und als Beilage in der Wirtschaftswoche.

Trau, schau, wem… | inpactmedia.com

Posted by Thomas Feldhaus in Allgemein
Wein-Token – Echter Genuss und digitale Rendite

Wein-Token – Echter Genuss und digitale Rendite

„Schade, dass man Wein nicht streicheln kann“, soll der deutsche Schriftsteller und Journalist Kurt Tucholsky einmal gesagt haben. Der Genuss eines edlen Tropfen wird ihn zu dieser Aussage verleitet haben. Und damit ist er auch heute nicht alleine. Wein ist so populär wie nie. Nach Angaben des Deutschen Weininstituts betrug der Pro-Kopf-Verbrauch im vergangenen Jahr 2020 in Deutschland 20,7 Liter, etwa 0,6 Liter mehr als im Jahr zuvor. 

Solide Wertsteigerungen bei Weininvestments

Neben dem Genuss setzen allerdings immer mehr Menschen auf Wein als Investment Case. Dann nennt sich der Genuss Fine Wine Investment und hat vor allem seltene und teure Weine im Blick, die Aussicht auf eine solide Wertsteigerung versprechen. In den vergangenen Jahren durchaus mit Erfolg. Laut aktuellem Jahresreport der Londoner Wein-Börse Liv-Ex (Link: https://www.liv-ex.com/news-insights/indices/) haben sich Weininvestments im Corona-Jahr 2020 als sehr stabil erwiesen. Sie waren weniger volatil als die Aktienmärkte und konnten zum Jahresende ein Plus von fünf Prozent verbuchen. 

Token erleichtern den Marktzugang

Zwei Faktoren begünstigen die Entwicklung und Stabilität von Wein als Investment. Nur rund ein Prozent der weltweit produzierten Weine eignen sich nach Expertenschätzungen als Wertanlage. Gleichzeitig wächst der Bedarf an sicheren und rentablen Sachwerten. Das macht den Markt der Fine Wine Investments für viele Anleger interessant. Zumal edle Weine auch einen Prestigegewinn versprechen. Allerdings trifft dies nur auf wenige Tropfen zu. Ohne Fachkenntnisse und Zugang zu den relevanten Märkten können Investoren kaum von den Vorteilen profitieren. Zudem gelten Weininvestments als wenig liquide Form der Geldanlage. Wer sein eingesetztes Kapital jederzeit schnell verfügbar haben will, ist bei klassischen Fine Wine Investments nicht gut aufgehoben. Digitale Weininvestments können das ändern und öffnen privaten Investoren damit neue Anlagemöglichkeiten. 

Teilhaber wertvoller Weine

Grundlage dafür ist die Blockchain-Technologie, mit der sich verbriefte Eigentumsrechte an Sachwerten in viele kleine Teile zerlegen lassen. So ist es möglich, Teilhaber einer wertvollen Flasche Wein zu werden, ohne diese im Keller aufzubewahren oder jemals in Augenschein zu nehmen. Der Anteil an einer tokenisierten Flasche Wein oder einem tokenisiertem Wein-Portfolio ist ein sogenannter Non-Fungible Token oder kurz NFT, mit dem die Eigentumsrechte nachgewiesen werden. Diese digitalen Eigentumsnachweise lassen sich in der Wallet, dem digitalen Depot, aufbewahren. NFTs bezeichnen einen einzigartigen Vermögenswert, der nicht reproduzierbar ist. Dieser Wert muss nicht digital sein, sondern eindeutig identifizierbar, so wie beispielsweise eine spezielle Flasche Wein. Ein Wein-Token ist also immer mit einem physisch vorhandenen Portfolio eindeutig identifizierbarer Weine verbunden. 

Erste Wein-Token auf dem Markt

Mit der zunehmenden Popularität von NTFs in den vergangenen zwölf Monaten wurden auch hochwertige Weine zum Objekt der Begierde. Als im März das in Hamburg ansässige Fintech Finexity AG das erste europäische digitale Fine Wine Investment launchte, waren die angebotenen Token schon in der Vorzeichnungsphase unter Bestandskunden innerhalb kurzer Zeit an den Mann bzw. die Frau gebracht. Sieben Flaschen des Weinguts Domaine de la Romanée-Conti aus dem Burgund umfasste das Angebot. Mit Nebenkosten wurden diese für knapp 42.000 Euro eingekauft und in 43.500 Token a 1 Euro aufgeteilt. Investoren mussten mit mindestens 500 Token einsteigen. Inzwischen sind fünf weitere Fine Wine Investmentprojekte dazugekommen. Anleger können in die französischen Weingüter Domaine de la Romanée-Conti, Château Lafite Rothschild, Le Pin, dem kalifornischen Weinanbauer Opus One und das Champagnerhaus Salon Le Mesnil investieren.  

Schweizer Gesetz schafft rechtlichen Rahmen

In der Schweiz ist die Fine Wine Capital AG vorgeprescht und hat zusammen mit der Sygnum AG in einem ersten Schritt einen Château Latour tokenisiert. Es war das erste Weininvestment, das im Einklang mit dem neuen Schweizer DLT-Gesetz (Distributed Ledger Technologie) auf den Markt gebracht wurde. Damit wurde ein rechtlich verbindlicher Rahmen geschaffen, mit denen Eigentumsrechte digital verwaltet und übertragen werden können, so wie es für tokenisieren von Sachwerten erforderlich ist. Ähnlich wie bei Finexity waren auch die ersten Wein-Token bei Sygnum innerhalb kurzer Zeit verkauft. 

Auswahl entscheidet über die Rendite

Mit dem tokenisieren von Wein hat sich für Anleger ein Marktsegment erschlossen, das bislang eher vermögenden Kunden zur Verfügung stand. So kann auch mit geringem finanziellem Einsatz die eigene Vermögensplanung um diesen Baustein erweitert und damit diversifiziert werden. Doch Sachwerte wie Weine haben ihre Besonderheiten, die auch dann noch Gültigkeit haben, wenn sich das Investitionsvolumen auf viele Schultern verteilt. Zu den wichtigsten Aspekten gehören:

Nur wer aus der Fülle angebotener Weine die Perlen finden kann, wird am Ende mit einer Rendite belohnt. Das ist für den normalen privaten Anleger kaum möglich. Deshalb sollten sie darauf achten, nach welchen Kriterien ein Token-Anbieter seine Weine auswählt. Finexity hat beispielsweise ein Netzwerk an erfahrenen Weinkennern und Experten gebildet, deren Urteil in die Auswahl einfließt. Von ganz besonderer Bedeutung ist aber die Bewertung von international anerkannten Wein-Kritikern wie Robert Parker und Antonio Galloni. Ihr Urteil kann über Aufstieg und Fall eines Weines entscheiden und hat somit einen unmittelbaren Einfluss auf die Rendite. Anleger sollten aber auch auf die Tradition einer Weinmarke achten. Weingüter, die immer wieder hochwertige Weine produzieren, genießen beim späteren Verkauf eine höhere Wertschätzung als einmalige Ausreißer. 

Ist die Auswahl erst mal getroffen und die Weine befinden sich im Besitz des Emittenten, müssen sie dauerhaft fachgerecht gelagert werden. Relevant sind hierbei etwa die Raumtemperatur (10° bis 12°) und der Feuchtigkeitsgehalt der Luft (65% bis 85%). Der Grund ist einfach. Auch wenn Wein-Investments nicht zum Verzehr gedacht sind, so müssen sie trotzdem trinkbar bleiben. Nur dann ist die Werthaltigkeit gesichert. Erkennbar schlecht gelagerte Weine können ihren Wert vollständig verlieren und damit auch das eingesetzte Kapital. Diese aufwendige Lagerung verursacht natürlich Kosten. Anleger sollten deshalb auch auf die Nebenkosten achten, die mit dem Investment verbunden sind.  

Von ebenso großer Bedeutung sind die Aspekte Diebstahlschutz und Fälschungssicherheit. Vor allem die Echtheit von Weinflaschen sicherzustellen, ist inzwischen zu einer großen Herausforderung für Weingüter wie Investoren geworden. Denn mit den hohen Renditen kamen auch immer mehr gefälschte Weine auf den Markt. Zu den bekanntesten Fälschungen gehört eine Flasche Château Lafite, angeblich aus dem Jahr 1787 und aus dem Weinkeller des US-amerikanischen Präsidenten Thomas Jefferson. Tatsächlich handelte es sich um eine Abfüllung aus den 1960er-Jahren. Von anderen wertvollen Weinen waren mehr Flaschen im Umlauf, als jemals abgefüllt wurden. Emittenten von Wein-Token sichern sich deshalb heute über lückenlose Steckbriefe und Echtheitszertifikate ab. 

Digitale Marktplätze schaffen Transparenz und Flexibilität

Lukrative Investments in ausgewählte Sachwerte, so wie sie auch Fine Wine Investments darstellen, waren zuvor nur sehr schwer zugänglich. Entsprechend wurden sie nur wohlhabenden Kunden angeboten, die für längere Zeit auf ihr investiertes Kapital verzichten konnten. Das ändert sich mit dem tokenisieren von Weinen. Die Markteintrittsbarrieren sind abgesenkt, vor allem weil das Investment schon ab einigen Hundert Euro möglich ist. Ein bedeutender Vorteil besteht allerdings darin, dass die Token handelbar sind und das mit großer Transparenz und Sicherheit. Finexity hat dazu einen außerbörslichen Marktplatz für tokenisierte Assets geschaffen. Anleger können nach der Registrierung mit wenigen Klicks Token kaufen und wieder verkaufen. Zusätzliche Informationen zu den angebotenen Token und deren Performance machen es den Anlegern sehr einfach, ihre Investmententscheidung zu treffen. Ganz ähnlich arbeitet die Sygnum Bank mit ihrem Marktplatz Desygnate, der zudem durch die Orientierung am neuen DLT-Gesetz größtmögliche rechtliche Sicherheit bietet. Inzwischen arbeiten auch die regulären Wertpapierbörsen an Marktplätzen, auf den tokenisierte Sachwerte gehandelt werden können.


Exkurs: Das Parker-Punkte-System

Mit Daumen hoch oder Daumen runter ist es bei der Bewertung von Weinen nicht getan. Die Qualität eines Weins festzustellen, mutet für Laien oft wie eine Geheimwissenschaft an. Im Restaurant ist es ausreichend, wenn der Wein schmeckt. Für Fine Wine Investments ist vor allem eine hohe Bewertung anerkannter Kritiker wichtig. Ohne ihr Urteil ist nicht mit hohen Preisen und einer entsprechenden Wertentwicklung zu rechnen. Zu den Koryphäen auf diesem Gebiet gehört der US-Amerikaner Robert Parker. Seit 1978 urteilt er in seinem Magazin „The Wine Advocate“ über die Qualität von Weinen. Anfänglich hatte er dabei vor allem französische Weine im Blick, mittlerweile werden Weine aus allen namhaften Weinanbauregionen bewertet. Inzwischen ist Parker im Ruhestand, sein System wird aber von erfahrenen Sommeliers weitergeführt. Und das basiert auf einer übersichtlichen Punkteskala, die für jeden getesteten Wein einen Punktwert ermittelt. Für das Fine-Wine-Investement sind vor allem Weine interessant, die über einen Punktwert von mindestens 90 bis 95 (hervorragender Wein), besser aber einen Wert von 96 bis 100 (außerordentlicher Wein) verfügen. Wird der Punktwert noch um ein Pluszeichen ergänzt, könnte sich seine Qualität mit den Jahren noch verbessern. Zwar werden Weine auch von anderen Kritikern bewertet, beispielsweise dem „Gault Millau“, bei Weininvestments spielt die Parker-Bewertung aber immer noch eine zentrale Rolle. Investoren sollten also auf eine hohe Parker-Bewertung achten. 


FAQ Wein-Token

Wie sicher ist ein Wein-Token?

Für die Sicherheit von tokenisierten Wein-Assets sind unterschiedliche Ebenen relevant. An erster Stelle muss sich die prognostizierte Wertentwicklung nicht erfüllen. Dadurch kann die Rendite deutlich niedriger ausfallen und sogar der Totalverlust drohen. Ebenso wichtig ist die technische Sicherheit. Deshalb müssen die digitalen Schlüssel sicher aufbewahrt werden. Nutzen Sie dafür sehr sichere Passwörter und vergessen sie diese nicht. Ist der Zugriff nicht mehr möglich, ist der Verlust des Tokens unwiederbringlich. Investitionen in Wein-Token sind rechtlich bislang noch eine Art Schuldverschreibung. Das bedeutet, der Emittent haftet beispielsweise für Zinszahlungen, sofern diese vereinbart wurde. Er kann diese aber auch aussetzen, ebenso wie die Tilgung zum vereinbarten Endtermin. Das geht meist einher mit der Insolvenz des Emittenten. In diesem Fall bekommen Anleger ihr eingesetztes Kapital nur zurück, wenn zuvor andere Gläubiger bedient wurden. Auch eine solche Situation kann zum Totalverlust des Investments führen. 

Wie kann ich mit meinen Wein-Token Rendite erwirtschaften?

Ein Investment in hochwertige Weine zielt vor allem auf eine Wertsteigerung ab. Die bisher verfügbaren Wein-Token sind mit einem prognostizierten Ablaufdatum versehen, zu dem die Weine verkauft werden sollen. Zeiträume von 10 bis 15 Jahren sollten Anleger dafür einkalkulieren. In der Zwischenzeit profitieren die Anleger von den erwirtschafteten Überschüssen, sofern diese realisiert werden. Über die digitalen Marktplätze können die Token allerdings jederzeit verkauft werden und sichern damit die Liquidität des eingesetzten Kapitals. 

Welche Kosten sind mit dem Investment in Wein-Token verbunden?

Ein Vorteil der tokenisierten Weininvestments sind die deutlich niedrigeren Kosten. In der Regel werden nur geringe Verwaltungsgebühren berechnet. Eventuell kommen noch Kosten für die Wallet auf den Anleger zu. Anbieter wie Finexity verlangen allerdings keine Gebühren für die Aufbewahrung der Token.  

Dieser Text erschien zuerst auf token-information.de.

Posted by Thomas Feldhaus in Allgemein
Digital disruptiv oder Veränderung ist machbar

Digital disruptiv oder Veränderung ist machbar

Der fortschreitende Einzug digitalisierter Prozesse und Produkte in nahezu alle Branchen scheint disruptiv zu sein. Was gestern noch galt hat schon morgen keine Bedeutung mehr. Doch stimmt das eigentlich? Bei genauer Betrachtung wird die Mogelpackung entlarvt. Nicht überall wo digital draufsteht, ist Disruption drin.

Von der Pole-Position ins Aus

Disruption ist ein hässliches Wort. Zerstörung, oder vielleicht etwas milder Unterbrechung oder Veränderung, wirken erstmal unbequem, machen Schluss mit Gewohnheiten können gar Angst einflössen. Ganz anders die Digitalisierung. Damit verbinden wir im besten Sinne des Wortes Innovation, Fortschritt und insgesamt eher Verbesserung. Was ist dann digitale Disruption?

Als ein Beispiel wird dann gerne der Niedergang der Traditionsmarke Kodak genannt. Vom bedeutenden Produzenten fotografischer Ausrüstung auf direktem Weg in die Pleite. Möglich machte das der Siegeszug der Digitalkamera, denn selbst orthodoxe Anhänger der analogen Fotografie konnten die Vorteile der Digitalfotografie nicht dauerhaft ignorieren. Die zunehmende Verbreitung der Smartphones mit integrierter Digitalkamera besorgte den Rest. Alle Versuche des amerikanischen Unternehmens den Anschluss erneut zu bekommen scheiterten und endeten schließlich 2012 mit der Insolvenz und dem Verkauf der Fotosparte. Heute hat Kodak im Geschäft mit der Fotografie keine Bedeutung mehr. Das eigentlich tragische an diesem Beispiel ist, das Kodak die Digitalkamera erfunden hat, das Potenzial der Erfindung aber nicht wirklich erkannte.

Sicher ist Kodaks Entwicklung nicht nur auf eine frühe Fehlentscheidung zurückzuführen. Aber das Beispiel zeigt sehr anschaulich was der kürzlich verstorbene Clayton Christensen, Erfinder des Begriffs „disruptive Innovation“, immer wieder betonte. Clayton nannte dies erhaltende Innovation. Das meint nichts anderes, als dass sich erfolgreiche Unternehmen auf ihre lukrativen Kunden und Geschäftsfelder konzentrieren und für diese bestehende Produkte immer weiter verbessern. Riskanten neuen Entwicklungen geht man dann lieber aus dem Weg und scheitert am Ende. Ein Dilemma für etablierte Unternehmen, aber eine Chance für Start-ups.

Kulturwandel mit Tücken

Manager müssen disruptive Technologien frühzeitig erkennen können, um in ihren Geschäftsfeldern erfolgreich zu bleiben, war sich Clayton sicher. Doch dafür bräuchte es andere Organisationsstrukturen, in denen sich disruptive Innovationen entwickeln können. Inzwischen sind seine Worte in den Vorstandsetagen angekommen und immer mehr Großkonzerne versuchen bei Start-ups anzubändeln. Mit mäßigem Erfolg, denn disruptive Innovationen lassen sich nicht einfach in einer kurzen Auszeit mit Start-up-Kultur entwickeln und dann in schwerfällige Konzernstrukturen einbinden. Disruption braucht Querdenker und Regelbrecher, aber die werden in Konzernen nicht gerne gesehen. Disruption bedeutet aber immer auch Risiko und die Möglichkeit des Scheiterns. Das mögen Konzernlenker genauso wenig.  

Clayton beschreibt in seinem Buch „The Innovators Dilemma“ zwei mögliche Prozesse disruptiver Innovationen. Beiden gemein ist der Anspruch, mit geringen Ressourcen und viel Lust an der Gestaltung etablierte Unternehmen und Geschäftsfelder herauszufordern. Junge Unternehmen mit disruptiven Geschäftsideen fang genau da an, wo etablierte Unternehmen nicht hinschauen. Sie wollen das einfachere Produkt, preiswerter und mit Potenzial zur Skalierung. Disruptive Unternehmen stellen den Kundenutzen und das Kundenbedürfnis in den Mittelpunkt ihres Handelns. Damit überzeugen sie immer mehr Kunden und während sie von den etablierten Mitbewerbern ignoriert werden, erobern sie schließlich den Markt. Als zweiten möglichen Prozess beschreibt Clayton die Schaffung neuer Märkte durch innovative Produkte oder Dienstleistungen.  

Wann ist Digital auch disruptiv?

Die heute fortschreitenden digitalen Technologien haben dem neuen Verständnis der Disruption den Weg geebnet und Möglichkeiten erschaffen, wie sie in der analogen Welt kaum denkbar waren. Dabei waren die Nerds in den IT-Abteilungen schon immer auch disruptiv unterwegs. Für sie gehört das neue, das andere quasi zur DNA. Die Nerds pflegen ihre eigene Kultur, kümmern sich nicht um die Konventionen und Regeln des Geschäftslebens und werden deshalb schon argwöhnisch betrachtet. Gepaart mit geschäftlichem Erfolg werden sie gar als Bedrohung wahrgenommen. Vor allem wenn sie in konservative Geschäftsfelder wie beispielsweise die Finanzwelt vordringen und Geschäftsideen und Technologien entwickeln, die geeignet sind, die Bankenwelt auf den Kopf zu stellen, von etablierten Bankern aber kaum verstanden werden. Fintechs! Was soll das sein? Das klappt nie! So verwundert es nicht, wenn inzwischen jede scheinbare digitale Innovation auch als digitale Disruption bezeichnet wird. Nicht selten ein Fehlurteil.

So werden beispielsweise der Fahrdienst Uber oder die Vermietungsplattform AirBNB als Leuchttürme disruptiver Digitalisierung betrachtet. Wendet man allerdings Claytons Definition einer disruptiven Innovation an, so muss man in beiden Fällen zu einem anderen Urteil kommen. Beide Unternehmen setzten konsequent auf Digitalisierung und versuchen etablierte Märkte zu verändern. Sicher, Uber hat im etablierten Taxi-Gewerbe für viel Unruhe gesorgt und in etlichen Ländern neue gesetzliche Regelungen angestoßen. Doch setzt Uber nur auf ein bestehendes Geschäftsmodell auf, erschließt weder neue Märkte noch neue Kundengruppen. Uber wäre für Clayton eine erhaltende Innovation. Dennoch hat das amerikanische Start-up die Welt der Taxiunternehmen durcheinander und gegen sich aufgebracht. In den meist kleinen Taxiunternehmen herrschte anfangs regelrechte Panik angesichts des milliardenschweren Start-ups aus dem Silicon Valley.

Flussaufwärts gegen den Strom

Jahre zuvor hatte der etablierte Buch- und Einzelhandel in Deutschland eine ähnliche Erfahrung gemacht. Mit dem zunehmenden Erfolg von amazon forderten die örtlichen Buchhändler nach Regulierung und bettelten ihre Kundschaft regelrecht an, ihre Bücher doch weiterhin am Ort zu kaufen. Sonst, so die weitverbreitete Drohung, würde es bald keinen lokalen Buchhandel mehr geben. Die Gegenwart zeigt ein anderes Bild. Der Buchhandel hat sich verändert, aber er lebt noch immer.

Unternehmen sollten daraus eine wichtige Lehre ziehen, sie müssen die neuen Herausforderungen als Chance begreifen. Unternehmen die im Red Ocean – dem gesättigten Markt bequem mitschwimmen wollen, werden auf Dauer untergehen. Wettbewerb und Unsicherheit sind eine Tatsache, die als Chance begriffen werden muss. Unternehmen mit disruptivem Potenzial erkennen die Chancen, verlassen etablierte Strukturen und stoßen in neue Märkte – dem Blue Ocean vor. Digitalisierung bietet die Möglichkeit und disruptive Digitalisierung ist die Chance.

Der Köder muss dem Fisch schmecken und nicht dem Angler, ist eine bekannte Weisheit aus Marketing und Werbung. Sie beschreibt ebenso deutlich die Herausforderung und den Anspruch digitaler Disruption. Produkte und Dienstleistungen müssen besser und wettbewerbsfähiger werden und nicht einfach nur cooler. Digital disruptive Produkte sind intuitiv, sie wecken Bedürfnisse, die der Kunde vorher nicht hatte und sie verändern Lebensgewohnheiten. Keine 15 Jahre ist es her, das hat der US-Amerikaner Steve Jobs mit seinem Unternehmen Apple ein Produkt auf den Markt gebracht, dessen Nutzen viele zunächst nicht erkannten. Als 2007 das erste I-Phone in den Regalen lag, war nicht zu ahnen, welche Bedeutung es innerhalb kürzester Zeit erlangen konnte. Heute ist ein Leben ohne Smartphone kaum mehr vorstellbar. Der Erfolg lag sicher in der Weitsicht eines Steve Jobs, aber er hat noch weitere Väter. Denn mit dem Siegeszug der Smartphones hat sich der Umgang mit digitalen Inhalten jeder Art vollständig verändert.

Jobs hat mit dem I-Phone einen Kundenutzen geschaffen, den es vorher nicht gab und der jetzt nicht mehr wegzudenken ist. Er hat die Stärke Appels genutzt, intuitiv bedienbare und dabei noch schön anzusehende Produkte zu entwickeln und gleichzeitig ein plattformbasiertes Geschäftsmodell etabliert. Erst das vielfältige Angebot an Apps machte aus dem I-Phone das erfolgreiche Produkt. Erst die App macht aus dem I-Phone das Produkt mit echtem Kundennutzen und sorgt für den entscheidenden Impuls: Das muss ich haben. Apple hat sich dabei voll auf seine Kernkompetenz konzentriert und die Fähigkeit zur Entwicklung leistungsfähiger Apps, genau denen überlassen, die davon etwas verstehen. Durch die Bündelung auf dem eigenen Marktplatz ist Apple aber immer noch Herr über das Geschehen und Gatekepper für das Hauptprodukt I-Phone.

Digitale Disruption ist kein Schicksal, sondern eine Haltung

Apple hat im besten Sinne disruptiv gehandelt. Hat einen neuen Markt und ein neues Kundenbedürfnis aus der Taufe gehoben, hat Handys vorheriger Bauart fast vollständig vom Markt verdrängt und damit schlussendlich den Gesamtmarkt der Informations- und Kommunikationstechnologie nachhaltig verändert. Denn aus dem zaghaften „online first“ der 2000er Jahre ist längst ein „mobile first“ geworden. Wie konnte das gelingen? Apple und Steve Jobs in Person machten zu dieser Zeit und auch die Jahre davor zwei Dinge sehr richtig.

Jobs hat quasi eine Unternehmenskultur der digitalen Disruption gepflegt. Alles sollte möglich sein oder möglich gemacht werden. Apple hat die digitale Transformation bereits gelebt, als sie in vielen etablierten Unternehmen noch skeptisch betrachtet wurde. Nach den schweren Rückschlägen durch die Dotcom-Blase war in vielen Unternehmen business as usual angesagt, hatten Werte, Produkte und Prozesse etablierter Industrien wieder Konjunktur. Unternehmen wie Nokia hat diese Entwicklung, neben anderen Managementfehlern, sprichwörtlich das Genick gebrochen. Heute spielt der einstige Star der Mobilfunktechnologie praktisch keine Rolle mehr.

Allerdings war der Siegeszug des I-Phones nicht vorhersehbar. Unternehmen die die digitale Transformation aktiv mitgestalten wollen brauchen eine hohe Risikotoleranz. Scheitern nicht ausgeschlossen. Sicher wollte Jobs nicht zu den Verlierern gehören, aber er ist das Risiko eingegangen.  Nicht kopflos, sondern mit einer Unternehmenskultur die Kreativität, Schnelligkeit, Präzision und Kundennutzen zum Dogma erhob und einer Unternehmensstrategie der digitalen Disruption. Für Jobs war klar, die Karten werden jetzt neu gemischt. Wer dann abwartet und nur auf bewährte Konzepte setzt wird nicht zu den Gewinnern gehören. Komfortzone gegen Siegertreppchen ist die Entscheidung die Unternehmen aktiv treffen müssen.

Diese Entscheidung haben auch andere Unternehmen aus dem Silicon Valley und der weltweiten Start-up-Szene getroffen. Sie wollen zu den Siegern gehören und setzen oftmals alles auf eine Karte, im festen Glauben an die Überlegenheit ihres Geschäftsmodells. Doch längst nicht jedes, mit Milliarden gepimpte Jungunternehmen ist ein Vorreiter digitaler Disruption. Nicht selten werden einfach nur Modeerscheinungen verfolgt, wird kopiert und möglichst schneller skaliert als es die Konkurrenz schafft. Mit viel Geld wird die Strategie des First-Mover-Advantage verfolgt in der Hoffnung den Markt zu beherrschen. Dabei können Kreativität, Innovationsgeist und Kundenutzen auf der Strecke bleiben.

Unternehmen die wirklich digital disruptiv unterwegs sind, folgen keinen Modeerscheinungen, sondern erkennen langfristige Trends, surfen auf dieser Welle zum Erfolg und gestalten ihre Märkte. Das erfordert manchmal einen langen Atem und der muss durch mutige Investoren ermöglicht werden. Ein Beispiel dafür ist Facebook. Die Idee und Vision von Marc Zuckerberg wurden von vielen Akteuren lange nicht verstanden. Heute sind soziale Netzwerke nicht mehr aus unserem Alltag wegzudenken.

Echte digitale Disruption ist also nicht einfach nur ein digitales Kleidchen für bestehende Produkte. Für digital affine Führungskräfte sind digitale Transformation und disruptive Innovation Antrieb und digitale Disruption nicht nur ein Buzzword, sondern unternehmerische Chance.

Diesen Magazin-Text habe ich als Ghostwriter für einen Managementberater geschrieben.

Posted by Thomas Feldhaus in Allgemein
Barrierefreie Webinhalte

Barrierefreie Webinhalte

Inhaltsverzeichnis:

1. Was ist Barrierefreiheit im Web?

2. Welche Voraussetzungen muss eine barrierefreie Webseite erfüllen?

2. Warum sollte meine Webseite barrierefrei sein?

3. Was sollte ich tun, um die Zugangsmöglichkeiten zu meiner Website zu verbessern?

4. Gibt es Tools, die mir bei diesem Prozess helfen können?

5. Welche Vorteile bietet eine barrierefreie Webseite?

1. Was ist Barrierefreiheit im Web?

Mit „Barrierefreiheit“ im Internet ist gemeint, dass eine Website so gestaltet wird, dass sie allen Menschen ohne fremde Hilfe zugänglich ist und deren Inhalte wahrnehmbar und erfassbar sind. Um Menschen, die von bestimmten Einschränkungen betroffen sind, die Inhalte verfügbar zu machen, gibt es Unterstützungstechnologien wie Vorlesefunktionen, akustische Bildbeschreibungen, Untertitel oder die Ausgabe in Blindenschrift.

Webentwickler, Programmierer und Designer können sich dabei an Richtlinien für barrierefreie Webinhalte orientieren. International durchgesetzt haben sich die Web Content Accessibility Guidelines (WCAG) in deren Entwicklung zahlreiche Empfehlungen von Verbänden und Experten eingeflossen sind. Sie werden vom World Wide Web Consortium (W3C) herausgegeben. Das W3C ist ein international besetztes Gremium, um die im World Wide Web verwendeten Techniken zu standardisieren. Mit ihren Richtlinien zur Barrierefreiheit werden Webseiten für Menschen mit einer Beeinträchtigung wie beispielsweise Blindheit, eine starke Sehbehinderung, Gehörlosigkeit, kognitive Behinderungen, aber auch Sprachbehinderungen sowie eine eingeschränkte Bewegungsfähigkeit durch eine körperliche Behinderung so aufbereitet, dass sie möglichst vollständig genutzt werden können.

2. Welche Voraussetzungen muss eine barrierefreie Webseite erfüllen?

Die WACG, übersetzt Richtlinien für barrierefreie Webinhalte, sind ein internationaler Standard und in zahlreichen Ländern die Vorlage für gesetzliche Vorgaben. Seit 2008 liegen sie in ihrer zweiten Version WACG 2.0 vor und wurden dabei an die aktuellen Entwicklungen im Webdesign angepasst. Die erste Version WACG 1.0 wurde bereits 1999 veröffentlicht und war durch die rasante Entwicklung des Internets und der mobilen Nutzung nicht mehr zeitgemäß. Die neue Version wurde deshalb technikneutral formuliert, ist als ein System angelegt und wesentlich weiter gefasst. Neben den gestalterischen Aspekten umfasst sie nun auch Prozesse (beispielsweise eine Abfolge von Aktionen bei einem Online-Kauf) und vor allem multimediale Darstellungsformen.

Die aktuellen WACG 2.0 umfassen die vier Ebenen: Prinzipien, Richtlinien, Erfolgskriterien und Techniken. Werden die Vorgaben dieser Richtlinie erfüllt, gilt eine Webseite als WCAG 2.0 konform. Diese Konformität wird in drei Stufen ausgedrückt (A, AA und AAA), denn eine Webseite muss nicht alle Kriterien der Richtlinie erfüllen.

Als niedrigste Erfüllungsstufe gilt die A-Konformität. Sie ist erreicht, wenn alle Kriterien der Stufe A berücksichtigt wurden oder diese auf einer alternativen Webseite umgesetzt wurden. Als mittlere Erfüllungsstufe gilt AA, bei der alle Kriterien der ersten Stufe erfüllt sein müssen, und die Kriterien der Stufe AA. Die höchstmögliche Entsprechung hat eine Webseite, wenn sie die Kriterien der vorherigen Stufen erfüllt und zusätzlich die AAA-Kriterien, oder eine alternative Webseite zur Verfügung stellt, auf der die Vorgaben umgesetzt wurden. Dabei kann eine Webseite sowohl nach WCAG 1.0 und auch nach WCAG 2.0 konform sein. Allerdings muss eine Webseite die Konformität insgesamt erfüllen. Werden die Kriterien nur in einzelnen Abschnitten umgesetzt, so gilt die gesamte Webseite als nicht konform.

Basis der Richtlinie sind vier grundlegende Prinzipien der Webseitengestaltung. Dabei werden jedem Prinzip mehrere Richtlinien und Kriterien zugeordnet, deren Berücksichtigung Einfluss auf die Konformität der Webseite hat. Die vier Prinzipien sind:

Das Prinzip Wahrnehmung:

Eine Webseite muss so gestaltet sein, dass sie für alle Nutzer wahrnehmbar ist. Das wird erreicht, in dem für alle Bilder, Grafiken, Videos und Audio-Inhalte ein beschreibender Text zur Verfügung steht. Dabei ist zu beachten, dass die alternative Darstellung nicht zu Verlusten bei den Inhalten führt. Außerdem müssen sie in ihrer Gestaltung deutlich von den anderen Inhalten der Webseite unterscheidbar sein.

Das Prinzip Bedienbarkeit:

Diese Interaktion wird durch eine definierte Benutzerschnittstelle, mit der ein Zugriff alle Inhalte möglich ist. Als übliche Benutzerschnittstelle gilt dabei eine Tastatur in Kombination mit einer Maus oder einem Touchpad. Außerdem müssen sogenannte Tastaturfallen vermieden werden. Als Tastaturfalle gelten Bereiche, die nicht mit den üblichen Bedienmustern verlassen werden können. Dazu gehört auch eine Navigation, die schnell erfassbar und mühelos zu bedienen ist. Extreme visuelle Reize sollten reduziert werden, um mögliche Krampfanfälle zu vermeiden.

Das Prinzip Verständlichkeit:

Alle Bereiche einer Webseite sollten in ihrer Bedienbarkeit nachvollziehbar sein und ihre Inhalte für jedermann verständlich. Das wird durch ein durchschnittliches Leseniveau erreicht und die Vermeidung von nicht geläufigen Fremdwörtern, Abkürzungen und Mehrdeutigkeiten. Damit Webseiten flüssig genutzt werden können, sollte der Aufbau von Inhalten und Bedienung zu vorhersehbaren Ereignissen führen. Insbesondere bei Interaktionen in Online-Shopping oder beim Online-Banking müssen Fehlerquellen bei der Eingabe vermieden werden.

Das Prinzip Robustheit: 

Ein Webseite gilt dann als robust, wenn sie die Nutzung möglichst vieler Webstandards ermöglicht. Das bedeutet die verlustfreie Nutzung von Webbrowsern, Dokumenten und Formularen sowie multimediale Techniken. Dabei sollte sowohl eine Abwärtskompatibilität gewährleistet sein wie auch eine Nutzung zukünftiger Techniken.

2. Warum sollte meine Webseite barrierefrei sein?

Die Idee des Internets ist es, für alle Menschen zugänglich zu sein. Eine barrierefreie Webseite schafft diese Möglichkeit auch für Menschen mit Beeinträchtigungen. Rund 15 bis 20 Prozent der Weltbevölkerung sind teilweise auf barrierefreie Inhalte angewiesen. Immerhin 3 Prozent der Weltbevölkerung haben starke Beeinträchtigungen der Sehfähigkeit oder sind sogar blind. Ebenso viele Menschen haben motorische Einschränkungen und können nur schwer eine Tastatur oder eine Maus bedienen.

Hinzu kommt eine zunehmend älter werdende Gesellschaft in nahezu allen Industrieländern. Viele der älter werdenden Menschen sind in den vergangenen zwanzig Jahren mit der Nutzung des Internet vertraut gewesen. Im Alter schränken sich allerdings bestimmte Fähigkeiten ein, beispielsweise werden die Augen schlechter. Der Anteil der Menschen, die auf barrierefreie Inhalte angewiesen ist, wird demnach voraussichtlich weiter steigen.

Zudem spielt Barrierefreiheit bereits jetzt und mit steigender Tendenz eine wichtige Rolle für den Erfolg einer Webseite. Diese kann nur erfolgreich sein, wenn sie auch gefunden wird. Suchmaschinenanbieter wie Google haben diesen Trend längst erkannt und berücksichtigen die barrierefreie Gestaltung einer Webseite für ihre Suchergebnisse. Experten rechnen damit, dass Barrierefreiheit neben gutem Content zukünftig ein immer wichtigerer Rankingfaktor wird.

Wenn eine Webseite von einer Institution des öffentlichen Sektors betrieben wird, ist Barrierefreiheit verpflichtend. Die Richtlinie (EU) 2016/2102 des Europäischen Parlaments gilt seit dem 23. September 2020 für alle Webseiten und mobile Anwendungen in den Ländern der Europäischen Union. Sie basiert auf dem WACG-Standard und gilt für alle staatlichen Einrichtungen und im staatlichen Auftrag erbrachte Dienstleistungen.

3. Was sollte ich tun, um die Zugangsmöglichkeiten zu meiner Website zu verbessern?

Der erste Schritt auf dem Weg zu einer barrierefreien Webseite ist die Entrümpelung. Alle Inhalte, die nicht zum Kern einer Webseite gehören und den Besuchern keinen zusätzlichen Nutzen bieten, sollten von der Webseite verschwinden. So entsteht eine klarere Struktur, die es Menschen mit Beeinträchtigung – und nicht nur denen – erleichtert, die Inhalte zu nutzen. Diese Struktur sollte sich dann auch in der Navigation wiederfinden und dem Besucher jederzeit darüber informieren, wo genau er sich auf der Webseite befindet. Hilfreich ist auch eine klare Benennung der URL, also der Adresse einer Webseite oder eines Beitrags. Eine sogenannte sprechende URL verrät bereits den Inhalt der Seite und wird zudem von Google als Rankingfaktor gewertet.

Die gesamte Struktur einer Webseite sollte so aufgebaut sein, dass mit wenigen Klicks (max. 3) das gewünschte Ziel erreicht wird. Je deutlicher diese Struktur erkennbar ist, umso leichter findet sich ein Besucher zurecht. Wenn die Inhalte dann noch in verständlicher Sprache geschrieben sind und die Schrift in ihrer Größe anpassbar ist, sind weitere Punkte auf dem Weg zu einer barrierefreien Webseite erfüllt.

Die alternative Beschreibung von Bildern, Grafiken, Videos oder eingebetteten Social-Media-Inhalten sollte ebenfalls zur Grundausstattung einer zeitgemäßen Webseite gehören. Damit werden nicht nur Kriterien der Barrierefreiheit erfüllt, sondern Google belohnt dieses Vorgehen mit einem besseren Ranking.

Gibt es Tools, die mir bei diesem Prozess helfen können?

Das erste und einfachste Tool ist der Browser. Mit ihm lässt sich die Logik einer Webseite überprüfen. Das geht am einfachsten, wenn im Browser die grafischen Elemente ausgeblendet werden. Dafür können die sogenannten CSS-Styles im Browser deaktiviert werden. Die Webseite erscheint im Textmodus und entlarvt sofort logische Fallen.

Mit der Tastatur lässt sich die Barrierefreiheit ebenfalls überprüfen. Einfach mit der Tabulatortaste durch die Webseite klicken. Wenn nicht alle Navigationsbereiche erreichbar sind, ist die Webseite nicht barrierefrei.

Der Farbmodus der Webseite spielt ebenfalls eine Rolle für die Barrierefreiheit, vor allem für farbenblinde oder sehbehinderte Menschen. Mit speziellen Browsererweiterungen lässt sich eine Webseite mühelos in einen Graustufen-Modus verwandeln. Sind dann einzelne Elemente nicht mehr sichtbar, werden die Kriterien nicht erfüllt. Ob der Kontrast ausreichend ist, lässt sich auch mit dem WCAG Contrast Checker überprüfen. Diesen gibt es als Erweiterung für einige Browser. Mit wenigen Klicks lässt sich Konformität der Webseite nach WCAG 2.0 in diesem Punkt feststellen.

Ob die Inhalte für Webseiten-Besucher mit einer Hörbehinderung zu nutzen ist, lässt sich einfach mit der Sprachfunktion auf dem PC überprüfen. Inhalte der Webseite können auch mit Browser-Erweiterungen vorgelesen werden. Sind diese dann immer noch verständlich und die Navigation funktioniert über direkte Kommunikation, sind weitere Kriterien erfüllt.

Mit der Bowser-Erweiterung Lighthouse lassen sich verschiedene Tests für eine Webseite durchführen. Lighthouse ist fester Bestandteil von Google Chrome und wird mit der Taste F12 und einem Klick auf weitere Tools aufgerufen. Lighthouse führt dann einen Test der Webseite durch und gibt am Ende eine Übersicht aus, in der alle nicht konformen Elemente aufgeführt werden und in einem Score-Wert zusammengefasst sind. Je höher dieser Wert ist, umso näher ist er an der WCAG 2.0-Konformität.

Ganze Webseiten lassen sich auch mit dem BITV-Testverfahren überprüfen. Grundlage für den Test ist die Barrierefreie-Informationstechnik-Verordnung (BITV 2.0), die bereits die neuesten WCAG 2.1-Anforderungen enthält. Mithilfe einer 60 Punkte umfassenden Checkliste kann die eigene Webseite umfassend und zuverlässig überprüft werden. Jeder Prüfschritt des Accessibility Audits wird ausführlich erläutert. Maximal sind hundert Punkte zu erreichen.

Die WAVE-Toolbar ist eine Online-Anwendung zur Überprüfung von Webseiten. Um die eigene Webseite überprüfen zu lassen, gibt man unter WebAIM.org die URL ein. Nach einer schnellen Überprüfung werden die Ergebnisse sofort mit Erläuterungen angezeigt.

Welche Vorteile bietet eine barrierefreie Webseite?

Barrierefreie Webseiten sind nur für behinderte Menschen, ist ein weit verbreitetes Missverständnis von Barrierefreiheit im Internet. Zum einen ist es ein Gebot der Fairness, eine Webseite möglichst vielen Menschen zugänglich zu machen. Der Gedanke der Inklusion ist inzwischen in unserer Gesellschaft fest verankert. Zum anderen gibt es weitere Gründe, eine Webseite so aufzubauen, dass sie den WCAG 2.0-Anforderungen genügt. Beispielsweise ist ein barrierefreier, logisch nachvollziehbarer Kaufvorgang bei einem Online-Shop für jeden Besucher ein Vorteil. Niemand möchte sich mühevoll durch eine Webseite navigieren, um etwas zu kaufen.

Zudem fordert der Umgang mit der Barrierefreiheit einen schonungslosen Blick auf die eigene Webseite und die zugrunde liegende Logik. Wenn eine Webseite klar strukturiert ist und die Absicht des Anbieters deutlich wird, dann fühlen sich alle Besucher angesprochen. Diese Klarheit führt oft auch zu besseren UX Designkonzepten und den Verzicht auf überflüssige Buttons und Animationen.

Als dritten und nicht unwichtigsten Grund gilt es auch die Auffindbarkeit zu beachten. Für die großen Suchmaschinenbetreiber wie Google und Bing gehört Barrierefreiheit zu den Rankingfaktoren. Ihre Bedeutung wird voraussichtlich noch weiter zunehmen.

Dieser Text wurde als SEO-Content für eine Marketingagentur geschrieben.

Posted by Thomas Feldhaus in Allgemein