Kategorie-Archiv: NPO

Ethische Bewertung von Technologien – welche Methoden gibt es? (Teil I)

Welche Methoden gibt es, um in der Alltagspraxis Technologien aus ethischer Perspektive zu bewerten?

Im letzten Beitrag wurden ethische Grundprinzipien aufgelistet, die im Umgang mit Daten und Algorithmen von Bedeutung sind: die Würde des Menschen, Selbstbestimmung, Privatheit, Sicherheit, Demokratie, Gerechtigkeit und Solidarität, Nachhaltigkeit. Aber wie kann man in der Praxis das ethische Assessment von Technologien durchführen? Wie können Nonprofits ihre IKT-Auswahl, -Nutzung, – Evaluation in ethischer Hinsicht reflektieren oder sich im Hinblick auf Zukunftstechnologien positionieren, am besten gemeinsam mit ihren Stakeholdern?

Wessel Reijers hat dazu gemeinsam mit sechs Kolleg*innen 2018 einen Beitrag in Science and Engineering Ethics  veröffentlicht, der auf der Auswertung von 136 wissenschaftlichen Aufsätzen basiert. Diese stammen aus einem breiten Spektrum, von Medizin über IKT, Nanotechnologie, Agrarwissenschaft, bis hin zu Texten, die sich ganz allgemein mit  Technologien und ihren Folgen befassen. Die Autoren haben in diesen 136 Aufsätzen 35 Methoden gefunden, mit deren Hilfe man ein ethisches Assessment von Technologien durchführen kann. Die Methoden ordnen sie drei Kategorien zu (S. 1448):

  • Ex ante (8 Methoden): diese Methoden befassen sich mit Technologien und Anwendungen, die gerade neu aufkommen bzw. sich am Horizont abzeichnen
  • Intra (14 Methoden): diese Methoden konzentrieren sich auf Technologien und Anwendungen, die im Moment konkret entwickelt werden
  • Ex post (13): diese Methoden befassen sich mit Technologien und Anwendungen, die schon vorliegen und in Organisationen bzw. im Alltag genutzt werden

Bei den Ex ante-Methoden sind Szenario- und Foresight-Ansätze stark vertreten. Sie visualisieren Zukünfte oder verdeutlichen diese durch Geschichten. Diese Methoden richten sich in erster Linie an Experten wie Ethiker. Die Einbeziehung unterschiedlicher Stakeholder ist hier eher selten. Kritisiert wird an Ex ante-Methoden, dass eine Schau in die Zukunft spekulativ ist und Zukunftsanalysen durch unvorhergesehene Ereignisse konterkariert werden.

Bei den Intra-Methoden, die die Technologieentwicklung begleiten, setzt man z.B. auf “value sensitive design” und “human driven design”. Auch diese Methoden wenden sich eher an Experten (Ethiker, Forscher, Designer). Ihre Schwachstelle liegt laut Reijers u.a. darin, dass sie in den Arbeitsalltag von Forschern nur schwer zu integrieren sind und der Zusammenhang zwischen Werten und Design in theoretischer Hinsicht nicht klar ausgearbeitet ist.

Ex post-Methoden, die sich mit vorhandenen Technologien befassen, arbeiten oft mit Checklisten oder einer ethischen Matrix, um die ethischen Fragen zu identifizieren, die von den Technologien aufgeworfen werden.  Auch diese Methoden wenden sich eher an Experten, zum Teil aber auch an größere Stakeholder-Kreise. Speziell bei einer “ethischen Matrix” wird nach den ethischen Auswirkungen einer Technologie auf unterschiedliche Gruppen gefragt. Kritisiert wird von Reijers und Kolleg*innen an Ex post-Methoden, dass Konflikte zwischen Normen (z.B. Sicherheit versus Autonomie) im Rahmen dieser Methoden nicht gelöst werden können, weil sie keine Wertehierarchie zur Verfügung stellen. Und auch die Wertkonflikte zwischen Stakeholdern finden keine Auflösung.

An allen Methoden kritisiert die Forschergruppe, dass sie zu wenig partizipativ seien. Die Methoden könnten die Fragen: “Wie kann man Partizipation organisieren? Wer sind die Stakeholder?” nicht beantworten, weil sie zumeist top down konzipiert sind. Deshalb plädieren die Autor*innen dafür,  auch beim ethischen Technologie-Assessment stärker auf Co-Design und “power sharing” zu setzen (S. 1459).

Als Fazit kann man festhalten, dass es im Moment noch nicht die optimale Methode gibt, um die ethische Wirkung von Technologien zu klären, seien die Technologien “Zukunftsmusik”, in der Entwicklung oder schon in der Anwendung. Dennoch wäre es wichtig, dass sich die soziale Profession, die Wohlfahrtsverbände und ihre Einrichtungen und die ganze Zivilgesellschaft, mit ethischen Fragen bezüglich neuer Technologien auseinandersetzten (siehe dazu meinen Vorschlag der Digitalwerkstätten).

Im nächsten Beitrag stelle ich diskursethische Methoden für die Evaluation von Technologien vor, die in der hiesigen Forschungspraxis erfolgreich erprobt wurden und vielleicht eine Alternative für Nonprofits darstellen.

Datennutzung und Algorithmen human und werteorientiert gestalten

Die Datenethikkommission der Bundesregierung hat Ende Oktober 2019 ihren Abschlussbericht vorgelegt, der in einer Lang- und Kurzfassung zum freien Download zur Verfügung steht. Die Ergebnisse sind auch für Nonprofits von Bedeutung, da sie

  • als Sozialunternehmen selbst Daten generieren, verarbeiten und nutzen, u.a. von pflege- und schutzbedürftigen Menschen und Mitarbeiter*innen
  • unter Umständen selbst an automatisierten Assistenzsystemen beteiligen sind, die Algorithmen einsetzen, oder als Kooperationspartner der Leistungsverwaltung mit den Auswirkungen von Algorithmen bzw. automatisierten Entscheidungen befasst sind
  • als gesellschaftliche Akteure auf die humane Ausgestaltung der Digitalisierung Einfluss nehmen wollen
  • als lokale Akteure mit der Digitalisierung von Sozialräumen und Infrastrukturen konfrontiert sind.

Die Datenethikkommission (DEK) legt ihrem Gutachten die folgenden Leitgedanken zugrunde:

  • menschenzentrierte und werteorientierte Gestaltung von Technologie
  • Förderung digitaler Kompetenzen und kritischer Reflexion in der digitalen Welt
  • Stärkung des Schutzes von persönlicher Freiheit, Selbstbestimmung und Integrität
  • Förderung verantwortungsvoller und gemeinwohlverträglicher Datennutzungen
  • Risikoadaptierte Regulierung und wirksame Kontrolle algorithmischer Systeme
  • Wahrung und Förderung von Demokratie und gesellschaftlichem Zusammenhalt
  • Ausrichtung digitaler Strategien an Zielen der Nachhaltigkeit
  • Stärkung der digitalen Souveränität Deutschlands und Europas

(DEK Kurzfassung, S. 5). Handlungsmaßstäbe für die Ausgestaltung digitaler Technologien sollen Werte und Rechte sein, die in unserer Verfassung und der europäischen Charta der Grundrechte festgelegt sind: die Würde des Menschen, Selbstbestimmung, Privatheit, Sicherheit, Demokratie, Gerechtigkeit und Solidarität sowie Nachhaltigkeit.

Weil viele unterschiedliche Akteure an der Datengenerierung beteiligt sind, soll es kein Eigentumsrecht an Daten, sondern Mitsprache- und Teilhaberechte geben. Um die Datenrechte des einzelnen zu klären, sind Umfang und Art seines Beitrags an der Datengenerierung zu untersuchen, sein Individualinteresse zu gewichten und mit konfligierenden Interessen abzuwägen, die Interessen der Allgemeinheit zu beachten und die Machtverteilung zwischen den Akteuren in den Blick zu nehmen (Kurzfassung, S. 9).

Die DEK empfiehlt u.a. Maßnahmen gegen eine ethisch nicht-vertretbare Datennutzung, Leitlinien für den Umgang mit den Daten pflege- und schutzbedürftiger Menschen, datenschutzfreundliche Produkte und Designs, sowie eine Förderung des Beschäftigtendatenschutzes. Personalisierte Tarife bei Versicherungen soll es nur in engen Grenzen geben.

Algorithmen können menschliche Entscheidungen unterstützen. Sie können aber auch menschliche Entscheidungen so prägen, dass die Selbstbestimmung von Menschen eingeschränkt wird. Und schließlich können sie Entscheidung ganz übernehmen, so dass Menschen im Entscheidungsprozess  keine Rolle mehr spielen (= automated decision making, ADM)

Bei algorithmischen Systemen empfiehlt die Kommission eine fünfstufige Bewertungsskala, die das Schädigungspotenzial dieser Systeme und Regulierungsmöglichkeiten auflistet: in einer niedrigen Gefährdungsstufe sollen z.B. eine Risikofolgenabschätzung des algorithmischen Systems durchgeführt und Transparenzpflichten, Kontrollen und Auditverfahren etabliert werden. In einer höheren Gefährdungsstufe empfiehlt die Kommission ex-ante-Zulassungsverfahren für Algorithmen, Live-Schnittstellen für Aufsichtsinstitutionen oder sogar vollständige und teilweise Verbote von algorithmischen Systemen (DEK-Kurzfassung, S. 19). Wichtig ist hier, dass nicht nur die Algorithmen als solche im Fokus stehen, sondern das ganze “sozio-technische System”, d.h. auch die beteiligten Menschen und die unterschiedlichen Phasen der Entwicklung, Implementierung und Evaluation algorithmischer Systeme.

Die DEK empfiehlt der Bundesregierung, die bestehenden  Aufsichtsinstitutionen zu stärken und ein neues Kompetenzzentrum für algorithmische Systeme auf Bundesebene zu schaffen. Aber auch die Ko- und Selbstregulierung wird empfohlen, wie DIN Normen und  Gütesiegel, sowie Kennzeichnungspflichten und ein bindender Codex für die Betreiber von algorithmischen Systemen. Sowohl bei der Ausarbeitung des bindenden Codex als auch in den Aufsichtsbehörden solle es Beiräte geben, in denen die Zivilgesellschaft vertreten ist.

Das Gutachten der DEK ist ein beeindruckender Beitrag zur Ethik der Digitalisierung. Die DEK unterstützt mit ihrem Gutachten den “europäischen Weg”, d.h. die europäische Strategie, Technologieentwicklung und Technologieeinsatz mit europäischen Werten und Grundrechten in Verbindung zu bringen. Was im Bericht meines Erachtens noch etwas zu kurz kommt, ist die kollektive Dimension: Datenrechte werden aus individueller Perspektive betrachtet. Es wird nicht klar, inwieweit die Gesellschaft an der Entwicklung digitaler Infrastrukturen und Tools mitwirken kann, welche Möglichkeiten also bspw. lokale Communities haben, ein smartes Quartier und eine smarte Stadt mitzugestalten. Über die Grenzen der Partizipation in eben diesen Smart Cities wurde hier im Blog schon an anderer Stelle geschrieben.

 

Augmented Reality – Folgen für den Sozialraum

Augmented Reality (AR) bedeutet im engen Sinn, dass die reale Welt um digitale Informationen ergänzt wird. Diese Informationen können unterschiedlich abgerufen werden: u.a. über das Smartphone, über AR-Brillen oder als Projektion auf  Windschutzscheiben und in den realen Raum. Grundsätzlich kann alles in der realen Welt um digitale Inhalte ergänzt bzw. erweitert werden: Gebäude, Infrastrukturen, Gegenstände, Natur, – aber auch Menschen und deren Interaktionen. Bei der Augmented Reality verschmelzen reale und virtuelle Welt miteinander, deshalb spricht man auch von einer “mixed reality”. Wichtig für AR ist der Standort des Nutzers,  denn abhängig von dessen Position im Raum verändern sich die angezeigten Informationen.

Wie wird sich die erweiterte Realität im physikalischen Raum auswirken? Wer darf öffentliche und private Räume mit digitalen Informationen anreichern? Welche Folgen wird AR für Räume im Quartier, die dortigen gemeinnützigen Einrichtungen und die Quartiersvernetzung haben?

Über die Ethik von AR macht sich E. Neely (2018) Gedanken. Sie versucht zu klären, wer reale Räume mit digitalen Informationen anreichern darf. Ihr zufolge hängt eine Antwort entscheidend davon ab, ob sich für die erweiterte Realität eine bzw. wenige Plattformen und Apps durchsetzen oder viele konkurrierende. Ist ersteres der Fall, dann sollte bei privaten Räumen der jeweilige Besitzer vorrangig das Recht haben, seinen Raum mit digitalen Informationen anzureichern. Wo für Augmented Reality viele konkurrierende Apps und Plattformen genutzt werden, werden auch private Räume mit vielen unterschiedlichen Erweiterungen ergänzt werden können, ohne dass dies der Besitzer eines Raumes verhindern kann. Im öffentlichen Bereich kann durch AR ein neuer Diskurs begründet werden: Bürger/innen kommen miteinander im realen Raum ins Gespräch, wobei man hier beachten muss, dass die öffentliche Rede via AR länger sichtbar bleibt als das gesprochene Wort. Auch müssen unter Umständen für bestimmte öffentliche Räume Regeln definiert werden, um AR auf dem Niveau von graffitiy oder Spam entfernen zu können.

Aufgrund der negativen Erfahrungen im Zusammenhang mit den sozialen Medien ist damit zu rechnen, dass auch die Augmentierung von Räumen unethisch genutzt werden wird, d.h. dass private und öffentliche Räume erweitert werden mit Inhalten, die beleidigend, rassistisch, gewalttätig  und pornographisch sind:  In der realen Umwelt werden virtuelle “Aushänge” mit negativen und polarisierenden Inhalten angebracht. Abschreckende Beispiele finden sich im Text der Autorin (Neely 2018).

Nonprofits im Quartier müssen damit rechnen, dass digitale Informationen, Kommentare und Bewertungen  ihrer Einrichtungen von Dritten mit dem realen Raum verbunden werden, so dass jeder Vorbeikommende, der über die entsprechende AR-Anwendung verfügt, diese Informationen sofort sieht. Grundsätzlich bietet AR so auch die Chance einer besseren Kontaktaufnahme zwischen einer Einrichtung und Bürgern: Wer an einer gemeinnützigen Einrichtung vorbei spaziert  und mit einem Smartphone ausgestattet ist, sieht z.B. an das Haus “gepinnte” virtuelle Kontaktdaten und Angebote für Freiwillige. Passanten können bei Interesse direkt mit der Organisation in den Austausch treten, Wände werden durchlässiger. Angebote im Quartier werden so viel besser und unmittelbarer bekannt.

Das derzeitige Problem vieler Quartiere, dass ihre Ressourcen nicht kartiert und allgemein bekannt sind bzw. die Ressourcen untereinander zu wenig verknüpft, könnte AR reduzieren. Die erweiterte Realität bietet die Chance, Einrichtungen und Bürger ganz niedrigschwellig und raumbezogen miteinander zu vernetzen.

Aber es existieren auch – wie oben erwähnt – erhebliche Gefahren, wenn sich der Hass und die Desinformation aus den sozialen Medien in realen Räumen lokalisiert. Hinzukommt die zunehmende Individualisierung durch AR: Wenn sich reale und virtuelle Welt zunehmend mischen und jeder – je nach benutzter Anwendung – unterschiedliche digitale Informationen  im Raum vorfindet, dann stimmt die Annahme, dass wir alle die selbe Realität teilen, nicht mehr (vgl. Wolf/Grodzinsky/Miller 2015). Diese Annahme war zwar schon in der Vergangenheit nicht ganz richtig angesichts unterschiedlicher sozialer Herkünfte und unterschiedlichem kulturellen und sozialen Kapital. Aber mit der erweiterten Realität werden die Erfahrungen im Raum nochmals stärker und radikaler individualisiert.

AR-Anwendungen und Plattformen werden eine ganz zentrale Rolle spielen, wenn es um den Blick auf die physikalische Welt geht, denn was wir vor Ort sehen, wird durch die Inhalte dieser Plattformen mitbestimmt werden und ist in deren Besitz. Dies wirft die ethische und politische Frage auf: “Wem gehört der Raum zwischen unseren Augen und einem Objekt?” (Wolf/Grodzinsky/Miller 2015). Die Zivilgesellschaft sollte diese Frage ganz dringend diskutieren.

Literatur:

  • Neely, E.L. (2018): Augmented reality, augmented ethics: who has the right to augment a particular space?, in: Ethics and Information Technology, https://doi.org/10.1007/s10676-018-9484-2
  • Wolf, M.J., Grodzinsky, F.S., Miller K.W. (2015): Augmented Reality All Around Us: Power and Perception at a Crossroads, ACM
    Computers and Society, Vol 45 issue 3,  S. 126-131