Schlagwort-Archiv: Technologie

Ethische Bewertung von Technologien (Teil 3) – der Ethics Canvas

Im letzten Blogartikel habe ich die MEESTAR-Methode  zur ethischen Evaluation von Technologien von Karsten Weber (2019) vorgestellt. In dem Aufsatz von Weber (S. 431-444) wird auch der Ethics Canvas von Reijers/Lewis u.a. des ADAPT Centre/Dublin als Tool erwähnt. Der Ethics Canvas basiert auf dem bekannten Business Model Canvas.

Der Ethics Canvas ermöglicht ein partizipatives und diskursives Brainstorming der ethischen Folgen von Technologien, die im Rahmen von Forschung und Innovation entstehen. Das nicht-kommerzielle Tool eignet sich speziell für Lehrende, Forschende, Unternehmen und politische Entscheidungsträger, – die Zivilgesellschaft wird hier nicht explizit aufgelistet. Man kann den Ethics Canvas ausdrucken und gemeinschaftlich ausfüllen oder online bearbeiten, speichern und teilen. Dafür haben die Entwickler des Canvas eine Webseite samt Handbuch erstellt.

Die zentralen Fragen , die der Ethics Canvas stellt, lauten:

  • Welche Personen und Gruppen sind von der Technologie bzw. dem Produkt oder Service betroffen?
  • Von welchen möglichen ethischen Folgen sind diese Personen und Gruppen betroffen?
  • Wie kann man diese ethischen Probleme lösen?

Berücksichtigt wird auch der problematische Ressourcenbedarf eines Produkts oder Dienstes (Energie, Daten usw.), als auch mögliche Produktfehler und -schwächen.

CC BY-SA 3.0 ADAPT Centre/Trinity College Dublin/DCU 2017

 

 

 

 

 

 

 

 

 

 

Die Autoren des Ethics Canvas gehen davon aus, dass man ihn in rund 1,5 Stunden gemeinschaftlich ausfüllen kann. Der inhaltliche Aufbau des Canvas beruht auf wissenschaftlichen Ansätzen aus der Technikforschung und Philosophie. Wichtig ist den Autoren, dass Technik nicht deterministisch gedacht wird, sondern Menschen mit der Technik interagieren und sich diese aneignen. Deshalb wird im Ethics Canvas so viel Wert auf Verhalten und Beziehungen gelegt.

Im Unterschied zu MEESTAR ist der Ethics Canvas ein allgemeineres Brainstorming- und Analyse-Tool, das sich nicht mit der konkreten Risikoabschätzung von Technologien befasst. Wie MEESTAR beruht der Ethics Canvas auf dem gemeinsamen Austausch der Stakeholder. Unterschiedliche Perspektiven und Interessen werden sichtbar. Aber auch hier gibt es  – wie bei MEESTAR – keine Lösung für Wert- und Interessenkonflikte, – außer Kompromisse, die in der Diskussion gefunden werden müssen und bei denen sich Machtverhältnisse negativ auswirken können.

Was ich beim Ethics Canvas vermisse, ist die Raumkategorie bzw. die Frage, wie sich eine Technologie auf die Raumbildung  und -gestaltung auswirkt, – ein ganz wichtiges Thema im Hinblick auf Sozialräume bzw. die Smart City-Diskussion.

Was MEESTAR und Ethics Canvas beide nicht bieten, sind Alternativen zu den behandelten Technologien. Man hat nur die Möglichkeit, sich mit einem bestimmten technischen Produkt zu befassen und keine Chance,  über die Sinnhaftigkeit des gesamten Projekts und dessen Annahmen und Ziele zu sprechen. Dieses Denken in Alternativen wird dagegen von Szenario-Methoden gefördert. Hier können Teilnehmer*innen die Frage diskutieren, welche Zukunft und welche Technologien sie sich aus normativer Perspektive wünschen. Mehr zu Szenario-Methoden im nächsten Blog-Artikel.

Share

Ethische Bewertung von Technologien (Teil 2) – die MEESTAR-Methode

Im letzten Blogartikel habe ich den Aufsatz von Reijers u.a. (2018) vorgestellt. Die Autoren besprechen 35 Methoden, mit denen ein ethisches Assessment von Technologien durchgeführt werden kann. An den Methoden kritisieren die  Autoren, dass sie zu wenig partizipativ seien.

Unter den Verfassern des oben verlinkten Aufsatzes ist auch Karsten Weber, der 2019 auf der Jahrestagung der Gesellschaft für Informatik praxisorientierte „Methoden der  ethischen Evaluation von IT“ vorstellte. In seinem Papier im Tagungsband der INFORMATIK 2019, S. 431-444, stellt er u.a. die MEESTAR-Methode als ein „Modell zur ethischen Evaluation sozio-technischer Arrangements“ vor. Die Methode, an deren Entwicklung er mitwirkte, ermöglicht ein partizipatives und diskursethisches Evaluations-Verfahren. Stakeholder, die eine Technik entwickeln, einsetzen und nutzen treten mit ihren ganz unterschiedlichen Interessen und Perspektiven in einen inhaltlichen Austausch untereinander.  Die Vielfalt der Perspektiven ist gewollt. Sie ist eine Bereicherung, weil sie alle möglichen Probleme und Aspekte  eines Technikeinsatzes auf die Agenda bringt.

Ziel des Verfahrens ist eine Kompromissfindung unter den Stakeholdern. Die Ergebnisse aus dem Verfahren sollen dann in die Forschung und Entwicklung zurückfliessen, – im Idealfall nicht erst am Ende, sondern schon während der Technikentwicklung. MEESTAR kann und soll mehrmals während eines Technikprojektes eingesetzt werden („iterativ“), und kann übrigens auch in technikfernen Situationen, in denen moralische Konflikte vorliegen, sehr gute Dienste leisten.

MEESTAR wurde als Instrument der angewandten Ethik für konkrete Technikeinsätze in der Praxis entwickelt, nicht zur allgemeinen Reflexion moralischer Aspekte von Technologien. Entstanden ist die Evaluations-Methode im Rahmen eines Technikprojektes in der Pflege. Sie wird zwischenzeitlich öfters bei öffentlichen Forschungs- und Entwicklungsvorhaben eingesetzt.

MEESTAR funktioniert wie folgt:

Für die Bewertung der Technik braucht man moralische Dimensionen wie: Selbstbestimmung, Sicherheit, Gerechtigkeit, Privatheit usw.  Diese Dimensionen sind nicht fest vorgegeben. Man erhält sie durch

  1. eine Literaturrecherche in Bezug auf die konkrete Technologie und ihre möglichen Folgen
  2. Action Sheets: hier setzen sich die Beteiligten mit den Anwendungsszenarien der einzusetzenden Technik im Detail auseinander. Welche Gefahren und Probleme könnten auftreten? Alternativ kann auch ein Ethics Canvas genutzt werden. Dazu mehr im nächsten Blogartikel.

Betrachtet werden die moralischen Dimensionen aus drei Perspektiven: der individuellen, organisationalen und gesellschaftlichen. Je nach Perspektive werden manche moralische Dimensionen  ganz unterschiedlich bewertet. Weber führt das Beispiel der „Privatheit“ an: während Nutzer darunter z.B. eine Wohnung ohne Beobachtungstechnologie verstehen, können kommerzielle Dienstleister Privatheit mit Sensoren in Smart Homes in Einklang bringen, sofern deren Einsatz den Vorgaben der DSGVO entspricht. Hier muss man einen Kompromiss unter den Beteiligten finden.

Zur ethischen Risikoabschätzung dienen dann die folgenden vier Stufen (siehe Weber 2019, S. 434):

  • Stufe 1: Anwendung ist aus ethischer Sicht völlig unbedenklich
  • Stufe 2: Anwendung weist ethische Sensibilität auf
  • Stufe 3: Anwendung ist ethisch äußerst sensibel
  • Stufe 4: Anwendung ist aus ethischer Sicht abzulehnen

Wobei es auch hier um Kompromissfindung geht, denn bei einer Anwendung können Werte wie Selbstbestimmung und Privatheit berücksichtigt, aber Gerechtigkeit und Teilhabe verletzt sein. Man muss – um Stufe 1 zu erreichen – dann bei den beiden letzten Punkten nachbessern. Wenn das nicht möglich ist, dann wird auch eine Anwendung nicht klar in eine Stufe eingeordnet werden können, sondern in sich Wertekonflikte bzw. – kompromisse tragen, – so zumindest mein Eindruck.

Laut Weber ist ein partizipatives ethisches Evaluationsverfahren von Technik wichtig, nicht nur aus Gründen der Ethik selbst, sondern um eine hohe Gebrauchstauglichkeit bzw. usability von Technologien zu erzielen. Ihm zufolge ist aber die Bereitschaft, möglichst viele und vielfältige Stakeholder in ethische Bewertungsprozesse einzubeziehen in der Praxis „oftmals nicht gegeben“ (Weber 2019, 442).

Sozialorganisationen, die zunehmend in ihrem Alltag mit Technik konfrontiert sind und diese im Umgang mit ihren Klienten anwenden, sollten unbedingt ein ethisches Assessment von Technologien vornehmen, um die richtige Auswahl an Tools treffen zu können. Gerade wo Anwendungen in Auftrag gegeben oder eingekauft werden, hat man die Wahl oder muss sich eine Wahlsituation schaffen. Ethische Aspekte sollten in Ausschreibungen ihren Platz finden. Einrichtungen und ihre Verbände brauchen ethische Leitlinien für den Umgang mit Technik, Daten und Algorithmen.

Wer noch weitere Informationen zu MEESTAR sucht, wird bei der Fachstelle für Ethik und Anthropologie im Gesundheitswesen fündig.

Share

Ethische Bewertung von Technologien – welche Methoden gibt es? (Teil I)

Welche Methoden gibt es, um in der Alltagspraxis Technologien aus ethischer Perspektive zu bewerten?

Im letzten Beitrag wurden ethische Grundprinzipien aufgelistet, die im Umgang mit Daten und Algorithmen von Bedeutung sind: die Würde des Menschen, Selbstbestimmung, Privatheit, Sicherheit, Demokratie, Gerechtigkeit und Solidarität, Nachhaltigkeit. Aber wie kann man in der Praxis das ethische Assessment von Technologien durchführen? Wie können Nonprofits ihre IKT-Auswahl, -Nutzung, – Evaluation in ethischer Hinsicht reflektieren oder sich im Hinblick auf Zukunftstechnologien positionieren, am besten gemeinsam mit ihren Stakeholdern?

Wessel Reijers hat dazu gemeinsam mit sechs Kolleg*innen 2018 einen Beitrag in Science and Engineering Ethics  veröffentlicht, der auf der Auswertung von 136 wissenschaftlichen Aufsätzen basiert. Diese stammen aus einem breiten Spektrum, von Medizin über IKT, Nanotechnologie, Agrarwissenschaft, bis hin zu Texten, die sich ganz allgemein mit  Technologien und ihren Folgen befassen. Die Autoren haben in diesen 136 Aufsätzen 35 Methoden gefunden, mit deren Hilfe man ein ethisches Assessment von Technologien durchführen kann. Die Methoden ordnen sie drei Kategorien zu (S. 1448):

  • Ex ante (8 Methoden): diese Methoden befassen sich mit Technologien und Anwendungen, die gerade neu aufkommen bzw. sich am Horizont abzeichnen
  • Intra (14 Methoden): diese Methoden konzentrieren sich auf Technologien und Anwendungen, die im Moment konkret entwickelt werden
  • Ex post (13): diese Methoden befassen sich mit Technologien und Anwendungen, die schon vorliegen und in Organisationen bzw. im Alltag genutzt werden

Bei den Ex ante-Methoden sind Szenario- und Foresight-Ansätze stark vertreten. Sie visualisieren Zukünfte oder verdeutlichen diese durch Geschichten. Diese Methoden richten sich in erster Linie an Experten wie Ethiker. Die Einbeziehung unterschiedlicher Stakeholder ist hier eher selten. Kritisiert wird an Ex ante-Methoden, dass eine Schau in die Zukunft spekulativ ist und Zukunftsanalysen durch unvorhergesehene Ereignisse konterkariert werden.

Bei den Intra-Methoden, die die Technologieentwicklung begleiten, setzt man z.B. auf „value sensitive design“ und „human driven design“. Auch diese Methoden wenden sich eher an Experten (Ethiker, Forscher, Designer). Ihre Schwachstelle liegt laut Reijers u.a. darin, dass sie in den Arbeitsalltag von Forschern nur schwer zu integrieren sind und der Zusammenhang zwischen Werten und Design in theoretischer Hinsicht nicht klar ausgearbeitet ist.

Ex post-Methoden, die sich mit vorhandenen Technologien befassen, arbeiten oft mit Checklisten oder einer ethischen Matrix, um die ethischen Fragen zu identifizieren, die von den Technologien aufgeworfen werden.  Auch diese Methoden wenden sich eher an Experten, zum Teil aber auch an größere Stakeholder-Kreise. Speziell bei einer „ethischen Matrix“ wird nach den ethischen Auswirkungen einer Technologie auf unterschiedliche Gruppen gefragt. Kritisiert wird von Reijers und Kolleg*innen an Ex post-Methoden, dass Konflikte zwischen Normen (z.B. Sicherheit versus Autonomie) im Rahmen dieser Methoden nicht gelöst werden können, weil sie keine Wertehierarchie zur Verfügung stellen. Und auch die Wertkonflikte zwischen Stakeholdern finden keine Auflösung.

An allen Methoden kritisiert die Forschergruppe, dass sie zu wenig partizipativ seien. Die Methoden könnten die Fragen: „Wie kann man Partizipation organisieren? Wer sind die Stakeholder?“ nicht beantworten, weil sie zumeist top down konzipiert sind. Deshalb plädieren die Autor*innen dafür,  auch beim ethischen Technologie-Assessment stärker auf Co-Design und „power sharing“ zu setzen (S. 1459).

Als Fazit kann man festhalten, dass es im Moment noch nicht die optimale Methode gibt, um die ethische Wirkung von Technologien zu klären, seien die Technologien „Zukunftsmusik“, in der Entwicklung oder schon in der Anwendung. Dennoch wäre es wichtig, dass sich die soziale Profession, die Wohlfahrtsverbände und ihre Einrichtungen und die ganze Zivilgesellschaft, mit ethischen Fragen bezüglich neuer Technologien auseinandersetzten (siehe dazu meinen Vorschlag der Digitalwerkstätten).

Im nächsten Beitrag stelle ich diskursethische Methoden für die Evaluation von Technologien vor, die in der hiesigen Forschungspraxis erfolgreich erprobt wurden und vielleicht eine Alternative für Nonprofits darstellen.

Share