Kategorie-Archiv: Sozialeinrichtung

Ethische Bewertung von Technologien (Teil 2) – die MEESTAR-Methode

Im letzten Blogartikel habe ich den Aufsatz von Reijers u.a. (2018) vorgestellt. Die Autoren besprechen 35 Methoden, mit denen ein ethisches Assessment von Technologien durchgeführt werden kann. An den Methoden kritisieren die  Autoren, dass sie zu wenig partizipativ seien.

Unter den Verfassern des oben verlinkten Aufsatzes ist auch Karsten Weber, der 2019 auf der Jahrestagung der Gesellschaft für Informatik praxisorientierte „Methoden der  ethischen Evaluation von IT“ vorstellte. In seinem Papier im Tagungsband der INFORMATIK 2019, S. 431-444, stellt er u.a. die MEESTAR-Methode als ein „Modell zur ethischen Evaluation sozio-technischer Arrangements“ vor. Die Methode, an deren Entwicklung er mitwirkte, ermöglicht ein partizipatives und diskursethisches Evaluations-Verfahren. Stakeholder, die eine Technik entwickeln, einsetzen und nutzen treten mit ihren ganz unterschiedlichen Interessen und Perspektiven in einen inhaltlichen Austausch untereinander.  Die Vielfalt der Perspektiven ist gewollt. Sie ist eine Bereicherung, weil sie alle möglichen Probleme und Aspekte  eines Technikeinsatzes auf die Agenda bringt.

Ziel des Verfahrens ist eine Kompromissfindung unter den Stakeholdern. Die Ergebnisse aus dem Verfahren sollen dann in die Forschung und Entwicklung zurückfliessen, – im Idealfall nicht erst am Ende, sondern schon während der Technikentwicklung. MEESTAR kann und soll mehrmals während eines Technikprojektes eingesetzt werden („iterativ“), und kann übrigens auch in technikfernen Situationen, in denen moralische Konflikte vorliegen, sehr gute Dienste leisten.

MEESTAR wurde als Instrument der angewandten Ethik für konkrete Technikeinsätze in der Praxis entwickelt, nicht zur allgemeinen Reflexion moralischer Aspekte von Technologien. Entstanden ist die Evaluations-Methode im Rahmen eines Technikprojektes in der Pflege. Sie wird zwischenzeitlich öfters bei öffentlichen Forschungs- und Entwicklungsvorhaben eingesetzt.

MEESTAR funktioniert wie folgt:

Für die Bewertung der Technik braucht man moralische Dimensionen wie: Selbstbestimmung, Sicherheit, Gerechtigkeit, Privatheit usw.  Diese Dimensionen sind nicht fest vorgegeben. Man erhält sie durch

  1. eine Literaturrecherche in Bezug auf die konkrete Technologie und ihre möglichen Folgen
  2. Action Sheets: hier setzen sich die Beteiligten mit den Anwendungsszenarien der einzusetzenden Technik im Detail auseinander. Welche Gefahren und Probleme könnten auftreten? Alternativ kann auch ein Ethics Canvas genutzt werden. Dazu mehr im nächsten Blogartikel.

Betrachtet werden die moralischen Dimensionen aus drei Perspektiven: der individuellen, organisationalen und gesellschaftlichen. Je nach Perspektive werden manche moralische Dimensionen  ganz unterschiedlich bewertet. Weber führt das Beispiel der „Privatheit“ an: während Nutzer darunter z.B. eine Wohnung ohne Beobachtungstechnologie verstehen, können kommerzielle Dienstleister Privatheit mit Sensoren in Smart Homes in Einklang bringen, sofern deren Einsatz den Vorgaben der DSGVO entspricht. Hier muss man einen Kompromiss unter den Beteiligten finden.

Zur ethischen Risikoabschätzung dienen dann die folgenden vier Stufen (siehe Weber 2019, S. 434):

  • Stufe 1: Anwendung ist aus ethischer Sicht völlig unbedenklich
  • Stufe 2: Anwendung weist ethische Sensibilität auf
  • Stufe 3: Anwendung ist ethisch äußerst sensibel
  • Stufe 4: Anwendung ist aus ethischer Sicht abzulehnen

Wobei es auch hier um Kompromissfindung geht, denn bei einer Anwendung können Werte wie Selbstbestimmung und Privatheit berücksichtigt, aber Gerechtigkeit und Teilhabe verletzt sein. Man muss – um Stufe 1 zu erreichen – dann bei den beiden letzten Punkten nachbessern. Wenn das nicht möglich ist, dann wird auch eine Anwendung nicht klar in eine Stufe eingeordnet werden können, sondern in sich Wertekonflikte bzw. – kompromisse tragen, – so zumindest mein Eindruck.

Laut Weber ist ein partizipatives ethisches Evaluationsverfahren von Technik wichtig, nicht nur aus Gründen der Ethik selbst, sondern um eine hohe Gebrauchstauglichkeit bzw. usability von Technologien zu erzielen. Ihm zufolge ist aber die Bereitschaft, möglichst viele und vielfältige Stakeholder in ethische Bewertungsprozesse einzubeziehen in der Praxis „oftmals nicht gegeben“ (Weber 2019, 442).

Sozialorganisationen, die zunehmend in ihrem Alltag mit Technik konfrontiert sind und diese im Umgang mit ihren Klienten anwenden, sollten unbedingt ein ethisches Assessment von Technologien vornehmen, um die richtige Auswahl an Tools treffen zu können. Gerade wo Anwendungen in Auftrag gegeben oder eingekauft werden, hat man die Wahl oder muss sich eine Wahlsituation schaffen. Ethische Aspekte sollten in Ausschreibungen ihren Platz finden. Einrichtungen und ihre Verbände brauchen ethische Leitlinien für den Umgang mit Technik, Daten und Algorithmen.

Wer noch weitere Informationen zu MEESTAR sucht, wird bei der Fachstelle für Ethik und Anthropologie im Gesundheitswesen fündig.

Share

Digitale Ethik – welche Antworten gibt die Sozialarbeit?

Die Digitalisierung verändert unsere materielle, biologische und soziokulturelle Welt. Die neuen Technologien haben erhebliche ethische und soziale Folgen. Werte, die in der UN-Menschenrechtserklärung, in der EU-Grundrechtecharta , dem EU-Grundlagenvertrag und diversen nationalen Verfassungen niedergelegt sind, werden durch die Veränderungen im Zuge der Digitalisierung berührt. Royakkers u.a. (2018), aber auch die EDPS Ethics Advisory Group (2018) stellen eine Sammlung tangierter Werte zusammen: Würde, Autonomie, Sicherheit, Privatheit, Demokratie, Machtbalance, Gleichheit, Gerechtigkeit, Solidarität.

Drei Beispiele für ethische Herausforderungen durch die Digitalisierung:
Würde: Inwieweit verliert der einzelne seinen Status als ganzheitliche „Person“, wenn er/sie durch algorithmisches Profiling und automatisierte Entscheidungen als „Datenaggregat“ oder bloßer „Datenpunkt“ behandelt wird?
Autonomie: Wie sehr wird man durch persuasive Technologien manipuliert, die das menschliche Verhalten steuern?
Gleichheit: Inwieweit diskriminieren automatisierte Entscheidungen den einzelnen?

Auch in der internationalen Sozialarbeit sind automatisierte Informations- und Entscheidungssysteme auf dem Vormarsch.  Die gemeinnützige Organisation Algorithm Watch hat im Januar 2019 einen Bericht über den Stand des „automated decision-making“ (ADM) in zwölf europäischen Ländern veröffentlicht und im April 2019 einen Atlas über das ADM in Deutschland.  In immer mehr Feldern kommen ADM-Systeme zum Einsatz, – auch im Wohlfahrtsbereich, wo Quartiere nach Risiko-Indikatoren „bepunktet“ werden wie in Dänemark oder Daten aggregiert werden, um Risikofaktoren in der Kinder- und Jugendarbeit herauszufinden (Finnland).

An der Entwicklung und Einführung elektronischer Informationssysteme zur Falldokumentation ist die hiesige Sozialarbeit nur mangelhaft beteiligt. Zu wenig fordert sie ihre Teilhabe in diesem Feld ein und zu wenig wird die Digitalisierung auf Professions- und Einrichtungsebene systematisch reflektiert. Die Auseinandersetzung mit IuK-Technologien ist nicht im „Kerncurriculum Soziale Arbeit“ der Deutschen Gesellschaft für Sozialarbeit verankert, ebenso fehlen der sozialen Profession Standards, wie im Alltag mit den neuen Technologien umzugehen ist, – in einem anderen Blogartikel habe ich mich mit diesem Thema befasst bzw. mit den amerikanischen „Standards for Technology in Social Work Practice“.

Beide Säulen (IuK in Kerncurriculum, Technologiestandards in der sozialarbeiterischen Praxis) bräuchte die Profession dringend. Und ebenso notwendig sind ethische Leitlinien auf Professions- aber auch auf Einrichtungsebene, um eine Richtschnur mit Werten und richtigem Handeln für den Umgang mit den neuen technologischen Herausforderungen zu haben.

Solche Leitlinien müssten vor Ort partizipativ erarbeitet werden: da Sozialleistungen durch Koproduktion entstehen, müssen auch ethische Leitlinien im Rahmen eines Co-Design-Prozesses formuliert werden, d.h. gemeinsam mit Klienten, Angehörigen, Unterstützern, Ehrenamtlichen usw. So würde das Thema „digitale Ethik“ auch stärker in die lokale Zivilgesellschaft getragen werden, wo es momentan noch nicht verankert ist, mit äußerst negativen Folgen im Hinblick auf die Machtbalance zwischen Staat und Firmen als wichtige (big data)-Player auf der einen und der Zivilgesellschaft auf der anderen Seite . Neue Bündnisse könnten entstehen und die Sozialarbeit würde ihrem Selbstanspruch als „Menschenrechtsprofession“ gerecht.

Momentan ist da, wo eine kritische professionelle Diskussion über die Chancen, Gefahren und ethischen Herausforderungen der Digitalisierung sein sollte, aber noch eine große Leerstelle, bei der nicht klar ist, ob und wann die Profession sie füllen wird. Auch in den Einrichtungen selbst ist es mit dieser Diskussion nicht weit her.  „Digitalwerkstätten“ auf lokaler Ebene mit allen Stakeholdern einer Einrichtung könnten hier Abhilfe schaffen.

Share

Folgen der Digitalisierung für die Koproduktion im Sozialsektor

Veiko Lember analysiert in seinem aktuellen Aufsatz: „The Increasing Role of Digital Technologies in Co-production“(2018), wie die Digitalisierung die Zusammenarbeit von Bürgern und Institutionen verändert. Er konzentriert sich dabei auf den Bereich der öffentlichen Dienstleistungen.

In diesem Blogbeitrag sollen seine Erkenntnisse auf die Sozialwirtschaft übertragen werden, wo Koproduktion eine ganz zentrale Rolle spielt: Ohne die aktive Beteiligung von Klienten bzw. Nutzern sozialer Dienste können letztere nicht wirklich erfolgreich erbracht werden. Über die Koproduktion im Sozialbereich sind hier im Blog schon einige Artikel veröffentlicht worden, – wer sich näher informieren möchte recherchiert einfach unter dem Schlagwort „Koproduktion“.

Veiko Lember geht in seinem Aufsatz davon aus, dass durch die zunehmende Digitalisierung unserer Lebenswelt die etablierten Koproduktionsverfahren im Bereich öffentlicher Dienstleistungen a) ergänzt b) ersetzt oder c) verändert werden. Im Sozialbereich ist also mit folgendem zu rechnen:

  1. Ergänzung der Koproduktion:
    Die Digitalisierung hilft sozialen Organisationen dabei, sich mit ihren Nutzern besser zu koordinieren und mehr Informationen bereit zu stellen (Lember 2018, 4). Über Apps wird Hilfe und Beratung geleistet, Bildtelefonie, Videos, Chaträume, Online-Lernprogramme und Online-Coaching helfen Nutzern dabei, ihre Probleme gemeinsam mit der sozialen Profession zu lösen. Nutzer/innen bringen in diese Prozesse ihr eigenes Wissen und auch ihre Daten ein (Gesundheitsdaten, Fitnessdaten, Klienten-Aufzeichnungen usw.). Die Nutzerdaten ergänzen hier die Koproduktion und ersetzen sie nicht wie im Fall einer Automatisierung, die im folgenden Punkt behandelt wird.
  2. Ersetzung der Koproduktion:
    Wenn Klientendaten automatisiert erhoben und ausgewertet werden, wenn dadurch automatisch Dienstleistungsprozesse starten und das Verhalten oder die gesundheitliche Situation von Klienten nicht nur für den Moment analysiert, sondern auch vorausgesagt werden, dann wird die handlungsorientierte und gemeinschaftliche Koproduktion ersetzt durch Technologien (Lember 2018, 6). Dies ist heute schon der Fall im Bereich der Psychiatrie, wo Klienten mit Sensoren und Kameras überwacht werden und auch in der Pflege, wo Sensoren, Smart-Home-Technik, Telemonitoring und Telecare Klienten überwachen und Hilfseinsätze automatisiert ausgelöst werden. Algorithmen helfen bei der Auswertung von Klientendaten und ermöglichen das Vorhersehen von Krisensituationen. In diesem Setting spielt der Nutzer eine komplett passive Rolle .Die Koproduktion kann jedoch auch ersetzt werden durch eine aktive Rolle des Nutzers (Lember 2018, 7). Immer mehr Bürgerinnen und Bürger verabschieden sich von öffentlichen oder gemeinnützigen Dienstleistern und entscheiden sich für die Selbstorganisation. Gemeinsam mit anderen gründen sie Pflege-WGs, Kindertagesstätten, gemeinschaftliches Wohnen für Menschen mit Behinderungen, Hilfsdienste und Nachbarschaftsinitiativen. Die digitalen Technologien und Plattformen helfen Bürgern bei der Selbstorganisation und ersetzen so die traditionellen Koproduktionsprozesse.
  3. Veränderung der Koproduktion:
    Laut Lember (2018, 4) entstehen durch die digitalen Technologien ganz neue Settings in der Zusammenarbeit zwischen Bürgern und Organisationen. Dazu zählen u.a.  das crowdsourcing (Bürgerwissen oder Spenden werden für soziale Organisationen über digitale Plattformen gesammelt), Hackathons (Bürger entwickeln für die Sozialwirtschaft neue digitale Tools) und gamification (über Online-Spiele und Wettbewerbe mit Rankings wird das Nutzerverhalten beeinflusst).

Lember kritisiert, dass die im Koproduktionsprozess eingesetzten Technologien zumeist nicht von Bürgern, sondern den Organisationen ausgewählt werden – auch im Sozialbereich. Es sind damit die Organisationen, die bestimmen, was? wie? erhoben und angeboten wird. Die eingesetzten Technologien sind zumeist im Besitz von privaten Unternehmen. Hier sammeln sich Macht und Intransparenz.

Viele der digitalen Angebote gehen am Bedarf der Nutzer/innen vorbei, weil diese kein Mitspracherecht haben und auch soziale Organisationen können ihr Wissen gegenüber den Experten aus Wirtschaft, Wissenschaft und Technik, die viele der digitalen Angebote entwickeln, zumeist nicht durchsetzen. Dies zeigt sich deutlich in der Pflege, siehe die Studie ePflege aus dem Jahr 2017. Auch die Exklusion von Nutzern spricht Veiko Lember an (2018, 9), – Menschen, die Schwierigkeiten im Umgang mit digitalen Technologien haben und an der digitalen Koproduktion deshalb nicht mitwirken können.

Soll die Koproduktion mit Hilfe digitaler Technologien auf Akzeptanz stoßen, müssen die Nutzer/innen Mitsprachemöglichkeiten haben, wenn es um die Auswahl und Ausgestaltung der Technologien geht. Dass im Alltag sehr häufig top down-Technologien eingesetzt werden, zeigt auch der letzte Blogbeitrag über Cardullo/Kitchins Studie zum Thema Partizipation in der Smart City (2017).

Digitale Teilhabe muss auch in der Sozialwirtschaft ein wichtiges Thema werden. Bastian Pelka schildert in seinem Aufsatz für den Sammelband von Kreidenweis (2018): „Digitaler Wandel in der Sozialwirtschaft“ einige Partizipationsprojekte (PIKSL, MakerSpaces, FabLabs). Aber die digitale Teilhabe muss auch im Verhältnis Sozialorganisation und Nutzer/innen etabliert werden, nicht nur im Hinblick auf die Stellung des einzelnen in der digitalen Gesellschaft.

Literatur:
Lember, Veiko (2018): The role of new technologies in co-production, in: Brandsen, T./Steen, T. /Verschuere, B. (Hrsg): Co-production and co-creation: engaging citizens in public service delivery. Routledge, im Erscheinen.

Pelka, Bastian (2018): Digitale Teilhabe: Aufgaben der Verbände und Einrichtungen der Wohlfahrtspflege, in: Kreidenweis, Helmut (Hrsg): Digitaler Wandel in der Sozialwirtschaft, Baden-Baden: Nomos

Share