Alle Artikel von Brigitte Reiser

Datennutzung und Algorithmen human und werteorientiert gestalten

Die Datenethikkommission der Bundesregierung hat Ende Oktober 2019 ihren Abschlussbericht vorgelegt, der in einer Lang- und Kurzfassung zum freien Download zur Verfügung steht. Die Ergebnisse sind auch für Nonprofits von Bedeutung, da sie

  • als Sozialunternehmen selbst Daten generieren, verarbeiten und nutzen, u.a. von pflege- und schutzbedürftigen Menschen und Mitarbeiter*innen
  • unter Umständen selbst an automatisierten Assistenzsystemen beteiligen sind, die Algorithmen einsetzen, oder als Kooperationspartner der Leistungsverwaltung mit den Auswirkungen von Algorithmen bzw. automatisierten Entscheidungen befasst sind
  • als gesellschaftliche Akteure auf die humane Ausgestaltung der Digitalisierung Einfluss nehmen wollen
  • als lokale Akteure mit der Digitalisierung von Sozialräumen und Infrastrukturen konfrontiert sind.

Die Datenethikkommission (DEK) legt ihrem Gutachten die folgenden Leitgedanken zugrunde:

  • menschenzentrierte und werteorientierte Gestaltung von Technologie
  • Förderung digitaler Kompetenzen und kritischer Reflexion in der digitalen Welt
  • Stärkung des Schutzes von persönlicher Freiheit, Selbstbestimmung und Integrität
  • Förderung verantwortungsvoller und gemeinwohlverträglicher Datennutzungen
  • Risikoadaptierte Regulierung und wirksame Kontrolle algorithmischer Systeme
  • Wahrung und Förderung von Demokratie und gesellschaftlichem Zusammenhalt
  • Ausrichtung digitaler Strategien an Zielen der Nachhaltigkeit
  • Stärkung der digitalen Souveränität Deutschlands und Europas

(DEK Kurzfassung, S. 5). Handlungsmaßstäbe für die Ausgestaltung digitaler Technologien sollen Werte und Rechte sein, die in unserer Verfassung und der europäischen Charta der Grundrechte festgelegt sind: die Würde des Menschen, Selbstbestimmung, Privatheit, Sicherheit, Demokratie, Gerechtigkeit und Solidarität sowie Nachhaltigkeit.

Weil viele unterschiedliche Akteure an der Datengenerierung beteiligt sind, soll es kein Eigentumsrecht an Daten, sondern Mitsprache- und Teilhaberechte geben. Um die Datenrechte des einzelnen zu klären, sind Umfang und Art seines Beitrags an der Datengenerierung zu untersuchen, sein Individualinteresse zu gewichten und mit konfligierenden Interessen abzuwägen, die Interessen der Allgemeinheit zu beachten und die Machtverteilung zwischen den Akteuren in den Blick zu nehmen (Kurzfassung, S. 9).

Die DEK empfiehlt u.a. Maßnahmen gegen eine ethisch nicht-vertretbare Datennutzung, Leitlinien für den Umgang mit den Daten pflege- und schutzbedürftiger Menschen, datenschutzfreundliche Produkte und Designs, sowie eine Förderung des Beschäftigtendatenschutzes. Personalisierte Tarife bei Versicherungen soll es nur in engen Grenzen geben.

Algorithmen können menschliche Entscheidungen unterstützen. Sie können aber auch menschliche Entscheidungen so prägen, dass die Selbstbestimmung von Menschen eingeschränkt wird. Und schließlich können sie Entscheidung ganz übernehmen, so dass Menschen im Entscheidungsprozess  keine Rolle mehr spielen (= automated decision making, ADM)

Bei algorithmischen Systemen empfiehlt die Kommission eine fünfstufige Bewertungsskala, die das Schädigungspotenzial dieser Systeme und Regulierungsmöglichkeiten auflistet: in einer niedrigen Gefährdungsstufe sollen z.B. eine Risikofolgenabschätzung des algorithmischen Systems durchgeführt und Transparenzpflichten, Kontrollen und Auditverfahren etabliert werden. In einer höheren Gefährdungsstufe empfiehlt die Kommission ex-ante-Zulassungsverfahren für Algorithmen, Live-Schnittstellen für Aufsichtsinstitutionen oder sogar vollständige und teilweise Verbote von algorithmischen Systemen (DEK-Kurzfassung, S. 19). Wichtig ist hier, dass nicht nur die Algorithmen als solche im Fokus stehen, sondern das ganze “sozio-technische System”, d.h. auch die beteiligten Menschen und die unterschiedlichen Phasen der Entwicklung, Implementierung und Evaluation algorithmischer Systeme.

Die DEK empfiehlt der Bundesregierung, die bestehenden  Aufsichtsinstitutionen zu stärken und ein neues Kompetenzzentrum für algorithmische Systeme auf Bundesebene zu schaffen. Aber auch die Ko- und Selbstregulierung wird empfohlen, wie DIN Normen und  Gütesiegel, sowie Kennzeichnungspflichten und ein bindender Codex für die Betreiber von algorithmischen Systemen. Sowohl bei der Ausarbeitung des bindenden Codex als auch in den Aufsichtsbehörden solle es Beiräte geben, in denen die Zivilgesellschaft vertreten ist.

Das Gutachten der DEK ist ein beeindruckender Beitrag zur Ethik der Digitalisierung. Die DEK unterstützt mit ihrem Gutachten den “europäischen Weg”, d.h. die europäische Strategie, Technologieentwicklung und Technologieeinsatz mit europäischen Werten und Grundrechten in Verbindung zu bringen. Was im Bericht meines Erachtens noch etwas zu kurz kommt, ist die kollektive Dimension: Datenrechte werden aus individueller Perspektive betrachtet. Es wird nicht klar, inwieweit die Gesellschaft an der Entwicklung digitaler Infrastrukturen und Tools mitwirken kann, welche Möglichkeiten also bspw. lokale Communities haben, ein smartes Quartier und eine smarte Stadt mitzugestalten. Über die Grenzen der Partizipation in eben diesen Smart Cities wurde hier im Blog schon an anderer Stelle geschrieben.

 

Smart Homes und AAL – ethische Herausforderungen

Smart Home-Technologien sind auf dem Vormarsch. Auf der Basis vernetzter Geräte und automatisierter Abläufe sollen Energieeffizienz und Lebensqualität von Räumen und Quartieren gesteigert werden. Speziell im Hinblick auf alte Menschen, Menschen mit Demenz und Menschen mit Behinderung versprechen altersgerechte Assistenzsysteme und Smart Services ein selbstbestimmtes Leben in den eigenen vier Wänden.

Bei den AAL (Altersgerechten Assistenzsystemen) und Smart Services kommunizieren Geräte nicht nur untereinander, sondern auch mit den Bewohner*innen selbst und mit deren sozialem Umfeld (Angehörige, Pflegedienste). Sensoren an Gegenständen, an der Kleidung sowie Videokameras und Mikrophone ermöglichen eine Überwachung in Echtzeit und generieren fortlaufend Daten über die Bewegungsabläufe und den Gesundheitszustand der Bewohner*innen. Die intelligenten Geräte erinnern an die Einnahme von Medikamenten und an Verabredungen („nudging“). Sie ermöglichen den Kontakt zwischen dem Bewohner, seinem sozialen Umfeld und seinen pflegerischen und medizinischen Dienstleistern.

Smart Home-Technologien werfen ethische Fragen auf: einerseits unterstützen sie das selbstständige Wohnen, andererseits bedrohen sie die Privatsphäre des einzelnen angesichts des allgegenwärtigen Sensoring und Monitorings. Brolcháin/Gordijn setzen sich in ihrem Aufsatz „Privacy challenges in smart homes for people with dementia and people with intellectual disabilities“ (2019) mit den ethischen Herausforderungen von Smart Homes mit Blick auf die Privatheit auseinander. Die Fragen, die sie aufwerfen, berühren nicht nur die Zielgruppe „Menschen mit Demenz/mit Lernbehinderung“, sondern sind für alle Stakeholder des Smart Home-Themas relevant, d.h. für Bürger*innen, Technologieentwickler*innen, Smart Home-Anbieter, Stadtplaner*innen, soziale Dienste usw.

Brolcháin/Gordijn beleuchten fünf Dimensionen von Privatheit:

  • Informational privacy: in Smart Homes werden Daten gesammelt und gespeichert.
    Wer hat Zugriff auf die Daten, wie sicher sind sie gespeichert? Wie steht es um die Informationskontrolle seitens der Bewohner*innen? Auch bei einer Anonymisierung der Daten besteht die Gefahr einer Re-Identifizierung. Werden die vorhandenen Daten für das „Nudging“ eingesetzt, also das Verhalten des Bewohners manipuliert?
  • Physical privacy: inwieweit werden die häusliche und körperliche Intimität durch Sensoren, Kameras und Audioaufzeichnungen gefährdet?
  • Associational privacy: wer erhält über Kameras Einblick in den Haushalt eines Bewohners und ist über Monitore präsent in dessen vier Wänden?
  • Proprietary privacy: nicht nur die körperliche Privatsphäre, auch die seelische und geistige wird durch Gesichts- und Emotionserkennungs-Software bedroht
  • Decisional privacy: einerseits soll das Smart Home Bewohner*innen bei den Aufgaben des Alltags unterstützen. Andererseits gehen bei automatisierter Unterstützung Kompetenzen verloren und können aufgrund des Nudgings und des Monitorings Entscheidungen nicht mehr autonom gefällt werden.

Um die Privatheit in Smart Homes zu wahren, schlagen Brolcháin/Gordijn folgendes vor:

Eine informierte Einwilligung („informed consent“) der Bewohner*innen von Smart Homes in die Datenerhebung, – verarbeitung und -speicherung muss eingeholt werden, – ist aber nicht ausreichend,

  • denn nicht nur der Bewohner, sondern auch seine Gäste werden vom Sensoring und Monitoring berührt
  • eine Einwilligungserklärung kann nicht die Bandbreite der Privatheitswünsche für ganz unterschiedliche Situationen abdecken.

Brolcháin/Gordijn plädieren deshalb für folgendes (S. 261):

  1. Für eine kontextabhängige Bestimmung der Privatsphäre, die der Bewohner je nach Situation vornehmen soll
  2. Für eine kontextabhängige Bestimmung, wer Zugriff auf welche Daten hat oder ob die Datenerhebung und -verarbeitung im Einzelfall blockiert werden soll

In der Praxis bedeutet dies: der Bewohner eines Smart Homes wird mehrmals täglich in wechselnden Situationen um seine Einwilligung in die privacy-Settings gebeten, die er/sie dann je nach Situation unterschiedlich bestimmen kann. Die Einwilligungsformulare sollen digital vorliegen, d.h. auf tablets oder auf Bildschirmen in der Wohnung eingespielt werden. Auch Besucher*innen werden um ihre Einwilligung in die Datenerhebung und -verarbeitung gebeten. Bewohner*innen und Gäste sollen mehrmals täglich daran erinnert werden, dass eine Überwachung durch Sensoren und Kameras stattfindet. Brolcháin/Gordijn räumen ein, dass solch eine situativ zu erteilende Einwilligung für die Bewohner*innen zur echten Bürde werden kann, – sehen aber im Einzelfall keine andere Lösung.

Kritiker der informierten Einwilligung würden Brolcháin/Gordijn aus folgenden Gründen widersprechen:

Bei einer permanenten Abfrage von Privatheitswüschen wird die informierte Einwilligung schnell zu einem Ritual, bei dem man Fragen einfach „wegklickt“, um seine Ruhe zu haben, in diesem Fall erfolgt die Einwilligung faktisch uninformiert (Hofmann/Bergemann 2017). Der einzelne ist auch deshalb mit einer solchen Individualisierung der Datenschutzverantwortung überfordert, weil unser Urteil situativ ist (und laut Brolcháin/Gordijn explizit auch situativ sein soll). Wir überblicken aber in der Regel nicht den Wert unserer Daten, der sich durch deren Zusammenführungen ergibt (Big Data) und in Zukunft ergeben kann. Durch das Machtungleichgewicht zwischen dem einzelnen und den digitalen Anbietern können letztere ihre Datenforderungen „nahezu unbegrenzt“ (Hofmann/Bergemann) anheben, – der einzelne wird zustimmen, wenn er die digitale Leistung oder das Smarte Home nicht verlieren will. Viele individuelle uninformierte Einwilligungen können aber im Endergebnis zu negativen Folgen für das Gemeinwohl führen. Deshalb plädieren Hofmann/Bergemann (2017) dafür, das „Datenschutzphantom“ der informierten Einwilligung von seinem Sockel als zentrales Datenschutzinstrument zu stoßen und andere Regulierungsformen in den Blick zu nehmen.

Dass dabei gesetzliche Regelungen eine ganz zentrale Rolle spielen sollten, wird auch von Brolcháin/Gordijn vertreten. Denn sie räumen ein, dass ihr Vorschlag einer situativ zu erteilenden Einwilligung die Zunahme der Datenerhebung und Verletzung der Privatsphäre letztlich gar nicht verhindern kann, weil Unternehmen dazu neigen, nach und nach ständig mehr Daten einzusammeln und sich dafür sukzessive die Zustimmung einzuholen. Kritiker sehen in der informierten Einwilligung denn auch eine ideale Grundlage für den zeitgenössischen Datenkapitalismus. Brolcháin/Gordijn fordern, dass Regierungen der Wirtschaft verbindlich vorgeben, welche Art von Daten überhaupt erhoben werden dürfen und wie viele Einwilligungen mit welchem Umfang Bürger*innen vorgelegt werden können, – unter besonderer Berücksichtigung derjenigen, die beeinträchtigt und hilfsbedürftig sind.

Digitale Ethik – welche Antworten gibt die Sozialarbeit?

Die Digitalisierung verändert unsere materielle, biologische und soziokulturelle Welt. Die neuen Technologien haben erhebliche ethische und soziale Folgen. Werte, die in der UN-Menschenrechtserklärung, in der EU-Grundrechtecharta , dem EU-Grundlagenvertrag und diversen nationalen Verfassungen niedergelegt sind, werden durch die Veränderungen im Zuge der Digitalisierung berührt. Royakkers u.a. (2018), aber auch die EDPS Ethics Advisory Group (2018) stellen eine Sammlung tangierter Werte zusammen: Würde, Autonomie, Sicherheit, Privatheit, Demokratie, Machtbalance, Gleichheit, Gerechtigkeit, Solidarität.

Drei Beispiele für ethische Herausforderungen durch die Digitalisierung:
Würde: Inwieweit verliert der einzelne seinen Status als ganzheitliche “Person”, wenn er/sie durch algorithmisches Profiling und automatisierte Entscheidungen als “Datenaggregat” oder bloßer “Datenpunkt” behandelt wird?
Autonomie: Wie sehr wird man durch persuasive Technologien manipuliert, die das menschliche Verhalten steuern?
Gleichheit: Inwieweit diskriminieren automatisierte Entscheidungen den einzelnen?

Auch in der internationalen Sozialarbeit sind automatisierte Informations- und Entscheidungssysteme auf dem Vormarsch.  Die gemeinnützige Organisation Algorithm Watch hat im Januar 2019 einen Bericht über den Stand des “automated decision-making” (ADM) in zwölf europäischen Ländern veröffentlicht und im April 2019 einen Atlas über das ADM in Deutschland.  In immer mehr Feldern kommen ADM-Systeme zum Einsatz, – auch im Wohlfahrtsbereich, wo Quartiere nach Risiko-Indikatoren “bepunktet” werden wie in Dänemark oder Daten aggregiert werden, um Risikofaktoren in der Kinder- und Jugendarbeit herauszufinden (Finnland).

An der Entwicklung und Einführung elektronischer Informationssysteme zur Falldokumentation ist die hiesige Sozialarbeit nur mangelhaft beteiligt. Zu wenig fordert sie ihre Teilhabe in diesem Feld ein und zu wenig wird die Digitalisierung auf Professions- und Einrichtungsebene systematisch reflektiert. Die Auseinandersetzung mit IuK-Technologien ist nicht im “Kerncurriculum Soziale Arbeit” der Deutschen Gesellschaft für Sozialarbeit verankert, ebenso fehlen der sozialen Profession Standards, wie im Alltag mit den neuen Technologien umzugehen ist, – in einem anderen Blogartikel habe ich mich mit diesem Thema befasst bzw. mit den amerikanischen “Standards for Technology in Social Work Practice”.

Beide Säulen (IuK in Kerncurriculum, Technologiestandards in der sozialarbeiterischen Praxis) bräuchte die Profession dringend. Und ebenso notwendig sind ethische Leitlinien auf Professions- aber auch auf Einrichtungsebene, um eine Richtschnur mit Werten und richtigem Handeln für den Umgang mit den neuen technologischen Herausforderungen zu haben.

Solche Leitlinien müssten vor Ort partizipativ erarbeitet werden: da Sozialleistungen durch Koproduktion entstehen, müssen auch ethische Leitlinien im Rahmen eines Co-Design-Prozesses formuliert werden, d.h. gemeinsam mit Klienten, Angehörigen, Unterstützern, Ehrenamtlichen usw. So würde das Thema “digitale Ethik” auch stärker in die lokale Zivilgesellschaft getragen werden, wo es momentan noch nicht verankert ist, mit äußerst negativen Folgen im Hinblick auf die Machtbalance zwischen Staat und Firmen als wichtige (big data)-Player auf der einen und der Zivilgesellschaft auf der anderen Seite . Neue Bündnisse könnten entstehen und die Sozialarbeit würde ihrem Selbstanspruch als “Menschenrechtsprofession” gerecht.

Momentan ist da, wo eine kritische professionelle Diskussion über die Chancen, Gefahren und ethischen Herausforderungen der Digitalisierung sein sollte, aber noch eine große Leerstelle, bei der nicht klar ist, ob und wann die Profession sie füllen wird. Auch in den Einrichtungen selbst ist es mit dieser Diskussion nicht weit her.  “Digitalwerkstätten” auf lokaler Ebene mit allen Stakeholdern einer Einrichtung könnten hier Abhilfe schaffen.