Schlagwort-Archiv: Digitalisierung

Digitale Ethik – welche Antworten gibt die Sozialarbeit?

Die Digitalisierung verändert unsere materielle, biologische und soziokulturelle Welt. Die neuen Technologien haben erhebliche ethische und soziale Folgen. Werte, die in der UN-Menschenrechtserklärung, in der EU-Grundrechtecharta , dem EU-Grundlagenvertrag und diversen nationalen Verfassungen niedergelegt sind, werden durch die Veränderungen im Zuge der Digitalisierung berührt. Royakkers u.a. (2018), aber auch die EDPS Ethics Advisory Group (2018) stellen eine Sammlung tangierter Werte zusammen: Würde, Autonomie, Sicherheit, Privatheit, Demokratie, Machtbalance, Gleichheit, Gerechtigkeit, Solidarität.

Drei Beispiele für ethische Herausforderungen durch die Digitalisierung:
Würde: Inwieweit verliert der einzelne seinen Status als ganzheitliche „Person“, wenn er/sie durch algorithmisches Profiling und automatisierte Entscheidungen als „Datenaggregat“ oder bloßer „Datenpunkt“ behandelt wird?
Autonomie: Wie sehr wird man durch persuasive Technologien manipuliert, die das menschliche Verhalten steuern?
Gleichheit: Inwieweit diskriminieren automatisierte Entscheidungen den einzelnen?

Auch in der internationalen Sozialarbeit sind automatisierte Informations- und Entscheidungssysteme auf dem Vormarsch.  Die gemeinnützige Organisation Algorithm Watch hat im Januar 2019 einen Bericht über den Stand des „automated decision-making“ (ADM) in zwölf europäischen Ländern veröffentlicht und im April 2019 einen Atlas über das ADM in Deutschland.  In immer mehr Feldern kommen ADM-Systeme zum Einsatz, – auch im Wohlfahrtsbereich, wo Quartiere nach Risiko-Indikatoren „bepunktet“ werden wie in Dänemark oder Daten aggregiert werden, um Risikofaktoren in der Kinder- und Jugendarbeit herauszufinden (Finnland).

An der Entwicklung und Einführung elektronischer Informationssysteme zur Falldokumentation ist die hiesige Sozialarbeit nur mangelhaft beteiligt. Zu wenig fordert sie ihre Teilhabe in diesem Feld ein und zu wenig wird die Digitalisierung auf Professions- und Einrichtungsebene systematisch reflektiert. Die Auseinandersetzung mit IuK-Technologien ist nicht im „Kerncurriculum Soziale Arbeit“ der Deutschen Gesellschaft für Sozialarbeit verankert, ebenso fehlen der sozialen Profession Standards, wie im Alltag mit den neuen Technologien umzugehen ist, – in einem anderen Blogartikel habe ich mich mit diesem Thema befasst bzw. mit den amerikanischen „Standards for Technology in Social Work Practice“.

Beide Säulen (IuK in Kerncurriculum, Technologiestandards in der sozialarbeiterischen Praxis) bräuchte die Profession dringend. Und ebenso notwendig sind ethische Leitlinien auf Professions- aber auch auf Einrichtungsebene, um eine Richtschnur mit Werten und richtigem Handeln für den Umgang mit den neuen technologischen Herausforderungen zu haben.

Solche Leitlinien müssten vor Ort partizipativ erarbeitet werden: da Sozialleistungen durch Koproduktion entstehen, müssen auch ethische Leitlinien im Rahmen eines Co-Design-Prozesses formuliert werden, d.h. gemeinsam mit Klienten, Angehörigen, Unterstützern, Ehrenamtlichen usw. So würde das Thema „digitale Ethik“ auch stärker in die lokale Zivilgesellschaft getragen werden, wo es momentan noch nicht verankert ist, mit äußerst negativen Folgen im Hinblick auf die Machtbalance zwischen Staat und Firmen als wichtige (big data)-Player auf der einen und der Zivilgesellschaft auf der anderen Seite . Neue Bündnisse könnten entstehen und die Sozialarbeit würde ihrem Selbstanspruch als „Menschenrechtsprofession“ gerecht.

Momentan ist da, wo eine kritische professionelle Diskussion über die Chancen, Gefahren und ethischen Herausforderungen der Digitalisierung sein sollte, aber noch eine große Leerstelle, bei der nicht klar ist, ob und wann die Profession sie füllen wird. Auch in den Einrichtungen selbst ist es mit dieser Diskussion nicht weit her.  „Digitalwerkstätten“ auf lokaler Ebene mit allen Stakeholdern einer Einrichtung könnten hier Abhilfe schaffen.

Share

Augmented Reality – Folgen für den Sozialraum

Augmented Reality (AR) bedeutet im engen Sinn, dass die reale Welt um digitale Informationen ergänzt wird. Diese Informationen können unterschiedlich abgerufen werden: u.a. über das Smartphone, über AR-Brillen oder als Projektion auf  Windschutzscheiben und in den realen Raum. Grundsätzlich kann alles in der realen Welt um digitale Inhalte ergänzt bzw. erweitert werden: Gebäude, Infrastrukturen, Gegenstände, Natur, – aber auch Menschen und deren Interaktionen. Bei der Augmented Reality verschmelzen reale und virtuelle Welt miteinander, deshalb spricht man auch von einer „mixed reality“. Wichtig für AR ist der Standort des Nutzers,  denn abhängig von dessen Position im Raum verändern sich die angezeigten Informationen.

Wie wird sich die erweiterte Realität im physikalischen Raum auswirken? Wer darf öffentliche und private Räume mit digitalen Informationen anreichern? Welche Folgen wird AR für Räume im Quartier, die dortigen gemeinnützigen Einrichtungen und die Quartiersvernetzung haben?

Über die Ethik von AR macht sich E. Neely (2018) Gedanken. Sie versucht zu klären, wer reale Räume mit digitalen Informationen anreichern darf. Ihr zufolge hängt eine Antwort entscheidend davon ab, ob sich für die erweiterte Realität eine bzw. wenige Plattformen und Apps durchsetzen oder viele konkurrierende. Ist ersteres der Fall, dann sollte bei privaten Räumen der jeweilige Besitzer vorrangig das Recht haben, seinen Raum mit digitalen Informationen anzureichern. Wo für Augmented Reality viele konkurrierende Apps und Plattformen genutzt werden, werden auch private Räume mit vielen unterschiedlichen Erweiterungen ergänzt werden können, ohne dass dies der Besitzer eines Raumes verhindern kann. Im öffentlichen Bereich kann durch AR ein neuer Diskurs begründet werden: Bürger/innen kommen miteinander im realen Raum ins Gespräch, wobei man hier beachten muss, dass die öffentliche Rede via AR länger sichtbar bleibt als das gesprochene Wort. Auch müssen unter Umständen für bestimmte öffentliche Räume Regeln definiert werden, um AR auf dem Niveau von graffitiy oder Spam entfernen zu können.

Aufgrund der negativen Erfahrungen im Zusammenhang mit den sozialen Medien ist damit zu rechnen, dass auch die Augmentierung von Räumen unethisch genutzt werden wird, d.h. dass private und öffentliche Räume erweitert werden mit Inhalten, die beleidigend, rassistisch, gewalttätig  und pornographisch sind:  In der realen Umwelt werden virtuelle „Aushänge“ mit negativen und polarisierenden Inhalten angebracht. Abschreckende Beispiele finden sich im Text der Autorin (Neely 2018).

Nonprofits im Quartier müssen damit rechnen, dass digitale Informationen, Kommentare und Bewertungen  ihrer Einrichtungen von Dritten mit dem realen Raum verbunden werden, so dass jeder Vorbeikommende, der über die entsprechende AR-Anwendung verfügt, diese Informationen sofort sieht. Grundsätzlich bietet AR so auch die Chance einer besseren Kontaktaufnahme zwischen einer Einrichtung und Bürgern: Wer an einer gemeinnützigen Einrichtung vorbei spaziert  und mit einem Smartphone ausgestattet ist, sieht z.B. an das Haus „gepinnte“ virtuelle Kontaktdaten und Angebote für Freiwillige. Passanten können bei Interesse direkt mit der Organisation in den Austausch treten, Wände werden durchlässiger. Angebote im Quartier werden so viel besser und unmittelbarer bekannt.

Das derzeitige Problem vieler Quartiere, dass ihre Ressourcen nicht kartiert und allgemein bekannt sind bzw. die Ressourcen untereinander zu wenig verknüpft, könnte AR reduzieren. Die erweiterte Realität bietet die Chance, Einrichtungen und Bürger ganz niedrigschwellig und raumbezogen miteinander zu vernetzen.

Aber es existieren auch – wie oben erwähnt – erhebliche Gefahren, wenn sich der Hass und die Desinformation aus den sozialen Medien in realen Räumen lokalisiert. Hinzukommt die zunehmende Individualisierung durch AR: Wenn sich reale und virtuelle Welt zunehmend mischen und jeder – je nach benutzter Anwendung – unterschiedliche digitale Informationen  im Raum vorfindet, dann stimmt die Annahme, dass wir alle die selbe Realität teilen, nicht mehr (vgl. Wolf/Grodzinsky/Miller 2015). Diese Annahme war zwar schon in der Vergangenheit nicht ganz richtig angesichts unterschiedlicher sozialer Herkünfte und unterschiedlichem kulturellen und sozialen Kapital. Aber mit der erweiterten Realität werden die Erfahrungen im Raum nochmals stärker und radikaler individualisiert.

AR-Anwendungen und Plattformen werden eine ganz zentrale Rolle spielen, wenn es um den Blick auf die physikalische Welt geht, denn was wir vor Ort sehen, wird durch die Inhalte dieser Plattformen mitbestimmt werden und ist in deren Besitz. Dies wirft die ethische und politische Frage auf: „Wem gehört der Raum zwischen unseren Augen und einem Objekt?“ (Wolf/Grodzinsky/Miller 2015). Die Zivilgesellschaft sollte diese Frage ganz dringend diskutieren.

Literatur:

  • Neely, E.L. (2018): Augmented reality, augmented ethics: who has the right to augment a particular space?, in: Ethics and Information Technology, https://doi.org/10.1007/s10676-018-9484-2
  • Wolf, M.J., Grodzinsky, F.S., Miller K.W. (2015): Augmented Reality All Around Us: Power and Perception at a Crossroads, ACM
    Computers and Society, Vol 45 issue 3,  S. 126-131
Share

Wie steht es um die digitalen Kompetenzen der Sozialen Arbeit?

Wie gut aufgestellt sind hierzulande die Fachkräfte der Sozialen Arbeit, wenn es um die Nutzung digitaler Instrumente im Arbeitsalltag geht? Wie gut kennen sie die Vor- und Nachteile der neuen Technologien? Hat die Profession ethische Standards, um die Herausforderungen der Digitalisierung zu meistern? Welchen Stellenwert nimmt die Auseinandersetzung mit neuen Technologien in den Studiengängen der Sozialen Arbeit ein?

Zorn und Seelmeyer (2017) bedauern in ihrem Aufsatz, dass IuK-Technologien  im aktuellen „Kerncurriculum Soziale Arbeit“, entwickelt von der Deutschen Gesellschaft für Soziale Arbeit (2017), keine Rolle spielen. Dabei will das Kerncurriculum der Standard für die Vermittlung der wissenschaftlichen Grundlagen Sozialer Arbeit sein und einen Rahmen formulieren „welche Studieninhalte in jedem Studiengang der Sozialen Arbeit vorkommen sollten“ (DGSA, Curriculum S. 1).

Im Unterschied dazu haben mehrere amerikanische Verbände der Sozialen Arbeit ebenfalls im Jahr 2017 gemeinsame „Standards for Technology in Social Work Practice“ ausgearbeitet. Insgesamt 55 Standards wurden entwickelt für die Bereiche

  • Öffentlichkeitsarbeit
  • Soziale Dienstleistungen
  • Informationsgewinnung, – verwaltung und -speicherung
  • Ausbildung und Supervision

Aus dieser Standardsammlung möchte ich sieben herausgreifen, um den konzeptionellen Rahmen der Sammlung deutlich zu machen:

  1. Sozialarbeiter/innen müssen qualifiziert werden, damit sie die neuen Technologien im Arbeitsalltag sicher, kompetent und ethisch korrekt einsetzen können.  Ausbildung, Beratung, Supervision und Training sollten zur Verfügung stehen, um den technologischen Wandel kontinuierlich zu begleiten und aufzuarbeiten (Standard 2.06, S. 16)
  2. Sozialarbeiter/innen sollten die Vorteile, aber auch die Risiken elektronischer sozialer Dienste genau kennen und im Einzelfall abwägen, ob elektronische Angebote dem Nutzer einen Mehrwert bringen oder ob auf alternative Angebote zurückgegriffen werden sollte (Standard 2.01, S. 11)
  3. Im Umgang mit den Klienten ist nicht nur deren psychosoziale Situation abzufragen, sondern auch deren Umgang mit Technologien: welche Stärken, Bedürfnisse, Risiken und Schwierigkeiten liegen hier vor? „With the increasing use of technology in society, it is important for social workers to also consider clients‘ relationship and comfort with technology“.  (Standard 2.05, S. 15)
  4. „Informed Consent“: Die Nutzer sozialer Dienste müssen durch die Sozialarbeiter/innen über Vorteile und Risiken der elektronischen Dienste aufgeklärt werden. Die Nutzer brauchen einen Entscheidungsspielraum (Standard 2.04, S. 14)
  5. Wenn Sozialarbeiter/innen Social Media nutzen, dann brauchen sie dafür eine Social Media Policy, die auch den Klienten sozialer Dienste bekannt sein muss: „The social media policy should be reviewed with clients during the initial interview in the social worker-client relationship and revisited and updated as needed“ (Standard 2.10, S. 18)
  6. Wenn Sozialorganisationen neue Technologien einsetzen wollen, dann sollte die Soziale Arbeit darauf drängen, dass hier nicht Wirtschaftlichkeit und Kostenersparnis  im Vordergrund stehen, sondern die Bedürfnisse der Klienten: „they shall prioritize the needs of their clients“ (Standard 2.17, S. 23)
  7. Zu den Aufgaben der Sozialen Arbeit gehört es auch, den Zugang zu neuen Technologien für ihre Klientel einzufordern, insbesondere für Arme, für Menschen mit Behinderung, für Menschen mit  fehlenden Sprachkenntnissen und solchen, die ungeübt im Umgang mit digitalen Technologien sind. „Having access to appropriate technology may also be a concern for social workers themselves. Social workers may need to advocate within their organizations and communities to ensure that they have access to technology that is required to perform their jobs effectively.“ (Standard 2.21, S. 26f).

Inwieweit ist die hiesige Praxis der Sozialen Arbeit mit solchen Standards vertraut? Inwieweit werden heute schon angehende Sozialarbeiter/innen aller Studienniveaus umfassend auf die digitale Sozialarbeit vorbereitet?

Share