<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Brigitte Reiser &#8211; Nonprofits-vernetzt.de</title>
	<atom:link href="http://blog.nonprofits-vernetzt.de/author/brigitte/feed/" rel="self" type="application/rss+xml" />
	<link>http://blog.nonprofits-vernetzt.de</link>
	<description>Partizipatives Stakeholder-Management &#38; Digitalisierung im Nonprofit-Sektor</description>
	<lastBuildDate>Thu, 30 Apr 2020 16:26:14 +0000</lastBuildDate>
	<language>de-DE</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.1.1</generator>
	<item>
		<title>Ethische Bewertung von Technologien (Teil 3) &#8211; der Ethics Canvas</title>
		<link>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-teil-3-der-ethics-canvas/</link>
					<comments>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-teil-3-der-ethics-canvas/#respond</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Thu, 30 Apr 2020 16:26:14 +0000</pubDate>
				<category><![CDATA[Digitale Ethik]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Partizipation]]></category>
		<category><![CDATA[soziale Dienste]]></category>
		<category><![CDATA[Sozialeinrichtung]]></category>
		<category><![CDATA[Ethics Canvas]]></category>
		<category><![CDATA[Sozialorganisationen]]></category>
		<category><![CDATA[Technologie]]></category>
		<category><![CDATA[technology assessment]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1533</guid>

					<description><![CDATA[Im letzten Blogartikel habe ich die MEESTAR-Methode  zur ethischen Evaluation von Technologien von Karsten Weber (2019) vorgestellt. In dem Aufsatz von Weber (S. 431-444) wird auch der Ethics Canvas von Reijers/Lewis u.a. des ADAPT Centre/Dublin als Tool erwähnt. Der Ethics Canvas basiert auf dem bekannten Business Model Canvas. Der Ethics Canvas ermöglicht ein partizipatives und [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Im letzten Blogartikel habe ich die <a href="http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-teil-2-die-meestar-methode/" target="_blank" rel="noopener">MEESTAR-Methode </a> zur ethischen Evaluation von Technologien von Karsten Weber (2019) vorgestellt. In dem <a href="https://dl.gi.de/handle/20.500.12116/25099" target="_blank" rel="noopener">Aufsatz von Weber</a> (S. 431-444) wird auch der Ethics Canvas von Reijers/Lewis u.a. des ADAPT Centre/Dublin als Tool erwähnt. Der Ethics Canvas basiert auf dem bekannten Business Model Canvas.</p>
<p>Der Ethics Canvas ermöglicht ein partizipatives und diskursives Brainstorming der ethischen Folgen von Technologien, die im Rahmen von Forschung und Innovation entstehen. Das nicht-kommerzielle Tool eignet sich speziell für Lehrende, Forschende, Unternehmen und politische Entscheidungsträger, &#8211; die Zivilgesellschaft wird hier nicht explizit aufgelistet. Man kann den Ethics Canvas ausdrucken und gemeinschaftlich ausfüllen oder online bearbeiten, speichern und teilen. Dafür haben die Entwickler des Canvas eine <a href="https://www.ethicscanvas.org/index.html" target="_blank" rel="noopener">Webseite</a> samt <a href="https://www.ethicscanvas.org/download/handbook.pdf" target="_blank" rel="noopener">Handbuch</a> erstellt.</p>
<p>Die zentralen Fragen , die der Ethics Canvas stellt, lauten:</p>
<ul>
<li>Welche Personen und Gruppen sind von der Technologie bzw. dem Produkt oder Service betroffen?</li>
<li>Von welchen möglichen ethischen Folgen sind diese Personen und Gruppen betroffen?</li>
<li>Wie kann man diese ethischen Probleme lösen?</li>
</ul>
<p>Berücksichtigt wird auch der problematische Ressourcenbedarf eines Produkts oder Dienstes (Energie, Daten usw.), als auch mögliche Produktfehler und -schwächen.</p>
<div id="attachment_1534" style="width: 582px" class="wp-caption alignleft"><a href="http://blog.nonprofits-vernetzt.de/wp-content/uploads/2020/03/ethics-canvas.jpg"><img aria-describedby="caption-attachment-1534" decoding="async" class="wp-image-1534" src="http://blog.nonprofits-vernetzt.de/wp-content/uploads/2020/03/ethics-canvas-300x213.jpg" alt="" width="572" height="406" srcset="http://blog.nonprofits-vernetzt.de/wp-content/uploads/2020/03/ethics-canvas-300x213.jpg 300w, http://blog.nonprofits-vernetzt.de/wp-content/uploads/2020/03/ethics-canvas-768x545.jpg 768w, http://blog.nonprofits-vernetzt.de/wp-content/uploads/2020/03/ethics-canvas-1024x726.jpg 1024w, http://blog.nonprofits-vernetzt.de/wp-content/uploads/2020/03/ethics-canvas.jpg 1189w" sizes="(max-width: 572px) 100vw, 572px" /></a><p id="caption-attachment-1534" class="wp-caption-text"><a href="https://creativecommons.org/licenses/by-sa/3.0/">CC BY-SA 3.0</a> ADAPT Centre/Trinity College Dublin/DCU 2017</p></div>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>&nbsp;</p>
<p>Die Autoren des Ethics Canvas gehen davon aus, dass man ihn in rund 1,5 Stunden gemeinschaftlich ausfüllen kann. Der inhaltliche Aufbau des Canvas beruht auf wissenschaftlichen Ansätzen aus der Technikforschung und Philosophie. Wichtig ist den Autoren, dass Technik nicht deterministisch gedacht wird, sondern Menschen mit der Technik <em>interagieren </em>und sich diese aneignen. Deshalb wird im Ethics Canvas so viel Wert auf Verhalten und Beziehungen gelegt.</p>
<p>Im Unterschied zu <a href="http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-teil-2-die-meestar-methode/" target="_blank" rel="noopener">MEESTAR</a> ist der Ethics Canvas ein allgemeineres Brainstorming- und Analyse-Tool, das sich nicht mit der konkreten Risikoabschätzung von Technologien befasst. Wie MEESTAR beruht der Ethics Canvas auf dem gemeinsamen Austausch der Stakeholder. Unterschiedliche Perspektiven und Interessen werden sichtbar. Aber auch hier gibt es  &#8211; wie bei MEESTAR &#8211; keine Lösung für Wert- und Interessenkonflikte, &#8211; außer Kompromisse, die in der Diskussion gefunden werden müssen und bei denen sich Machtverhältnisse negativ auswirken können.</p>
<p>Was ich beim Ethics Canvas vermisse, ist die <em>Raum</em>kategorie bzw. die Frage, wie sich eine Technologie auf die Raumbildung  und -gestaltung auswirkt, &#8211; ein ganz wichtiges Thema im Hinblick auf Sozialräume bzw. die Smart City-Diskussion.</p>
<p>Was MEESTAR und Ethics Canvas beide nicht bieten, sind Alternativen zu den behandelten Technologien. Man hat nur die Möglichkeit, sich mit einem bestimmten technischen Produkt zu befassen und keine Chance,  über die Sinnhaftigkeit des gesamten Projekts und dessen Annahmen und Ziele zu sprechen. Dieses Denken in Alternativen wird dagegen von Szenario-Methoden gefördert. Hier können Teilnehmer*innen die Frage diskutieren, welche Zukunft und welche Technologien sie sich aus normativer Perspektive wünschen. Mehr zu Szenario-Methoden im nächsten Blog-Artikel.</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-teil-3-der-ethics-canvas/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Ethische Bewertung von Technologien (Teil 2) &#8211; die MEESTAR-Methode</title>
		<link>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-teil-2-die-meestar-methode/</link>
					<comments>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-teil-2-die-meestar-methode/#respond</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Fri, 06 Mar 2020 18:38:27 +0000</pubDate>
				<category><![CDATA[Benutzerfreundlichkeit]]></category>
		<category><![CDATA[Co-Design]]></category>
		<category><![CDATA[Digitale Ethik]]></category>
		<category><![CDATA[Partizipation]]></category>
		<category><![CDATA[soziale Dienste]]></category>
		<category><![CDATA[Sozialeinrichtung]]></category>
		<category><![CDATA[Sozialorganisationen]]></category>
		<category><![CDATA[Technologie]]></category>
		<category><![CDATA[technology assessment]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1526</guid>

					<description><![CDATA[Im letzten Blogartikel habe ich den Aufsatz von Reijers u.a. (2018) vorgestellt. Die Autoren besprechen 35 Methoden, mit denen ein ethisches Assessment von Technologien durchgeführt werden kann. An den Methoden kritisieren die  Autoren, dass sie zu wenig partizipativ seien. Unter den Verfassern des oben verlinkten Aufsatzes ist auch Karsten Weber, der 2019 auf der Jahrestagung [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Im letzten <a href="http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-welche-methoden-gibt-es-teil-i/" target="_blank" rel="noopener">Blogartikel</a> habe ich den <a href="https://link.springer.com/article/10.1007/s11948-017-9961-8" target="_blank" rel="noopener">Aufsatz von Reijers u.a. (2018)</a> vorgestellt. Die Autoren besprechen 35 Methoden, mit denen ein ethisches Assessment von Technologien durchgeführt werden kann. An den Methoden kritisieren die  Autoren, dass sie zu wenig partizipativ seien.</p>
<p>Unter den Verfassern des oben verlinkten Aufsatzes ist auch Karsten Weber, der 2019 auf der Jahrestagung der Gesellschaft für Informatik praxisorientierte &#8220;Methoden der  ethischen Evaluation von IT&#8221; vorstellte. In seinem Papier im <a href="https://dl.gi.de/handle/20.500.12116/25099" target="_blank" rel="noopener">Tagungsband</a> der INFORMATIK 2019, S. 431-444, stellt er u.a. die MEESTAR-Methode als ein &#8220;Modell zur ethischen Evaluation sozio-technischer Arrangements&#8221; vor. Die Methode, an deren Entwicklung er mitwirkte, ermöglicht ein partizipatives und diskursethisches Evaluations-Verfahren. Stakeholder, die eine Technik entwickeln, einsetzen und nutzen treten mit ihren ganz unterschiedlichen Interessen und Perspektiven in einen inhaltlichen Austausch untereinander.  Die Vielfalt der Perspektiven ist gewollt. Sie ist eine Bereicherung, weil sie alle möglichen Probleme und Aspekte  eines Technikeinsatzes auf die Agenda bringt.</p>
<p>Ziel des Verfahrens ist eine Kompromissfindung unter den Stakeholdern. Die Ergebnisse aus dem Verfahren sollen dann in die Forschung und Entwicklung zurückfliessen, &#8211; im Idealfall nicht erst am Ende, sondern schon während der Technikentwicklung. MEESTAR kann und soll mehrmals während eines Technikprojektes eingesetzt werden (&#8220;iterativ&#8221;), und kann übrigens auch in <em>technikfernen</em> Situationen, in denen moralische Konflikte vorliegen, sehr gute Dienste leisten.</p>
<p>MEESTAR wurde als Instrument der angewandten Ethik für konkrete Technikeinsätze in der Praxis entwickelt, nicht zur allgemeinen Reflexion moralischer Aspekte von Technologien. Entstanden ist die Evaluations-Methode im Rahmen eines Technikprojektes in der Pflege. Sie wird zwischenzeitlich öfters bei öffentlichen Forschungs- und Entwicklungsvorhaben eingesetzt.</p>
<p>MEESTAR funktioniert wie folgt:</p>
<p>Für die Bewertung der Technik braucht man<strong> moralische Dimensionen</strong> wie: Selbstbestimmung, Sicherheit, Gerechtigkeit, Privatheit usw.  Diese Dimensionen sind nicht fest vorgegeben. Man erhält sie durch</p>
<ol>
<li>eine Literaturrecherche in Bezug auf die konkrete Technologie und ihre möglichen Folgen</li>
<li>Action Sheets: hier setzen sich die Beteiligten mit den Anwendungsszenarien der einzusetzenden Technik im Detail auseinander. Welche Gefahren und Probleme könnten auftreten? Alternativ kann auch ein <a href="https://www.ethicscanvas.org/index.html" target="_blank" rel="noopener">Ethics Canvas</a> genutzt werden. Dazu mehr im nächsten Blogartikel.</li>
</ol>
<p>Betrachtet werden die moralischen Dimensionen aus <strong>drei Perspektiven</strong>: der individuellen, organisationalen und gesellschaftlichen. Je nach Perspektive werden manche moralische Dimensionen  ganz unterschiedlich bewertet. Weber führt das Beispiel der &#8220;Privatheit&#8221; an: während Nutzer darunter z.B. eine Wohnung ohne Beobachtungstechnologie verstehen, können kommerzielle Dienstleister Privatheit mit Sensoren in Smart Homes in Einklang bringen, sofern deren Einsatz den Vorgaben der DSGVO entspricht. Hier muss man einen Kompromiss unter den Beteiligten finden.</p>
<p>Zur ethischen Risikoabschätzung dienen dann die folgenden <strong>vier Stufen</strong> (siehe Weber 2019, S. 434):</p>
<ul>
<li>Stufe 1: Anwendung ist aus ethischer Sicht völlig unbedenklich</li>
<li>Stufe 2: Anwendung weist ethische Sensibilität auf</li>
<li>Stufe 3: Anwendung ist ethisch äußerst sensibel</li>
<li>Stufe 4: Anwendung ist aus ethischer Sicht abzulehnen</li>
</ul>
<p>Wobei es auch hier um Kompromissfindung geht, denn bei einer Anwendung können Werte wie Selbstbestimmung und Privatheit berücksichtigt, aber Gerechtigkeit und Teilhabe verletzt sein. Man muss &#8211; um Stufe 1 zu erreichen &#8211; dann bei den beiden letzten Punkten nachbessern. Wenn das nicht möglich ist, dann wird auch eine Anwendung nicht klar in eine Stufe eingeordnet werden können, sondern in sich Wertekonflikte bzw. &#8211; kompromisse tragen, &#8211; so zumindest mein Eindruck.</p>
<p>Laut Weber ist ein partizipatives ethisches Evaluationsverfahren von Technik wichtig, nicht nur aus Gründen der Ethik selbst, sondern um eine hohe Gebrauchstauglichkeit bzw. usability von Technologien zu erzielen. Ihm zufolge ist aber die Bereitschaft, möglichst viele und vielfältige Stakeholder in ethische Bewertungsprozesse einzubeziehen in der Praxis &#8220;oftmals nicht gegeben&#8221; (Weber 2019, 442).</p>
<p>Sozialorganisationen, die zunehmend in ihrem Alltag mit Technik konfrontiert sind und diese im Umgang mit ihren Klienten anwenden, sollten unbedingt ein ethisches Assessment von Technologien vornehmen, um die richtige Auswahl an Tools treffen zu können. Gerade wo Anwendungen in Auftrag gegeben oder eingekauft werden, hat man die Wahl oder muss sich eine Wahlsituation schaffen. Ethische Aspekte sollten in Ausschreibungen ihren Platz finden. Einrichtungen und ihre Verbände brauchen ethische Leitlinien für den Umgang mit Technik, Daten und Algorithmen.</p>
<p>Wer noch weitere Informationen zu MEESTAR sucht, wird bei der <a href="https://www.feag-elkb.de/arbeitsfelder/forschung" target="_blank" rel="noopener">Fachstelle für Ethik und Anthropologie im Gesundheitswesen</a> fündig.</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-teil-2-die-meestar-methode/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Ethische Bewertung von Technologien &#8211; welche Methoden gibt es? (Teil I)</title>
		<link>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-welche-methoden-gibt-es-teil-i/</link>
					<comments>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-welche-methoden-gibt-es-teil-i/#respond</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Fri, 10 Jan 2020 15:06:36 +0000</pubDate>
				<category><![CDATA[Digitale Ethik]]></category>
		<category><![CDATA[Nonprofit-Organisation]]></category>
		<category><![CDATA[NPO]]></category>
		<category><![CDATA[Partizipation]]></category>
		<category><![CDATA[Ethik]]></category>
		<category><![CDATA[Technologie]]></category>
		<category><![CDATA[technology assessment]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1519</guid>

					<description><![CDATA[Welche Methoden gibt es, um in der Alltagspraxis Technologien aus ethischer Perspektive zu bewerten? Im letzten Beitrag wurden ethische Grundprinzipien aufgelistet, die im Umgang mit Daten und Algorithmen von Bedeutung sind: die Würde des Menschen, Selbstbestimmung, Privatheit, Sicherheit, Demokratie, Gerechtigkeit und Solidarität, Nachhaltigkeit. Aber wie kann man in der Praxis das ethische Assessment von Technologien [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Welche Methoden gibt es, um in der<em> Alltagspraxis</em> Technologien aus ethischer Perspektive zu bewerten?</p>
<p>Im <a href="http://blog.nonprofits-vernetzt.de/datennutzung-und-algorithmen-human-und-werteorientiert-gestalten/" target="_blank" rel="noopener">letzten Beitrag</a> wurden ethische Grundprinzipien aufgelistet, die im Umgang mit Daten und Algorithmen von Bedeutung sind: die Würde des Menschen, Selbstbestimmung, Privatheit, Sicherheit, Demokratie, Gerechtigkeit und Solidarität, Nachhaltigkeit. Aber wie kann man in der Praxis das ethische Assessment von Technologien durchführen? Wie können Nonprofits ihre IKT-Auswahl, -Nutzung, &#8211; Evaluation in ethischer Hinsicht reflektieren oder sich im Hinblick auf Zukunftstechnologien positionieren, am besten gemeinsam mit ihren Stakeholdern?</p>
<p>Wessel Reijers hat dazu gemeinsam mit sechs Kolleg*innen 2018 einen<a href="https://link.springer.com/article/10.1007/s11948-017-9961-8" target="_blank" rel="noopener"> Beitrag in Science and Engineering Ethics </a> veröffentlicht, der auf der Auswertung von 136 wissenschaftlichen Aufsätzen basiert. Diese stammen aus einem breiten Spektrum, von Medizin über IKT, Nanotechnologie, Agrarwissenschaft, bis hin zu Texten, die sich ganz allgemein mit  Technologien und ihren Folgen befassen. Die Autoren haben in diesen 136 Aufsätzen <strong>35 Methoden</strong> gefunden, mit deren Hilfe man ein ethisches Assessment von Technologien durchführen kann. Die Methoden ordnen sie drei Kategorien zu (S. 1448):</p>
<ul>
<li><strong>Ex ante</strong> (8 Methoden): diese Methoden befassen sich mit Technologien und Anwendungen, die gerade neu aufkommen bzw. sich am Horizont abzeichnen</li>
<li><strong>Intra</strong> (14 Methoden): diese Methoden konzentrieren sich auf Technologien und Anwendungen, die im Moment konkret entwickelt werden</li>
<li><strong>Ex post</strong> (13): diese Methoden befassen sich mit Technologien und Anwendungen, die schon vorliegen und in Organisationen bzw. im Alltag genutzt werden</li>
</ul>
<p>Bei den <strong>Ex ante-Methoden</strong> sind Szenario- und Foresight-Ansätze stark vertreten. Sie visualisieren Zukünfte oder verdeutlichen diese durch Geschichten. Diese Methoden richten sich in erster Linie an Experten wie Ethiker. Die Einbeziehung unterschiedlicher Stakeholder ist hier eher selten. Kritisiert wird an Ex ante-Methoden, dass eine Schau in die Zukunft spekulativ ist und Zukunftsanalysen durch unvorhergesehene Ereignisse konterkariert werden.</p>
<p>Bei den <strong>Intra-Methoden</strong>, die die Technologieentwicklung begleiten, setzt man z.B. auf &#8220;value sensitive design&#8221; und &#8220;human driven design&#8221;. Auch diese Methoden wenden sich eher an Experten (Ethiker, Forscher, Designer). Ihre Schwachstelle liegt laut Reijers u.a. darin, dass sie in den Arbeitsalltag von Forschern nur schwer zu integrieren sind und der Zusammenhang zwischen Werten und Design in theoretischer Hinsicht nicht klar ausgearbeitet ist.</p>
<p><strong>Ex post-Methoden</strong>, die sich mit vorhandenen Technologien befassen, arbeiten oft mit Checklisten oder einer ethischen Matrix, um die ethischen Fragen zu identifizieren, die von den Technologien aufgeworfen werden.  Auch diese Methoden wenden sich eher an Experten, zum Teil aber auch an größere Stakeholder-Kreise. Speziell bei einer &#8220;ethischen Matrix&#8221; wird nach den ethischen Auswirkungen einer Technologie auf unterschiedliche Gruppen gefragt. Kritisiert wird von Reijers und Kolleg*innen an Ex post-Methoden, dass Konflikte zwischen Normen (z.B. Sicherheit versus Autonomie) im Rahmen dieser Methoden nicht gelöst werden können, weil sie keine Wertehierarchie zur Verfügung stellen. Und auch die Wertkonflikte zwischen Stakeholdern finden keine Auflösung.</p>
<p>An allen Methoden kritisiert die Forschergruppe, dass sie zu wenig partizipativ seien. Die Methoden könnten die Fragen: &#8220;Wie kann man Partizipation organisieren? Wer sind die Stakeholder?&#8221; nicht beantworten, weil sie zumeist top down konzipiert sind. Deshalb plädieren die Autor*innen dafür,  auch beim ethischen Technologie-Assessment stärker auf Co-Design und &#8220;power sharing&#8221; zu setzen (S. 1459).</p>
<p>Als Fazit kann man festhalten, dass es im Moment noch nicht <em>die</em> optimale Methode gibt, um die ethische Wirkung von Technologien zu klären, seien die Technologien &#8220;Zukunftsmusik&#8221;, in der Entwicklung oder schon in der Anwendung. Dennoch wäre es wichtig, dass sich die soziale Profession, die Wohlfahrtsverbände und ihre Einrichtungen und die ganze Zivilgesellschaft, mit ethischen Fragen bezüglich neuer Technologien auseinandersetzten (siehe dazu meinen Vorschlag der <a href="http://blog.nonprofits-vernetzt.de/digitale-ethik-welche-antworten-gibt-die-sozialarbeit/" target="_blank" rel="noopener">Digitalwerkstätten</a>).</p>
<p>Im nächsten Beitrag stelle ich diskursethische Methoden für die Evaluation von Technologien vor, die in der hiesigen Forschungspraxis erfolgreich erprobt wurden und vielleicht eine Alternative für Nonprofits darstellen.</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/ethische-bewertung-von-technologien-welche-methoden-gibt-es-teil-i/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Datennutzung und Algorithmen human und werteorientiert gestalten</title>
		<link>http://blog.nonprofits-vernetzt.de/datennutzung-und-algorithmen-human-und-werteorientiert-gestalten/</link>
					<comments>http://blog.nonprofits-vernetzt.de/datennutzung-und-algorithmen-human-und-werteorientiert-gestalten/#respond</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Tue, 26 Nov 2019 15:27:52 +0000</pubDate>
				<category><![CDATA[Daten]]></category>
		<category><![CDATA[Digitale Ethik]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Netzpolitik]]></category>
		<category><![CDATA[Nonprofit-Organisation]]></category>
		<category><![CDATA[NPO]]></category>
		<category><![CDATA[Algorithmen]]></category>
		<category><![CDATA[Datenethikkommission]]></category>
		<category><![CDATA[Nonprofits]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1513</guid>

					<description><![CDATA[Die Datenethikkommission der Bundesregierung hat Ende Oktober 2019 ihren Abschlussbericht vorgelegt, der in einer Lang- und Kurzfassung zum freien Download zur Verfügung steht. Die Ergebnisse sind auch für Nonprofits von Bedeutung, da sie als Sozialunternehmen selbst Daten generieren, verarbeiten und nutzen, u.a. von pflege- und schutzbedürftigen Menschen und Mitarbeiter*innen unter Umständen selbst an automatisierten Assistenzsystemen [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Die Datenethikkommission der Bundesregierung hat Ende Oktober 2019 ihren Abschlussbericht vorgelegt, der in einer Lang- und Kurzfassung zum freien <a href="https://www.bmi.bund.de/DE/themen/it-und-digitalpolitik/datenethikkommission/arbeitsergebnisse-der-dek/arbeitsergebnisse-der-dek-node.html;jsessionid=840BA9711F8D01659B501A5E4F95B2F5.2_cid295" target="_blank" rel="noopener">Download</a> zur Verfügung steht. Die Ergebnisse sind auch für Nonprofits von Bedeutung, da sie</p>
<ul>
<li>als Sozialunternehmen selbst Daten generieren, verarbeiten und nutzen, u.a. von pflege- und schutzbedürftigen Menschen und Mitarbeiter*innen</li>
<li>unter Umständen selbst an automatisierten Assistenzsystemen beteiligen sind, die Algorithmen einsetzen, oder als Kooperationspartner der Leistungsverwaltung mit den Auswirkungen von Algorithmen bzw. automatisierten Entscheidungen befasst sind</li>
<li>als gesellschaftliche Akteure auf die humane Ausgestaltung der Digitalisierung Einfluss nehmen wollen</li>
<li>als lokale Akteure mit der Digitalisierung von Sozialräumen und Infrastrukturen konfrontiert sind.</li>
</ul>
<p>Die Datenethikkommission (DEK) legt ihrem Gutachten die folgenden Leitgedanken zugrunde:</p>
<ul>
<li>menschenzentrierte und werteorientierte Gestaltung von Technologie</li>
<li>Förderung digitaler Kompetenzen und kritischer Reflexion in der digitalen Welt</li>
<li>Stärkung des Schutzes von persönlicher Freiheit, Selbstbestimmung und Integrität</li>
<li>Förderung verantwortungsvoller und gemeinwohlverträglicher Datennutzungen</li>
<li>Risikoadaptierte Regulierung und wirksame Kontrolle algorithmischer Systeme</li>
<li>Wahrung und Förderung von Demokratie und gesellschaftlichem Zusammenhalt</li>
<li>Ausrichtung digitaler Strategien an Zielen der Nachhaltigkeit</li>
<li>Stärkung der digitalen Souveränität Deutschlands und Europas</li>
</ul>
<p>(<a href="https://www.bmi.bund.de/SharedDocs/downloads/DE/publikationen/themen/it-digitalpolitik/gutachten-datenethikkommission-kurzfassung.pdf?__blob=publicationFile&amp;v=4" target="_blank" rel="noopener">DEK Kurzfassung</a>, S. 5). Handlungsmaßstäbe für die Ausgestaltung digitaler Technologien sollen Werte und Rechte sein, die in unserer Verfassung und der europäischen Charta der Grundrechte festgelegt sind: die Würde des Menschen, Selbstbestimmung, Privatheit, Sicherheit, Demokratie, Gerechtigkeit und Solidarität sowie Nachhaltigkeit.</p>
<p>Weil viele unterschiedliche Akteure an der Datengenerierung beteiligt sind, soll es kein Eigentumsrecht an Daten, sondern Mitsprache- und Teilhaberechte geben. Um die <strong>Datenrechte</strong> des einzelnen zu klären, sind Umfang und Art seines Beitrags an der Datengenerierung zu untersuchen, sein Individualinteresse zu gewichten und mit konfligierenden Interessen abzuwägen, die Interessen der Allgemeinheit zu beachten und die Machtverteilung zwischen den Akteuren in den Blick zu nehmen (Kurzfassung, S. 9).</p>
<p>Die DEK empfiehlt u.a. Maßnahmen gegen eine ethisch nicht-vertretbare <strong>Datennutzung</strong>, Leitlinien für den Umgang mit den Daten pflege- und schutzbedürftiger Menschen, datenschutzfreundliche Produkte und Designs, sowie eine Förderung des Beschäftigtendatenschutzes. Personalisierte Tarife bei Versicherungen soll es nur in engen Grenzen geben.</p>
<p><strong>Algorithmen</strong> können menschliche Entscheidungen unterstützen. Sie können aber auch menschliche Entscheidungen so prägen, dass die Selbstbestimmung von Menschen eingeschränkt wird. Und schließlich können sie Entscheidung ganz übernehmen, so dass Menschen im Entscheidungsprozess  keine Rolle mehr spielen (= automated decision making, <a href="https://atlas.algorithmwatch.org/report" target="_blank" rel="noopener">ADM</a>)</p>
<p>Bei <strong>algorithmischen Systemen</strong> empfiehlt die Kommission eine fünfstufige Bewertungsskala, die das Schädigungspotenzial dieser Systeme und Regulierungsmöglichkeiten auflistet: in einer niedrigen Gefährdungsstufe sollen z.B. eine Risikofolgenabschätzung des algorithmischen Systems durchgeführt und Transparenzpflichten, Kontrollen und Auditverfahren etabliert werden. In einer höheren Gefährdungsstufe empfiehlt die Kommission ex-ante-Zulassungsverfahren für Algorithmen, Live-Schnittstellen für Aufsichtsinstitutionen oder sogar vollständige und teilweise Verbote von algorithmischen Systemen (DEK-Kurzfassung, S. 19). Wichtig ist hier, dass nicht nur die Algorithmen als solche im Fokus stehen, sondern das ganze &#8220;sozio-technische System&#8221;, d.h. auch die beteiligten Menschen und die unterschiedlichen Phasen der Entwicklung, Implementierung und Evaluation algorithmischer Systeme.</p>
<p>Die DEK empfiehlt der Bundesregierung, die bestehenden  Aufsichtsinstitutionen zu stärken und ein neues Kompetenzzentrum für algorithmische Systeme auf Bundesebene zu schaffen. Aber auch die Ko- und Selbstregulierung wird empfohlen, wie DIN Normen und  Gütesiegel, sowie Kennzeichnungspflichten und ein bindender Codex für die Betreiber von algorithmischen Systemen. Sowohl bei der Ausarbeitung des bindenden Codex als auch in den Aufsichtsbehörden solle es Beiräte geben, in denen die Zivilgesellschaft vertreten ist.</p>
<p>Das Gutachten der DEK ist ein beeindruckender Beitrag zur Ethik der Digitalisierung. Die DEK unterstützt mit ihrem Gutachten den &#8220;europäischen Weg&#8221;, d.h. die europäische Strategie, Technologieentwicklung und Technologieeinsatz mit europäischen Werten und Grundrechten in Verbindung zu bringen. Was im Bericht meines Erachtens noch etwas zu kurz kommt, ist die kollektive Dimension: Datenrechte werden aus individueller Perspektive betrachtet. Es wird nicht klar, inwieweit die Gesellschaft an der Entwicklung digitaler Infrastrukturen und Tools mitwirken kann, welche Möglichkeiten also bspw. lokale Communities haben, ein smartes Quartier und eine smarte Stadt mitzugestalten. Über die Grenzen der Partizipation in eben diesen Smart Cities wurde hier im Blog schon an <a href="http://blog.nonprofits-vernetzt.de/smart-city-smarte-partizipation/" target="_blank" rel="noopener">anderer Stelle</a> geschrieben.</p>
<p>&nbsp;</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/datennutzung-und-algorithmen-human-und-werteorientiert-gestalten/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Smart Homes und AAL – ethische Herausforderungen</title>
		<link>http://blog.nonprofits-vernetzt.de/smart-homes-und-aal-ethische-herausforderungen/</link>
					<comments>http://blog.nonprofits-vernetzt.de/smart-homes-und-aal-ethische-herausforderungen/#respond</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Wed, 23 Oct 2019 10:22:27 +0000</pubDate>
				<category><![CDATA[Daten]]></category>
		<category><![CDATA[Digitale Ethik]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Quartier]]></category>
		<category><![CDATA[soziale Dienste]]></category>
		<category><![CDATA[Unternehmen]]></category>
		<category><![CDATA[AAL]]></category>
		<category><![CDATA[Altenhilfe]]></category>
		<category><![CDATA[Smart City]]></category>
		<category><![CDATA[Smart Homes]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1508</guid>

					<description><![CDATA[Smart Home-Technologien sind auf dem Vormarsch. Auf der Basis vernetzter Geräte und automatisierter Abläufe sollen Energieeffizienz und Lebensqualität von Räumen und Quartieren gesteigert werden. Speziell im Hinblick auf alte Menschen, Menschen mit Demenz und Menschen mit Behinderung versprechen altersgerechte Assistenzsysteme und Smart Services ein selbstbestimmtes Leben in den eigenen vier Wänden. Bei den AAL (Altersgerechten [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Smart Home-Technologien sind auf dem Vormarsch. Auf der Basis vernetzter Geräte und automatisierter Abläufe sollen Energieeffizienz und Lebensqualität von Räumen und Quartieren gesteigert werden. Speziell im Hinblick auf alte Menschen, Menschen mit Demenz und Menschen mit Behinderung versprechen altersgerechte Assistenzsysteme und Smart Services ein selbstbestimmtes Leben in den eigenen vier Wänden.</p>
<p>Bei den AAL (Altersgerechten Assistenzsystemen) und Smart Services kommunizieren Geräte nicht nur untereinander, sondern auch mit den Bewohner*innen selbst und mit deren sozialem Umfeld (Angehörige, Pflegedienste). Sensoren an Gegenständen, an der Kleidung sowie Videokameras und Mikrophone ermöglichen eine Überwachung in Echtzeit und generieren fortlaufend Daten über die Bewegungsabläufe und den Gesundheitszustand der Bewohner*innen. Die intelligenten Geräte erinnern an die Einnahme von Medikamenten und an Verabredungen („nudging“). Sie ermöglichen den Kontakt zwischen dem Bewohner, seinem sozialen Umfeld und seinen pflegerischen und medizinischen Dienstleistern.</p>
<p>Smart Home-Technologien werfen ethische Fragen auf: einerseits unterstützen sie das selbstständige Wohnen, andererseits bedrohen sie die Privatsphäre des einzelnen angesichts des allgegenwärtigen Sensoring und Monitorings. Brolcháin/Gordijn setzen sich in ihrem Aufsatz <a href="https://link.springer.com/article/10.1007/s10676-019-09507-0" target="_blank" rel="noopener">„Privacy challenges in smart homes for people with dementia and people with intellectual disabilities“ (2019)</a> mit den ethischen Herausforderungen von Smart Homes mit Blick auf die Privatheit auseinander. Die Fragen, die sie aufwerfen, berühren nicht nur die Zielgruppe „Menschen mit Demenz/mit Lernbehinderung“, sondern sind für alle Stakeholder des Smart Home-Themas relevant, d.h. für Bürger*innen, Technologieentwickler*innen, Smart Home-Anbieter, Stadtplaner*innen, soziale Dienste usw.</p>
<p>Brolcháin/Gordijn beleuchten fünf Dimensionen von Privatheit:</p>
<ul>
<li><strong>Informational privacy:</strong> in Smart Homes werden Daten gesammelt und gespeichert.<br />
Wer hat Zugriff auf die Daten, wie sicher sind sie gespeichert? Wie steht es um die Informationskontrolle seitens der Bewohner*innen? Auch bei einer Anonymisierung der Daten besteht die Gefahr einer Re-Identifizierung. Werden die vorhandenen Daten für das „Nudging“ eingesetzt, also das Verhalten des Bewohners manipuliert?</li>
<li><strong>Physical privacy:</strong> inwieweit werden die häusliche und körperliche Intimität durch Sensoren, Kameras und Audioaufzeichnungen gefährdet?</li>
<li><strong>Associational privacy:</strong> wer erhält über Kameras Einblick in den Haushalt eines Bewohners und ist über Monitore präsent in dessen vier Wänden?</li>
<li><strong>Proprietary privacy:</strong> nicht nur die körperliche Privatsphäre, auch die seelische und geistige wird durch Gesichts- und Emotionserkennungs-Software bedroht</li>
<li><strong>Decisional privacy:</strong> einerseits soll das Smart Home Bewohner*innen bei den Aufgaben des Alltags unterstützen. Andererseits gehen bei automatisierter Unterstützung Kompetenzen verloren und können aufgrund des Nudgings und des Monitorings Entscheidungen nicht mehr autonom gefällt werden.</li>
</ul>
<p>Um die Privatheit in Smart Homes zu wahren, schlagen Brolcháin/Gordijn folgendes vor:</p>
<p>Eine <strong>informierte Einwilligung</strong> („informed consent“) der Bewohner*innen von Smart Homes in die Datenerhebung, &#8211; verarbeitung und -speicherung muss eingeholt werden, &#8211; ist aber nicht ausreichend,</p>
<ul>
<li>denn nicht nur der Bewohner, sondern auch seine Gäste werden vom Sensoring und Monitoring berührt</li>
<li><em>eine</em> Einwilligungserklärung kann nicht die Bandbreite der Privatheitswünsche für ganz unterschiedliche Situationen abdecken.</li>
</ul>
<p>Brolcháin/Gordijn plädieren deshalb für folgendes (S. 261):</p>
<ol>
<li>Für eine <em>kontext</em>abhängige Bestimmung der Privatsphäre, die der Bewohner je nach Situation vornehmen soll</li>
<li>Für eine <em>kontext</em>abhängige Bestimmung, wer Zugriff auf welche Daten hat oder ob die Datenerhebung und -verarbeitung im Einzelfall blockiert werden soll</li>
</ol>
<p>In der Praxis bedeutet dies: der Bewohner eines Smart Homes wird mehrmals täglich in wechselnden Situationen um seine Einwilligung in die privacy-Settings gebeten, die er/sie dann je nach Situation unterschiedlich bestimmen kann. Die Einwilligungsformulare sollen digital vorliegen, d.h. auf tablets oder auf Bildschirmen in der Wohnung eingespielt werden. Auch Besucher*innen werden um ihre Einwilligung in die Datenerhebung und -verarbeitung gebeten. Bewohner*innen und Gäste sollen mehrmals täglich daran erinnert werden, dass eine Überwachung durch Sensoren und Kameras stattfindet. Brolcháin/Gordijn räumen ein, dass solch eine situativ zu erteilende Einwilligung für die Bewohner*innen zur echten Bürde werden kann, &#8211; sehen aber im Einzelfall keine andere Lösung.</p>
<p>Kritiker der informierten Einwilligung würden Brolcháin/Gordijn aus folgenden Gründen widersprechen:</p>
<p>Bei einer permanenten Abfrage von Privatheitswüschen wird die informierte Einwilligung schnell zu einem Ritual, bei dem man Fragen einfach „wegklickt“, um seine Ruhe zu haben, in diesem Fall erfolgt die Einwilligung faktisch <em>uninformiert</em> (<a href="https://netzpolitik.org/2017/die-informierte-einwilligung-ein-datenschutzphantom/" target="_blank" rel="noopener">Hofmann/Bergemann 2017</a>). Der einzelne ist auch deshalb mit einer solchen Individualisierung der Datenschutzverantwortung überfordert, weil unser Urteil situativ ist (und laut Brolcháin/Gordijn explizit auch situativ sein soll). Wir überblicken aber in der Regel nicht den Wert unserer Daten, der sich durch deren Zusammenführungen ergibt (Big Data) und in Zukunft ergeben kann. Durch das Machtungleichgewicht zwischen dem einzelnen und den digitalen Anbietern können letztere ihre Datenforderungen „nahezu unbegrenzt“ (Hofmann/Bergemann) anheben, &#8211; der einzelne wird zustimmen, wenn er die digitale Leistung oder das Smarte Home nicht verlieren will. Viele individuelle uninformierte Einwilligungen können aber im Endergebnis zu negativen Folgen für das Gemeinwohl führen. Deshalb plädieren <a href="https://netzpolitik.org/2017/die-informierte-einwilligung-ein-datenschutzphantom/" target="_blank" rel="noopener">Hofmann/Bergemann (2017)</a> dafür, das „Datenschutzphantom“ der informierten Einwilligung von seinem Sockel als zentrales Datenschutzinstrument zu stoßen und andere Regulierungsformen in den Blick zu nehmen.</p>
<p>Dass dabei gesetzliche Regelungen eine ganz zentrale Rolle spielen sollten, wird auch von Brolcháin/Gordijn vertreten. Denn sie räumen ein, dass ihr Vorschlag einer situativ zu erteilenden Einwilligung die Zunahme der Datenerhebung und Verletzung der Privatsphäre letztlich gar nicht verhindern kann, weil Unternehmen dazu neigen, nach und nach ständig mehr Daten einzusammeln und sich dafür sukzessive die Zustimmung einzuholen. Kritiker sehen in der informierten Einwilligung denn auch eine ideale Grundlage für den zeitgenössischen Datenkapitalismus. Brolcháin/Gordijn fordern, dass Regierungen der Wirtschaft verbindlich vorgeben, welche Art von Daten überhaupt erhoben werden dürfen und wie viele Einwilligungen mit welchem Umfang Bürger*innen vorgelegt werden können, &#8211; unter besonderer Berücksichtigung derjenigen, die beeinträchtigt und hilfsbedürftig sind.</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/smart-homes-und-aal-ethische-herausforderungen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Digitale Ethik &#8211; welche Antworten gibt die Sozialarbeit?</title>
		<link>http://blog.nonprofits-vernetzt.de/digitale-ethik-welche-antworten-gibt-die-sozialarbeit/</link>
					<comments>http://blog.nonprofits-vernetzt.de/digitale-ethik-welche-antworten-gibt-die-sozialarbeit/#respond</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Mon, 06 May 2019 14:30:36 +0000</pubDate>
				<category><![CDATA[Digitale Ethik]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[soziale Dienste]]></category>
		<category><![CDATA[Sozialeinrichtung]]></category>
		<category><![CDATA[Sozialarbeit]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1498</guid>

					<description><![CDATA[Die Digitalisierung verändert unsere materielle, biologische und soziokulturelle Welt. Die neuen Technologien haben erhebliche ethische und soziale Folgen. Werte, die in der UN-Menschenrechtserklärung, in der EU-Grundrechtecharta , dem EU-Grundlagenvertrag und diversen nationalen Verfassungen niedergelegt sind, werden durch die Veränderungen im Zuge der Digitalisierung berührt. Royakkers u.a. (2018), aber auch die EDPS Ethics Advisory Group (2018) [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Die Digitalisierung verändert unsere materielle, biologische und soziokulturelle Welt. Die neuen Technologien haben erhebliche ethische und soziale Folgen. Werte, die in der UN-Menschenrechtserklärung, in der EU-Grundrechtecharta , dem EU-Grundlagenvertrag und diversen nationalen Verfassungen niedergelegt sind, werden durch die Veränderungen im Zuge der Digitalisierung berührt. <a href="https://link.springer.com/article/10.1007/s10676-018-9452-x" target="_blank" rel="noopener">Royakkers u.a. (2018)</a>, aber auch die <a href="https://edps.europa.eu/sites/edp/files/publication/18-01-25_eag_report_en.pdf" target="_blank" rel="noopener">EDPS Ethics Advisory Group (2018)</a> stellen eine Sammlung tangierter Werte zusammen: Würde, Autonomie, Sicherheit, Privatheit, Demokratie, Machtbalance, Gleichheit, Gerechtigkeit, Solidarität.</p>
<p>Drei Beispiele für ethische Herausforderungen durch die Digitalisierung:<br />
<em>Würde</em>: Inwieweit verliert der einzelne seinen Status als ganzheitliche &#8220;Person&#8221;, wenn er/sie durch algorithmisches Profiling und automatisierte Entscheidungen als &#8220;Datenaggregat&#8221; oder bloßer &#8220;Datenpunkt&#8221; behandelt wird?<br />
<em>Autonomie</em>: Wie sehr wird man durch persuasive Technologien manipuliert, die das menschliche Verhalten steuern?<br />
<em>Gleichheit</em>: Inwieweit diskriminieren automatisierte Entscheidungen den einzelnen?</p>
<p>Auch in der internationalen Sozialarbeit sind automatisierte Informations- und Entscheidungssysteme auf dem Vormarsch.  Die gemeinnützige Organisation <a href="https://algorithmwatch.org/" target="_blank" rel="noopener">Algorithm Watch</a> hat im Januar 2019 einen <a href="https://algorithmwatch.org/en/automating-society/" target="_blank" rel="noopener">Bericht</a> über den Stand des &#8220;automated decision-making&#8221; (ADM) in zwölf europäischen Ländern veröffentlicht und im April 2019 einen <a href="https://atlas.algorithmwatch.org/report" target="_blank" rel="noopener">Atlas</a> über das ADM in Deutschland.  In immer mehr Feldern kommen ADM-Systeme zum Einsatz, &#8211; auch im Wohlfahrtsbereich, wo Quartiere nach Risiko-Indikatoren &#8220;bepunktet&#8221; werden wie in Dänemark oder Daten aggregiert werden, um Risikofaktoren in der Kinder- und Jugendarbeit herauszufinden (Finnland).</p>
<p>An der Entwicklung und Einführung elektronischer Informationssysteme zur Falldokumentation ist die hiesige Sozialarbeit nur mangelhaft beteiligt. Zu wenig fordert sie ihre Teilhabe in diesem Feld ein und zu wenig wird die Digitalisierung auf Professions- und Einrichtungsebene systematisch reflektiert. Die Auseinandersetzung mit IuK-Technologien ist nicht im &#8220;Kerncurriculum Soziale Arbeit&#8221; der Deutschen Gesellschaft für Sozialarbeit verankert, ebenso fehlen der sozialen Profession Standards, wie im Alltag mit den neuen Technologien umzugehen ist, &#8211; in einem anderen <a href="http://blog.nonprofits-vernetzt.de/wie-steht-es-um-die-digitalen-kompetenzen-der-sozialen-arbeitrbeit/" target="_blank" rel="noopener">Blogartikel</a> habe ich mich mit diesem Thema befasst bzw. mit den amerikanischen &#8220;Standards for Technology in Social Work Practice&#8221;.</p>
<p>Beide Säulen (IuK in Kerncurriculum, Technologiestandards in der sozialarbeiterischen Praxis) bräuchte die Profession dringend. Und ebenso notwendig sind ethische Leitlinien auf Professions- aber auch auf Einrichtungsebene, um eine Richtschnur mit Werten und richtigem Handeln für den Umgang mit den neuen technologischen Herausforderungen zu haben.</p>
<p>Solche Leitlinien müssten vor Ort partizipativ erarbeitet werden: da Sozialleistungen durch Koproduktion entstehen, müssen auch ethische Leitlinien im Rahmen eines Co-Design-Prozesses formuliert werden, d.h. gemeinsam mit Klienten, Angehörigen, Unterstützern, Ehrenamtlichen usw. So würde das Thema &#8220;digitale Ethik&#8221; auch stärker in die lokale Zivilgesellschaft getragen werden, wo es momentan noch nicht verankert ist, mit äußerst negativen Folgen im Hinblick auf die Machtbalance zwischen Staat und Firmen als wichtige (big data)-Player auf der einen und der Zivilgesellschaft auf der anderen Seite . Neue Bündnisse könnten entstehen und die Sozialarbeit würde ihrem Selbstanspruch als &#8220;Menschenrechtsprofession&#8221; gerecht.</p>
<p>Momentan ist da, wo eine kritische professionelle Diskussion über die Chancen, Gefahren und ethischen Herausforderungen der Digitalisierung sein sollte, aber noch eine große Leerstelle, bei der nicht klar ist, ob und wann die Profession sie füllen wird. Auch in den Einrichtungen selbst ist es mit dieser Diskussion nicht weit her.  &#8220;Digitalwerkstätten&#8221; auf lokaler Ebene mit allen Stakeholdern einer Einrichtung könnten hier Abhilfe schaffen.</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/digitale-ethik-welche-antworten-gibt-die-sozialarbeit/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Augmented Reality &#8211; Folgen für den Sozialraum</title>
		<link>http://blog.nonprofits-vernetzt.de/augmented-reality-folgen-fuer-den-sozialraum/</link>
					<comments>http://blog.nonprofits-vernetzt.de/augmented-reality-folgen-fuer-den-sozialraum/#respond</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Mon, 19 Nov 2018 18:37:27 +0000</pubDate>
				<category><![CDATA[Augmented Reality]]></category>
		<category><![CDATA[Macht]]></category>
		<category><![CDATA[Netzwerke]]></category>
		<category><![CDATA[Nonprofit-Organisation]]></category>
		<category><![CDATA[NPO]]></category>
		<category><![CDATA[Plattform]]></category>
		<category><![CDATA[Quartier]]></category>
		<category><![CDATA[AR]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[mixed reality]]></category>
		<category><![CDATA[Sozialraum]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1492</guid>

					<description><![CDATA[Augmented Reality (AR) bedeutet im engen Sinn, dass die reale Welt um digitale Informationen ergänzt wird. Diese Informationen können unterschiedlich abgerufen werden: u.a. über das Smartphone, über AR-Brillen oder als Projektion auf  Windschutzscheiben und in den realen Raum. Grundsätzlich kann alles in der realen Welt um digitale Inhalte ergänzt bzw. erweitert werden: Gebäude, Infrastrukturen, Gegenstände, [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Augmented Reality (AR) bedeutet im engen Sinn, dass die reale Welt um digitale Informationen ergänzt wird. Diese Informationen können unterschiedlich abgerufen werden: u.a. über das Smartphone, über AR-Brillen oder als Projektion auf  Windschutzscheiben und in den realen Raum. Grundsätzlich kann alles in der realen Welt um digitale Inhalte ergänzt bzw. erweitert werden: Gebäude, Infrastrukturen, Gegenstände, Natur, &#8211; aber auch Menschen und deren Interaktionen. Bei der Augmented Reality verschmelzen reale und virtuelle Welt miteinander, deshalb spricht man auch von einer &#8220;mixed reality&#8221;. Wichtig für AR ist der Standort des Nutzers,  denn abhängig von dessen Position im Raum verändern sich die angezeigten Informationen.</p>
<p>Wie wird sich die erweiterte Realität im physikalischen Raum auswirken? Wer darf öffentliche und private Räume mit digitalen Informationen anreichern? Welche Folgen wird AR für Räume im Quartier, die dortigen gemeinnützigen Einrichtungen und die Quartiersvernetzung haben?</p>
<p>Über die Ethik von AR macht sich <a href="https://link.springer.com/article/10.1007/s10676-018-9484-2" target="_blank" rel="noopener">E. Neely (2018)</a> Gedanken. Sie versucht zu klären, wer reale Räume mit digitalen Informationen anreichern darf. Ihr zufolge hängt eine Antwort entscheidend davon ab, ob sich für die erweiterte Realität eine bzw. wenige Plattformen und Apps durchsetzen oder viele konkurrierende. Ist ersteres der Fall, dann sollte bei <em>privaten</em> Räumen der jeweilige Besitzer vorrangig das Recht haben, seinen Raum mit digitalen Informationen anzureichern. Wo für Augmented Reality viele konkurrierende Apps und Plattformen genutzt werden, werden auch private Räume mit vielen unterschiedlichen Erweiterungen ergänzt werden können, ohne dass dies der Besitzer eines Raumes verhindern kann. Im <em>öffentlichen</em> Bereich kann durch AR ein neuer Diskurs begründet werden: Bürger/innen kommen miteinander im realen Raum ins Gespräch, wobei man hier beachten muss, dass die öffentliche Rede via AR länger sichtbar bleibt als das gesprochene Wort. Auch müssen unter Umständen für bestimmte öffentliche Räume Regeln definiert werden, um AR auf dem Niveau von graffitiy oder Spam entfernen zu können.</p>
<p>Aufgrund der negativen Erfahrungen im Zusammenhang mit den sozialen Medien ist damit zu rechnen, dass auch die Augmentierung von Räumen unethisch genutzt werden wird, d.h. dass private und öffentliche Räume erweitert werden mit Inhalten, die beleidigend, rassistisch, gewalttätig  und pornographisch sind:  In der realen Umwelt werden virtuelle &#8220;Aushänge&#8221; mit negativen und polarisierenden Inhalten angebracht. Abschreckende Beispiele finden sich im Text der Autorin (Neely 2018).</p>
<p>Nonprofits im Quartier müssen damit rechnen, dass digitale Informationen, Kommentare und Bewertungen  ihrer Einrichtungen von Dritten mit dem realen Raum verbunden werden, so dass jeder Vorbeikommende, der über die entsprechende AR-Anwendung verfügt, diese Informationen sofort sieht. Grundsätzlich bietet AR so auch die Chance einer besseren Kontaktaufnahme zwischen einer Einrichtung und Bürgern: Wer an einer gemeinnützigen Einrichtung vorbei spaziert  und mit einem Smartphone ausgestattet ist, sieht z.B. an das Haus &#8220;gepinnte&#8221; virtuelle Kontaktdaten und Angebote für Freiwillige. Passanten können bei Interesse direkt mit der Organisation in den Austausch treten, Wände werden durchlässiger. Angebote im Quartier werden so viel besser und unmittelbarer bekannt.</p>
<p>Das derzeitige Problem vieler Quartiere, dass ihre Ressourcen nicht kartiert und allgemein bekannt sind bzw. die Ressourcen untereinander zu wenig verknüpft, könnte AR reduzieren. Die erweiterte Realität bietet die Chance, Einrichtungen und Bürger ganz niedrigschwellig und raumbezogen miteinander zu vernetzen.</p>
<p>Aber es existieren auch &#8211; wie oben erwähnt &#8211; erhebliche Gefahren, wenn sich der Hass und die Desinformation aus den sozialen Medien in realen Räumen lokalisiert. Hinzukommt die zunehmende Individualisierung durch AR: Wenn sich reale und virtuelle Welt zunehmend mischen und jeder &#8211; je nach benutzter Anwendung &#8211; unterschiedliche digitale Informationen  im Raum vorfindet, dann stimmt die Annahme, dass wir alle die selbe Realität teilen, nicht mehr (vgl.<a href="http://digitalcommons.sacredheart.edu/cgi/viewcontent.cgi?article=1083&amp;context=computersci_fac" target="_blank" rel="noopener"> Wolf/Grodzinsky/Miller 2015</a>). Diese Annahme war zwar schon in der Vergangenheit nicht ganz richtig angesichts unterschiedlicher sozialer Herkünfte und unterschiedlichem kulturellen und sozialen Kapital. Aber mit der erweiterten Realität werden die Erfahrungen im Raum nochmals stärker und radikaler individualisiert.</p>
<p>AR-Anwendungen und Plattformen werden eine ganz zentrale Rolle spielen, wenn es um den Blick auf die physikalische Welt geht, denn was wir vor Ort sehen, wird durch die Inhalte dieser Plattformen mitbestimmt werden und ist in deren Besitz. Dies wirft die ethische und politische Frage auf: &#8220;Wem gehört der Raum zwischen unseren Augen und einem Objekt?&#8221; (Wolf/Grodzinsky/Miller 2015). Die Zivilgesellschaft sollte diese Frage ganz dringend diskutieren.</p>
<p>Literatur:</p>
<ul>
<li>Neely, E.L. (2018): Augmented reality, augmented ethics: who has the right to augment a particular space?, in: Ethics and Information Technology, https://doi.org/10.1007/s10676-018-9484-2</li>
<li>Wolf, M.J., Grodzinsky, F.S., Miller K.W. (2015): Augmented Reality All Around Us: Power and Perception at a Crossroads, ACM<br />
Computers and Society, Vol 45 issue 3,  S. 126-131</li>
</ul>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/augmented-reality-folgen-fuer-den-sozialraum/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Wie steht es um die digitalen Kompetenzen der Sozialen Arbeit?</title>
		<link>http://blog.nonprofits-vernetzt.de/wie-steht-es-um-die-digitalen-kompetenzen-der-sozialen-arbeitrbeit/</link>
					<comments>http://blog.nonprofits-vernetzt.de/wie-steht-es-um-die-digitalen-kompetenzen-der-sozialen-arbeitrbeit/#comments</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Wed, 26 Sep 2018 18:23:51 +0000</pubDate>
				<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Mitarbeiter]]></category>
		<category><![CDATA[Nonprofit-Organisation]]></category>
		<category><![CDATA[Profession]]></category>
		<category><![CDATA[soziale Dienste]]></category>
		<category><![CDATA[Sozialarbeit]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1486</guid>

					<description><![CDATA[Wie gut aufgestellt sind hierzulande die Fachkräfte der Sozialen Arbeit, wenn es um die Nutzung digitaler Instrumente im Arbeitsalltag geht? Wie gut kennen sie die Vor- und Nachteile der neuen Technologien? Hat die Profession ethische Standards, um die Herausforderungen der Digitalisierung zu meistern? Welchen Stellenwert nimmt die Auseinandersetzung mit neuen Technologien in den Studiengängen der [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Wie gut aufgestellt sind hierzulande die Fachkräfte der Sozialen Arbeit, wenn es um die Nutzung digitaler Instrumente im Arbeitsalltag geht? Wie gut kennen sie die Vor- und Nachteile der neuen Technologien? Hat die Profession ethische Standards, um die Herausforderungen der Digitalisierung zu meistern? Welchen Stellenwert nimmt die Auseinandersetzung mit neuen Technologien in den Studiengängen der Sozialen Arbeit ein?</p>
<p><a href="https://www.tandfonline.com/doi/abs/10.1080/15228835.2017.1277913?journalCode=wths20" target="_blank" rel="noopener">Zorn und Seelmeyer (2017)</a> bedauern in ihrem Aufsatz, dass IuK-Technologien  im aktuellen <a href="https://www.dgsa.de/ueber-uns/kerncurriculum-soziale-arbeit/" target="_blank" rel="noopener">&#8220;Kerncurriculum Soziale Arbeit&#8221;</a>, entwickelt von der Deutschen Gesellschaft für Soziale Arbeit (2017), keine Rolle spielen. Dabei will das Kerncurriculum der Standard für die Vermittlung der wissenschaftlichen Grundlagen Sozialer Arbeit sein und einen Rahmen formulieren &#8220;welche Studieninhalte in jedem Studiengang der Sozialen Arbeit vorkommen sollten&#8221; (DGSA, Curriculum S. 1).</p>
<p>Im Unterschied dazu haben mehrere amerikanische Verbände der Sozialen Arbeit ebenfalls im Jahr 2017 gemeinsame <a href="https://www.aswb.org/announcements/technology-standards-in-social-work-practice/" target="_blank" rel="noopener">&#8220;Standards for Technology in Social Work Practice&#8221;</a> ausgearbeitet. Insgesamt 55 Standards wurden entwickelt für die Bereiche</p>
<ul>
<li>Öffentlichkeitsarbeit</li>
<li>Soziale Dienstleistungen</li>
<li>Informationsgewinnung, &#8211; verwaltung und -speicherung</li>
<li>Ausbildung und Supervision</li>
</ul>
<p>Aus dieser Standardsammlung möchte ich sieben herausgreifen, um den konzeptionellen Rahmen der Sammlung deutlich zu machen:</p>
<ol>
<li>Sozialarbeiter/innen müssen qualifiziert werden, damit sie die neuen Technologien im Arbeitsalltag sicher, kompetent und ethisch korrekt einsetzen können.  Ausbildung, Beratung, Supervision und Training sollten zur Verfügung stehen, um den technologischen Wandel kontinuierlich zu begleiten und aufzuarbeiten (Standard 2.06, S. 16)</li>
<li>Sozialarbeiter/innen sollten die Vorteile, aber auch die Risiken elektronischer sozialer Dienste genau kennen und im Einzelfall abwägen, ob elektronische Angebote dem Nutzer einen Mehrwert bringen oder ob auf alternative Angebote zurückgegriffen werden sollte (Standard 2.01, S. 11)</li>
<li>Im Umgang mit den Klienten ist nicht nur deren psychosoziale Situation abzufragen, sondern auch deren Umgang mit Technologien: welche Stärken, Bedürfnisse, Risiken und Schwierigkeiten liegen hier vor? &#8220;With the increasing use of technology in society, it is important for social workers to also consider clients&#8217; relationship and comfort with technology&#8221;.  (Standard 2.05, S. 15)</li>
<li>&#8220;Informed Consent&#8221;: Die Nutzer sozialer Dienste müssen durch die Sozialarbeiter/innen über Vorteile und Risiken der elektronischen Dienste aufgeklärt werden. Die Nutzer brauchen einen Entscheidungsspielraum (Standard 2.04, S. 14)</li>
<li>Wenn Sozialarbeiter/innen Social Media nutzen, dann brauchen sie dafür eine Social Media Policy, die auch den Klienten sozialer Dienste bekannt sein muss: &#8220;The social media policy should be reviewed with clients during the initial interview in the social worker-client relationship and revisited and updated as needed&#8221; (Standard 2.10, S. 18)</li>
<li>Wenn Sozialorganisationen neue Technologien einsetzen wollen, dann sollte die Soziale Arbeit darauf drängen, dass hier nicht Wirtschaftlichkeit und Kostenersparnis  im Vordergrund stehen, sondern die Bedürfnisse der Klienten: &#8220;they shall prioritize the needs of their clients&#8221; (Standard 2.17, S. 23)</li>
<li>Zu den Aufgaben der Sozialen Arbeit gehört es auch, den Zugang zu neuen Technologien für ihre Klientel einzufordern, insbesondere für Arme, für Menschen mit Behinderung, für Menschen mit  fehlenden Sprachkenntnissen und solchen, die ungeübt im Umgang mit digitalen Technologien sind. &#8220;Having access to appropriate technology may also be a concern for social workers themselves. Social workers may need to advocate within their organizations and communities to ensure that they have access to technology that is required to perform their jobs effectively.&#8221; (Standard 2.21, S. 26f).</li>
</ol>
<p>Inwieweit ist die hiesige Praxis der Sozialen Arbeit mit solchen Standards vertraut? Inwieweit werden heute schon angehende Sozialarbeiter/innen aller Studienniveaus umfassend auf die digitale Sozialarbeit vorbereitet?</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/wie-steht-es-um-die-digitalen-kompetenzen-der-sozialen-arbeitrbeit/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
		<item>
		<title>Folgen der Digitalisierung für die Koproduktion im Sozialsektor</title>
		<link>http://blog.nonprofits-vernetzt.de/folgen-der-digitalisierung-fuer-die-koproduktion-im-sozialsektor/</link>
					<comments>http://blog.nonprofits-vernetzt.de/folgen-der-digitalisierung-fuer-die-koproduktion-im-sozialsektor/#respond</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Mon, 18 Jun 2018 10:02:20 +0000</pubDate>
				<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Dritter Sektor]]></category>
		<category><![CDATA[Koproduktion]]></category>
		<category><![CDATA[Nonprofit-Organisation]]></category>
		<category><![CDATA[NPO]]></category>
		<category><![CDATA[Partizipation]]></category>
		<category><![CDATA[soziale Dienste]]></category>
		<category><![CDATA[Sozialeinrichtung]]></category>
		<category><![CDATA[digitale Teilhabe]]></category>
		<category><![CDATA[Sozialsektor]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1478</guid>

					<description><![CDATA[Veiko Lember analysiert in seinem aktuellen Aufsatz: „The Increasing Role of Digital Technologies in Co-production“(2018), wie die Digitalisierung die Zusammenarbeit von Bürgern und Institutionen verändert. Er konzentriert sich dabei auf den Bereich der öffentlichen Dienstleistungen. In diesem Blogbeitrag sollen seine Erkenntnisse auf die Sozialwirtschaft übertragen werden, wo Koproduktion eine ganz zentrale Rolle spielt: Ohne die [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Veiko Lember analysiert in seinem aktuellen Aufsatz: <a href="http://technologygovernance.eu/files/main//2017090403424444.pdf" target="_blank" rel="noopener">„The Increasing Role of Digital Technologies in Co-production“(2018)</a>, wie die Digitalisierung die Zusammenarbeit von Bürgern und Institutionen verändert. Er konzentriert sich dabei auf den Bereich der öffentlichen Dienstleistungen.</p>
<p>In diesem Blogbeitrag sollen seine Erkenntnisse auf die Sozialwirtschaft übertragen werden, wo Koproduktion eine ganz zentrale Rolle spielt: Ohne die aktive Beteiligung von Klienten bzw. Nutzern sozialer Dienste können letztere nicht wirklich erfolgreich erbracht werden. Über die Koproduktion im Sozialbereich sind hier im Blog schon einige Artikel veröffentlicht worden, &#8211; wer sich näher informieren möchte recherchiert einfach unter dem Schlagwort <a href="http://blog.nonprofits-vernetzt.de/tag/koproduktion/" target="_blank" rel="noopener">„Koproduktion“</a>.</p>
<p>Veiko Lember geht in seinem Aufsatz davon aus, dass durch die zunehmende Digitalisierung unserer Lebenswelt die etablierten Koproduktionsverfahren im Bereich öffentlicher Dienstleistungen a) <em>ergänzt</em> b) <em>ersetzt</em> oder c) <em>verändert</em> werden. Im Sozialbereich ist also mit folgendem zu rechnen:</p>
<ol>
<li><em>Ergänzung der Koproduktion:</em><br />
Die Digitalisierung hilft sozialen Organisationen dabei, sich mit ihren Nutzern besser zu koordinieren und mehr Informationen bereit zu stellen (Lember 2018, 4). Über Apps wird Hilfe und Beratung geleistet, Bildtelefonie, Videos, Chaträume, Online-Lernprogramme und Online-Coaching helfen Nutzern dabei, ihre Probleme gemeinsam mit der sozialen Profession zu lösen. Nutzer/innen bringen in diese Prozesse ihr eigenes Wissen und auch ihre Daten ein (Gesundheitsdaten, Fitnessdaten, Klienten-Aufzeichnungen usw.). Die Nutzerdaten ergänzen hier die Koproduktion und ersetzen sie nicht wie im Fall einer Automatisierung, die im folgenden Punkt behandelt wird.</li>
<li><em>Ersetzung der Koproduktion:</em><br />
Wenn Klientendaten automatisiert erhoben und ausgewertet werden, wenn dadurch automatisch Dienstleistungsprozesse starten und das Verhalten oder die gesundheitliche Situation von Klienten nicht nur für den Moment analysiert, sondern auch vorausgesagt werden, dann wird die handlungsorientierte und gemeinschaftliche Koproduktion ersetzt durch Technologien (Lember 2018, 6). Dies ist heute schon der Fall im Bereich der Psychiatrie, wo Klienten mit Sensoren und Kameras überwacht werden und auch in der Pflege, wo Sensoren, Smart-Home-Technik, Telemonitoring und Telecare Klienten überwachen und Hilfseinsätze automatisiert ausgelöst werden. Algorithmen helfen bei der Auswertung von Klientendaten und ermöglichen das Vorhersehen von Krisensituationen. In diesem Setting spielt der Nutzer eine komplett <em>passive</em> Rolle .Die Koproduktion kann jedoch auch ersetzt werden durch eine <em>aktive</em> Rolle des Nutzers (Lember 2018, 7). Immer mehr Bürgerinnen und Bürger verabschieden sich von öffentlichen oder gemeinnützigen Dienstleistern und entscheiden sich für die Selbstorganisation. Gemeinsam mit anderen gründen sie Pflege-WGs, Kindertagesstätten, gemeinschaftliches Wohnen für Menschen mit Behinderungen, Hilfsdienste und Nachbarschaftsinitiativen. Die digitalen Technologien und Plattformen helfen Bürgern bei der Selbstorganisation und ersetzen so die traditionellen Koproduktionsprozesse.</li>
<li><em>Veränderung der Koproduktion:</em><br />
Laut Lember (2018, 4) entstehen durch die digitalen Technologien ganz neue Settings in der Zusammenarbeit zwischen Bürgern und Organisationen. Dazu zählen u.a.  das crowdsourcing (Bürgerwissen oder Spenden werden für soziale Organisationen über digitale Plattformen gesammelt), Hackathons (Bürger entwickeln für die Sozialwirtschaft neue digitale Tools) und gamification (über Online-Spiele und Wettbewerbe mit Rankings wird das Nutzerverhalten beeinflusst).</li>
</ol>
<p>Lember kritisiert, dass die im Koproduktionsprozess eingesetzten Technologien zumeist nicht von Bürgern, sondern den Organisationen ausgewählt werden &#8211; auch im Sozialbereich. Es sind damit die Organisationen, die bestimmen, was? wie? erhoben und angeboten wird. Die eingesetzten Technologien sind zumeist im Besitz von privaten Unternehmen. Hier sammeln sich Macht und Intransparenz.</p>
<p>Viele der digitalen Angebote gehen am Bedarf der Nutzer/innen vorbei, weil diese kein Mitspracherecht haben und auch soziale Organisationen können ihr Wissen gegenüber den Experten aus Wirtschaft, Wissenschaft und Technik, die viele der digitalen Angebote entwickeln, zumeist nicht durchsetzen. Dies zeigt sich deutlich in der Pflege, siehe die Studie <a href="https://www.dip.de/fileadmin/data/pdf/projekte/BMG_ePflege_Abschlussbericht_final.pdf" target="_blank" rel="noopener">ePflege</a> aus dem Jahr 2017. Auch die Exklusion von Nutzern spricht Veiko Lember an (2018, 9), &#8211; Menschen, die Schwierigkeiten im Umgang mit digitalen Technologien haben und an der digitalen Koproduktion deshalb nicht mitwirken können.</p>
<p>Soll die Koproduktion mit Hilfe digitaler Technologien auf Akzeptanz stoßen, müssen die Nutzer/innen <em>Mitsprachemöglichkeiten</em> haben, wenn es um die Auswahl und Ausgestaltung der Technologien geht. Dass im Alltag sehr häufig top down-Technologien eingesetzt werden, zeigt auch der <a href="http://blog.nonprofits-vernetzt.de/smart-city-smarte-partizipation/" target="_blank" rel="noopener">letzte Blogbeitrag</a> über Cardullo/Kitchins Studie zum Thema Partizipation in der Smart City (2017).</p>
<p><em>Digitale Teilhabe</em> muss auch in der Sozialwirtschaft ein wichtiges Thema werden. Bastian Pelka schildert in seinem Aufsatz für den Sammelband von <a href="http://nomos-shop.de/Kreidenweis-Digitaler-Wandel-Sozialwirtschaft/productview.aspx?product=30116" target="_blank" rel="noopener">Kreidenweis (2018): &#8220;Digitaler Wandel in der Sozialwirtschaft&#8221;</a> einige Partizipationsprojekte (<a href="http://piksl.net/" target="_blank" rel="noopener">PIKSL</a>, MakerSpaces, FabLabs). Aber die digitale Teilhabe muss auch im Verhältnis Sozialorganisation und Nutzer/innen etabliert werden, nicht nur im Hinblick auf die Stellung des einzelnen in der digitalen Gesellschaft.</p>
<p><strong>Literatur:</strong><br />
Lember, Veiko (2018): The role of new technologies in co-production, in: Brandsen, T./Steen, T. /Verschuere, B. (Hrsg): Co-production and co-creation: engaging citizens in public service delivery. Routledge, im Erscheinen.</p>
<p>Pelka, Bastian (2018): Digitale Teilhabe: Aufgaben der Verbände und Einrichtungen der Wohlfahrtspflege, in: Kreidenweis, Helmut (Hrsg): Digitaler Wandel in der Sozialwirtschaft, Baden-Baden: Nomos</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/folgen-der-digitalisierung-fuer-die-koproduktion-im-sozialsektor/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Smart City &#8211; Smarte Partizipation?</title>
		<link>http://blog.nonprofits-vernetzt.de/smart-city-smarte-partizipation/</link>
					<comments>http://blog.nonprofits-vernetzt.de/smart-city-smarte-partizipation/#comments</comments>
		
		<dc:creator><![CDATA[Brigitte Reiser]]></dc:creator>
		<pubDate>Tue, 15 May 2018 08:53:00 +0000</pubDate>
				<category><![CDATA[Bürgergesellschaft]]></category>
		<category><![CDATA[Digitalisierung]]></category>
		<category><![CDATA[Partizipation]]></category>
		<category><![CDATA[Quartier]]></category>
		<category><![CDATA[Stadtentwicklung]]></category>
		<category><![CDATA[Smart City]]></category>
		<category><![CDATA[Zivilgesellschaft]]></category>
		<guid isPermaLink="false">http://blog.nonprofits-vernetzt.de/?p=1457</guid>

					<description><![CDATA[Immer mehr Städte wollen sich zu einer &#8220;Smart City&#8221; weiterentwickeln, in der die städtische Infrastruktur, Einrichtungen und Dienste, Dinge und Menschen mit IuK-Technologien ausgerüstet und untereinander vernetzt sind. Ziel ist eine intelligente und nachhaltige Steuerung der Versorgungsströme in der Stadt: Energie, Wasser, Transport, die Versorgung der Bürger in den Quartieren, &#8211; alles soll so ressourcenschonend [&#8230;]]]></description>
										<content:encoded><![CDATA[<p>Immer mehr Städte wollen sich zu einer &#8220;Smart City&#8221; weiterentwickeln, in der die städtische Infrastruktur, Einrichtungen und Dienste, Dinge und Menschen mit IuK-Technologien ausgerüstet und untereinander vernetzt sind. Ziel ist eine intelligente und nachhaltige Steuerung der Versorgungsströme in der Stadt: Energie, Wasser, Transport, die Versorgung der Bürger in den Quartieren, &#8211; alles soll so ressourcenschonend wie möglich und optimal aufeinander abgestimmt erfolgen. Durch die Weiterentwicklung zu einer Smart City wollen sich die Kommunen auch im wirtschaftlichen Konkurrenzkampf der Städte untereinander behaupten.</p>
<p>Smart City-Konzepte beziehen diverse Dimensionen einer Stadt in die Digitalisierung ein. Sie zielen auf: Smart Governance, Smart Citizens, Smart Education, Smart Living, Smart Mobility, Smart Environment und Smart Economy (Meier/Zimmermann, 2016).  Initiiert wurden Smart City-Konzepte von IT-Unternehmen, Universitäten, Regional- und Kommunalverwaltungen und der Politik. Die Entwicklung hin zu einer Smart City gilt als rational, wirtschaftlich und als gut für die Bevölkerung. Es handelt sich um Konzepte, die den Fokus auf Technologien legen und damit eher entpolitisiert sind. Zumeist sind sie deterministisch angelegt, d.h. ihnen zufolge wird die Smarte Stadt kommen, &#8211; sie ist sozusagen &#8220;unausweichlich&#8221; ( <a href="http://journals.sagepub.com/doi/full/10.1177/0042098017747857" target="_blank" rel="noopener">Valdez/Cook/Potter 2018</a>). Als  &#8220;Top Performer&#8221; unter den europäischen Städten gelten Amsterdam, Barcelona, Kopenhagen, Helsinki, Manchester und Wien.</p>
<p>Smart City-Konzepte haben massive Auswirkungen auf die lokale Zivilgesellschaft. Deren Rolle wird wie folgt beschrieben: &#8220;Die Smart City bringt eine besondere Form der Zivilgesellschaft hervor: Bürgerinnen und Bürger sind sozial vernetzt und überzeugt, dass sie ihr Leben durch technische Innovationen besser gestalten können&#8221;(Meier/Zimmermann 2016, 5). Während zu Beginn der Smart City-Debatte Bürgerinnen und Bürger keine besondere Rolle spielten, wird zwischenzeitlich großen Wert auf die Partizipation der Bürgerschaft gelegt, auf deren Mitwirkung an der Co-Creation und Coproduction von Smart City-Produkten und -Diensten.</p>
<p>Wie sehen Partizipations-Projekte in der  Smart City aus? Wie sehr können Bürgerinnen und Bürger teilhaben? Hierzu gibt es nur sehr wenig Literatur. Eine inspirierende Analyse liefern <a href="https://osf.io/preprints/socarxiv/v24jn" target="_blank" rel="noopener">Cardullo/Kitchin (2017): &#8221; Being a &#8216;citizen&#8217; in the smart city: Up and down the scaffold of smart citizen participation&#8221;</a>. Die Studie untersucht anhand von Smart City-Initiativen in Dublin, wie die lokale Bürgerschaft einbezogen wird.</p>
<p>Die Autoren benutzen als Analyse-Instrument die &#8220;ladder of citizen participation in planning&#8221; von Arnstein (1969), die auf den drei Stufen</p>
<ul>
<li>Nicht-Partizipation</li>
<li>Schein-Beteiligung</li>
<li>echte Partizipation mit Bürgermacht und -kontrolle</li>
</ul>
<p>basiert. Cardullo/Kitchin erweitern dieses Raster jedoch erheblich: sie fügen eine neue Stufe ein (&#8220;Consumerism&#8221;), bestimmen mögliche Rollen eines Bürgers in der Smart City (Datenpunkt, Nutzer, Produkt, Konsument, Bewohner,  Vorschlagender, Co-Creator usw.). Sie listen auf, wie Bürger eingebunden werden können (als Feedbackgeber, als Konsument oder nur als Subjekt, das gesteuert und kontrolliert wird). Die Autoren beschreiben den politischen Rahmen von Smart City-Diskursen und deren Richtung (top down oder bottom up), wie bspw: Paternalismus, Neoliberalismus, Bürgerschaftliches Engagement, Deliberative Demokratie usw. Und schließlich ordnen sie den unterschiedlichen Stufen rund 20 praktische Smart City-Initiativen in Dublin zu.</p>
<p>Das Fazit von Cardullo und Kitchin: es dominieren in der Praxis top down-Beteiligungsverfahren, bei denen die Rolle des Bürgers die eines Konsumenten ist, der aus unterschiedlichen smarten Angeboten auswählt oder in einem smarten Haus / Viertel lebt. Ferner sind Bürger selbst &#8220;Produkte&#8221;, indem sie durch die Nutzung smarter Angebote Daten generieren, bewusst oder unbewusst bzw. automatisiert. Es gibt den Autoren zufolge nur wenig Beispiele, wo Bürger auf Augenhöhe mit den Smart City-Verantwortlichen agieren oder wo Bürger selbst Initiativen zum Thema gründen.</p>
<p>Generell verfolgen Beteiligungsprojekte in der Smart City eher instrumentelle Ziele (Feedback zu bestimmten Plänen einholen, Programmierung einer App usw.).<br />
Es fehlt ein begleitender Diskurs zum Thema Bürgerrechte und über Alternativen zur Smart City.</p>
<p>Literatur, wenn nicht verlinkt:</p>
<p>Meier/Zimmermann (2016): Digitales Entwicklungsmodell smarter Städte, in: Meier/Portmann (Hrsg.): Smart City, Wiesbaden: Springer.</p>
]]></content:encoded>
					
					<wfw:commentRss>http://blog.nonprofits-vernetzt.de/smart-city-smarte-partizipation/feed/</wfw:commentRss>
			<slash:comments>1</slash:comments>
		
		
			</item>
	</channel>
</rss>
