{"id":4042,"date":"2020-06-10T08:53:33","date_gmt":"2020-06-10T06:53:33","guid":{"rendered":"http:\/\/podcampus.phwien.ac.at\/digimed\/?p=4042"},"modified":"2020-06-10T08:53:33","modified_gmt":"2020-06-10T06:53:33","slug":"verantwortungsvoller-umgang-mit-ki","status":"publish","type":"post","link":"https:\/\/digimed.phwien.ac.at\/?p=4042","title":{"rendered":"Verantwortungsvoller Umgang mit KI"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large is-style-default\"><img decoding=\"async\" src=\"https:\/\/cdn.pixabay.com\/photo\/2018\/09\/18\/10\/48\/hand-3685829_960_720.jpg\" alt=\"\" \/><figcaption>Quelle: pixabay.com<br><\/figcaption><\/figure>\n\n\n\n<p>Es braucht einen verantwortungsvollen Umgang mit KI und Robotik, um Risiken zu minimieren. Schlie\u00dflich soll die Technik dem Menschen dienen, anstatt ihm die Freiheit zu nehmen und ihn abh\u00e4ngig zu machen. Wie k\u00f6nnte das aussehen; und an welchen L\u00f6sungen wird derzeit gearbeitet?<\/p>\n\n\n\n<p>Es geht darum, <strong>ethische, soziale und technische Regeln<\/strong> festzulegen <a href=\"#_ftn1\">[1]<\/a>. Wir m\u00fcssen uns fragen, inwieweit wir Verantwortung an Maschinen abgeben wollen. Der Mensch sollte immer noch <strong>verantwortliches Subjekt bleiben<\/strong> \u2013 oder wollen wir eine Zukunft, in der wir gar nicht mehr wissen, wie Entscheidungen zustande gekommen sind, obwohl wir diese dann zu verantworten haben? Wichtig ist zum Beispiel die Frage, wer bei Sch\u00e4den haftet, die autonome Roboter verursachen. Mindestens genauso bedeutend ist der <strong>Datenschutz<\/strong>. In Bezug auf Pflegeroboter sollten pers\u00f6nliche Daten, die von Ger\u00e4ten und Robotern gemessen und gespeichert werden, nur den Patienten selbst, den \u00c4rzten und dem Pflegepersonal zug\u00e4nglich sein.<\/p>\n\n\n\n<p>Der Deutsche Ethikrat steht dem Einsatz von Robotern und KI positiv gegen\u00fcber, doch brauche es dazu gewisse Bedingungen <a href=\"#_ftn2\">[2]<\/a>. So d\u00fcrfen Roboter in der Pflege auf keinen Fall die menschliche Zuwendung ersetzen oder gegen den Willen der PatientInnen eingesetzt werden. Auch d\u00fcrfen Roboter nicht dazu verwendet werden, Personalengp\u00e4sse zu kompensieren. Laut der Pflegewissenschaftlerin Maria Schubert m\u00fcsse der <strong>Einsatz<\/strong> von Robotern genau<strong> definiert<\/strong> werden <a href=\"#_ftn3\">[3]<\/a> &#8211; das Personal soll dabei mitbestimmen. Man k\u00f6nnte den Einsatz der Pflegeroboter auf wiederkehrende mechanische Arbeit <strong>begrenzen. <\/strong>Damit h\u00e4tte das Personal auch mehr Zeit f\u00fcr pers\u00f6nliche Zuwendung zu den Pflegebed\u00fcrftigen.<\/p>\n\n\n\n<p>Bereits jetzt werden vielen Robotern <strong>ethische Werte<\/strong> <strong>\u201eeingepflanzt\u201c<\/strong>. Selbst ein Staubsauger-Roboter steht vor moralischen Entscheidungen (Soll er eine Spinne einsaugen oder umfahren? Was ist mit einem Marienk\u00e4fer etc.?), so Janina Loh, Roboterethikerin an der Universit\u00e4t Wien <a href=\"#_ftn4\">[4]<\/a>. Entscheidungen, die KI trifft, sollten nicht abseits von Moral, ethischen Grundhaltungen und gesetzlichen Regeln erfolgen. Seit Mai 2018 ist die <strong>Datenschutz-Grundverordnung<\/strong> der Sockel des allgemeinen Datenschutzrechts in der EU und in \u00d6sterreich. Diesen Standard gilt es, stetig auf neu hinzukommende Bereiche <strong>auszuweiten<\/strong>.<\/p>\n\n\n\n<p>Die Europ\u00e4ische Kommission ver\u00f6ffentlichte im Jahr 2019 <strong>Ethikleitlinien f\u00fcr vertrauensw\u00fcrdige KI<\/strong><a href=\"#_ftn5\"> [5]<\/a>.Dabei geht es unter anderem um die Verwendung ausbalancierter Datens\u00e4tze, die gesellschaftliche Diversit\u00e4t ber\u00fccksichtigen. Bez\u00fcglich <strong>Transparenz <\/strong>wird gefordert, dass Ergebnisse, auf die KI gekommen ist, im Rahmen einer sogenannten <strong>\u201eExplainable AI<\/strong>\u201c&nbsp;f\u00fcr Menschen nachvollziehbar aufbereitet werden. Neben einer Festlegung a priori, wer die Verantwortung f\u00fcr KI-Systeme innehat, soll der Mensch immer die M\u00f6glichkeit haben, zu<strong> intervenieren<\/strong>, also auch ein System unterbrechen k\u00f6nnen.&nbsp; Letztlich muss sich der Einsatz von KI an den Grundwerten wie Freiheit, Gerechtigkeit, Solidarit\u00e4t, Toleranz und Pluralismus orientieren und diese f\u00f6rdern.<strong> <\/strong>In puncto <strong>Datenschutz<\/strong> sollen B\u00fcrgerInnen vollst\u00e4ndige Kontrolle \u00fcber ihre eigenen Daten behalten, welche nicht dazu verwendet werden d\u00fcrfen, sie zu sch\u00e4digen oder zu diskriminieren <a href=\"#_ftn6\">[6]<\/a>.<\/p>\n\n\n\n<p>Bestehende <strong>Gesetze<\/strong> m\u00fcssten \u00fcberpr\u00fcft und an die Spezifika k\u00fcnstlicher Intelligenz angepasst werden, meint der Jurist Axel Walz vom Max-Planck-Institut f\u00fcr Innovation und Wettbewerb <a href=\"#_ftn7\">[7]<\/a>. Seiner Meinung nach w\u00e4re eine Debatte \u00fcber <strong>rote Linien<\/strong> sinnvoll \u2013 also inwieweit bestimmte Produkte \u00fcberhaupt mit KI ausgestattet werden d\u00fcrfen. Auch Walz spricht vom Ziel eines <strong>Transparenzstandards<\/strong>, der garantieren soll, dass die <strong>Programmierung der Algorithmen<\/strong>&nbsp; so erfolgt, dass Menschen jederzeit nachvollziehen k\u00f6nnen, welche Daten verwendet wurden und wie ein bestimmtes Ergebnis zustande gekommen ist.<\/p>\n\n\n\n<p>Walz sieht im Einsatz von <strong>androiden Robotern<\/strong>, also Robotern, die stark menschliche Z\u00fcge aufweisen, aufgrund der Objektivierung des Menschen einen Versto\u00df gegen Artikel 1 des Grundgesetzes. Auch der Roboterentwickler Claude Toussaint warnt davor, Robotern ein zu menschliches Aussehen zu geben \u2013 denn dann bek\u00e4men viele Menschen Angst, da sie nicht einsch\u00e4tzen k\u00f6nnen, ob das Gegen\u00fcber Roboter oder Mensch ist <a href=\"#_ftn8\">[8]<\/a>.<\/p>\n\n\n\n<p>Die franz\u00f6sische nationale Datenschutzbeh\u00f6rde CNIL empfahl unter anderem die Einrichtung einer nationalen Plattform f\u00fcr das <strong>Auditieren von Software<\/strong> und eine Verst\u00e4rkung der Anreize f\u00fcr das <strong>Erforschen von ethischer KI<\/strong><a href=\"#_ftn9\"> [9]<\/a>. Au\u00dferdem sollen sich Unternehmen dem Thema&nbsp; Ethik st\u00e4rker annehmen, beispielsweise durch Ethik-Kommissionen oder Ethik-Kodizes. Bez\u00fcglich der Menge an Informationen und deren Korrektheit, sollte man Softwareergebnissen gegen\u00fcber eine <strong>kritische Haltung<\/strong> bewahren und kein \u00fcberm\u00e4\u00dfiges Vertrauen in Entscheidungen von KI-Systemen entwickeln.<\/p>\n\n\n\n<p>Im Mittelpunkt der \u201eStrategien f\u00fcr Daten und k\u00fcnstliche Intelligenz\u201c&nbsp; der EU-Kommission steht das <strong>Whitepaper zur k\u00fcnstlichen Intelligenz<\/strong><a href=\"#_ftn10\"> <\/a><a href=\"#_ftn10\">[10]<\/a>. Damit soll ein allgemeiner Rechtsrahmen f\u00fcr die Entwicklung und Umsetzung von KI-Anwendungen geschaffen werden. Hier wird beispielsweise die <strong>menschliche Aufsicht<\/strong> hervorgehoben: Von KI-Systemen erarbeitete Ergebnisse sollen erst dann wirksam werden, wenn sie von einem Menschen \u00fcberpr\u00fcft wurden \u2013 oder wenn menschliche Intervention sp\u00e4ter sichergestellt wird. Au\u00dferdem soll ber\u00fccksichtigt werden, dass sich KI-Systeme weiterentwickeln und lernf\u00e4hig seien, weshalb <strong>erneute<\/strong> <strong>\u00dcberpr\u00fcfungen<\/strong> notwendig werden k\u00f6nnen.<\/p>\n\n\n\n<p>Im Programm der <strong>\u00f6sterreichischen Regierung<\/strong> ist von Rahmenbedingungen f\u00fcr die Entwicklung und den Einsatz von KI bei gleichzeitigem Schutz der Menschenw\u00fcrde die Rede <a href=\"#_ftn11\">[11]<\/a>. So sollen etwa <strong>Verwaltungsentscheidungen<\/strong> maschinell unterst\u00fctzt, aber <strong>nicht allein durch Maschinen getroffen<\/strong> werden d\u00fcrfen. Die Datenschutzbeh\u00f6rde soll mit den erforderlichen personellen und finanziellen Mitteln ausgestattet werden; auch eine Pr\u00fcf- und Beratungsstelle f\u00fcr IT- und Cybersicherheit soll eingef\u00fchrt werden. Des Weiteren ist von der F\u00f6rderung eines <strong>KI- und Ethikrats<\/strong> die Rede sowie von der Unterbindung der Herstellung KI-gesteuerter Waffen weltweit.  <\/p>\n\n\n\n<p>Die erw\u00e4hnten Strategien sind derzeit nur Empfehlungen, keine Gesetze, und sind oft noch schwammig formuliert. Was jede\/r Einzelne auf jeden Fall tun kann: sich eine kritische Haltung antrainieren und Daten nicht leichtfertig preisgeben.Da sehr viele Menschen noch zu blau\u00e4ugig im Umgang mit KI sind,wird auch mehr Aufkl\u00e4rung und Information dar\u00fcber n\u00f6tig sein.<\/p>\n\n\n\n<hr class=\"wp-block-separator\" \/>\n\n\n\n<p><a href=\"#_ftnref1\">[1]<\/a> vgl. <a href=\"https:\/\/kurier.at\/politik\/inland\/wenn-der-pfleger-einfach-piept\/400376612\">https:\/\/kurier.at\/politik\/inland\/wenn-der-pfleger-einfach-piept\/400376612<\/a> (Zugriff 12.5. 2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref2\">[2]<\/a> vgl. <a href=\"https:\/\/www.tagesschau.de\/inland\/pflege-roboter-101.html\">https:\/\/www.tagesschau.de\/inland\/pflege-roboter-101.html<\/a> (Zugriff 12.5.2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref3\">[3]<\/a> vgl. <a href=\"https:\/\/impact.zhaw.ch\/detail\/robotik-in-pflege-und-therapie-der-neue-stationskollege-kennt-keinen-stress\">https:\/\/impact.zhaw.ch\/detail\/robotik-in-pflege-und-therapie-der-neue-stationskollege-kennt-keinen-stress<\/a> (Zugriff 12.5.2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref4\">[4]<\/a> vgl. <a href=\"https:\/\/oe1.orf.at\/artikel\/666715\/Alexa-Siri-und-die-Ethik\">https:\/\/oe1.orf.at\/artikel\/666715\/Alexa-Siri-und-die-Ethik<\/a> (Zugriff 12.5.2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref5\">[5]<\/a> vgl. <a href=\"https:\/\/www.retresco.de\/ethische-ki\/\">https:\/\/www.retresco.de\/ethische-ki\/<\/a> (Zugriff 14.5.2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref6\">[6]<\/a> vgl. <a href=\"https:\/\/ec.europa.eu\/commission\/presscorner\/detail\/de\/IP_19_1893\">https:\/\/ec.europa.eu\/commission\/presscorner\/detail\/de\/IP_19_1893<\/a> (Zugriff 15.5.2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref7\">[7]<\/a> vgl. <a href=\"https:\/\/www.mpg.de\/12290850\/regeln-fuer-roboter\">https:\/\/www.mpg.de\/12290850\/regeln-fuer-roboter<\/a> (Zugriff 14.5.2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref8\">[8]<\/a> vgl. <a href=\"https:\/\/www.deutschlandfunk.de\/technikethik-in-der-pflege-ein-roboter-zum-reden.886.de.html?dram:article_id=448612\">https:\/\/www.deutschlandfunk.de\/technikethik-in-der-pflege-ein-roboter-zum-reden.886.de.html?dram:article_id=448612<\/a> (Zugriff 14.5.2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref9\">[9]<\/a> vgl. <a href=\"https:\/\/netzpolitik.org\/2018\/ethische-fragen-bei-kuenstlicher-intelligenz-mit-welchen-herausforderungen-muessen-wir-umgehen\/\">https:\/\/netzpolitik.org\/2018\/ethische-fragen-bei-kuenstlicher-intelligenz-mit-welchen-herausforderungen-muessen-wir-umgehen\/<\/a> (Zugriff 14.5.2020)<\/p>\n\n\n\n<p><a href=\"#_ftnref10\">[10]<\/a> vgl. <a href=\"https:\/\/www.datenschutz-notizen.de\/die-eu-kommission-stellt-das-whitepaper-zur-ki-vor-ein-grosser-wurf-0724849\/\">https:\/\/www.datenschutz-notizen.de\/die-eu-kommission-stellt-das-whitepaper-zur-ki-vor-ein-grosser-wurf-0724849\/<\/a> (Zugriff 14.5.2020) Das Whitepaper zur KI stand bis zum 19. Mai 2020 zur \u00f6ffentlichen Konsultation bereit.<\/p>\n\n\n\n<p><a href=\"#_ftnref11\">[11]<\/a> vgl. Regierungsprogramm 2020-2024: <a href=\"https:\/\/www.bundeskanzleramt.gv.at\/bundeskanzleramt\/die-bundesregierung\/regierungsdokumente.html\">https:\/\/www.bundeskanzleramt.gv.at\/bundeskanzleramt\/die-bundesregierung\/regierungsdokumente.html<\/a> (S. 222 sowie S. 225-226 \u2013 abgerufen am 17.5.2020)<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Es braucht einen verantwortungsvollen Umgang mit KI und Robotik, um Risiken zu minimieren. Schlie\u00dflich soll die Technik dem Menschen dienen, anstatt ihm die Freiheit zu nehmen und ihn abh\u00e4ngig zu machen. Wie k\u00f6nnte das aussehen; und an welchen L\u00f6sungen wird <span class=\"readmore\"><a href=\"https:\/\/digimed.phwien.ac.at\/?p=4042\">Continue Reading<\/a><\/span><\/p>\n","protected":false},"author":81,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[34,27],"tags":[439,425,197,210,290],"class_list":["post-4042","post","type-post","status-publish","format-standard","hentry","category-ki","category-wissens-und-informationsgesellschaft","tag-ethische-ki","tag-iwg-2-20","tag-ki","tag-kuenstliche-intelligenz","tag-robotik"],"_links":{"self":[{"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=\/wp\/v2\/posts\/4042","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=\/wp\/v2\/users\/81"}],"replies":[{"embeddable":true,"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=4042"}],"version-history":[{"count":0,"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=\/wp\/v2\/posts\/4042\/revisions"}],"wp:attachment":[{"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=4042"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=4042"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/digimed.phwien.ac.at\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=4042"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}