Es braucht einen verantwortungsvollen Umgang mit KI und Robotik, um Risiken zu minimieren. Schließlich soll die Technik dem Menschen dienen, anstatt ihm die Freiheit zu nehmen und ihn abhängig zu machen. Wie könnte das aussehen; und an welchen Lösungen wird derzeit gearbeitet?
Es geht darum, ethische, soziale und technische Regeln festzulegen [1]. Wir müssen uns fragen, inwieweit wir Verantwortung an Maschinen abgeben wollen. Der Mensch sollte immer noch verantwortliches Subjekt bleiben – oder wollen wir eine Zukunft, in der wir gar nicht mehr wissen, wie Entscheidungen zustande gekommen sind, obwohl wir diese dann zu verantworten haben? Wichtig ist zum Beispiel die Frage, wer bei Schäden haftet, die autonome Roboter verursachen. Mindestens genauso bedeutend ist der Datenschutz. In Bezug auf Pflegeroboter sollten persönliche Daten, die von Geräten und Robotern gemessen und gespeichert werden, nur den Patienten selbst, den Ärzten und dem Pflegepersonal zugänglich sein.
Der Deutsche Ethikrat steht dem Einsatz von Robotern und KI positiv gegenüber, doch brauche es dazu gewisse Bedingungen [2]. So dürfen Roboter in der Pflege auf keinen Fall die menschliche Zuwendung ersetzen oder gegen den Willen der PatientInnen eingesetzt werden. Auch dürfen Roboter nicht dazu verwendet werden, Personalengpässe zu kompensieren. Laut der Pflegewissenschaftlerin Maria Schubert müsse der Einsatz von Robotern genau definiert werden [3] – das Personal soll dabei mitbestimmen. Man könnte den Einsatz der Pflegeroboter auf wiederkehrende mechanische Arbeit begrenzen. Damit hätte das Personal auch mehr Zeit für persönliche Zuwendung zu den Pflegebedürftigen.
Bereits jetzt werden vielen Robotern ethische Werte „eingepflanzt“. Selbst ein Staubsauger-Roboter steht vor moralischen Entscheidungen (Soll er eine Spinne einsaugen oder umfahren? Was ist mit einem Marienkäfer etc.?), so Janina Loh, Roboterethikerin an der Universität Wien [4]. Entscheidungen, die KI trifft, sollten nicht abseits von Moral, ethischen Grundhaltungen und gesetzlichen Regeln erfolgen. Seit Mai 2018 ist die Datenschutz-Grundverordnung der Sockel des allgemeinen Datenschutzrechts in der EU und in Österreich. Diesen Standard gilt es, stetig auf neu hinzukommende Bereiche auszuweiten.
Die Europäische Kommission veröffentlichte im Jahr 2019 Ethikleitlinien für vertrauenswürdige KI [5].Dabei geht es unter anderem um die Verwendung ausbalancierter Datensätze, die gesellschaftliche Diversität berücksichtigen. Bezüglich Transparenz wird gefordert, dass Ergebnisse, auf die KI gekommen ist, im Rahmen einer sogenannten „Explainable AI“ für Menschen nachvollziehbar aufbereitet werden. Neben einer Festlegung a priori, wer die Verantwortung für KI-Systeme innehat, soll der Mensch immer die Möglichkeit haben, zu intervenieren, also auch ein System unterbrechen können. Letztlich muss sich der Einsatz von KI an den Grundwerten wie Freiheit, Gerechtigkeit, Solidarität, Toleranz und Pluralismus orientieren und diese fördern. In puncto Datenschutz sollen BürgerInnen vollständige Kontrolle über ihre eigenen Daten behalten, welche nicht dazu verwendet werden dürfen, sie zu schädigen oder zu diskriminieren [6].
Bestehende Gesetze müssten überprüft und an die Spezifika künstlicher Intelligenz angepasst werden, meint der Jurist Axel Walz vom Max-Planck-Institut für Innovation und Wettbewerb [7]. Seiner Meinung nach wäre eine Debatte über rote Linien sinnvoll – also inwieweit bestimmte Produkte überhaupt mit KI ausgestattet werden dürfen. Auch Walz spricht vom Ziel eines Transparenzstandards, der garantieren soll, dass die Programmierung der Algorithmen so erfolgt, dass Menschen jederzeit nachvollziehen können, welche Daten verwendet wurden und wie ein bestimmtes Ergebnis zustande gekommen ist.
Walz sieht im Einsatz von androiden Robotern, also Robotern, die stark menschliche Züge aufweisen, aufgrund der Objektivierung des Menschen einen Verstoß gegen Artikel 1 des Grundgesetzes. Auch der Roboterentwickler Claude Toussaint warnt davor, Robotern ein zu menschliches Aussehen zu geben – denn dann bekämen viele Menschen Angst, da sie nicht einschätzen können, ob das Gegenüber Roboter oder Mensch ist [8].
Die französische nationale Datenschutzbehörde CNIL empfahl unter anderem die Einrichtung einer nationalen Plattform für das Auditieren von Software und eine Verstärkung der Anreize für das Erforschen von ethischer KI [9]. Außerdem sollen sich Unternehmen dem Thema Ethik stärker annehmen, beispielsweise durch Ethik-Kommissionen oder Ethik-Kodizes. Bezüglich der Menge an Informationen und deren Korrektheit, sollte man Softwareergebnissen gegenüber eine kritische Haltung bewahren und kein übermäßiges Vertrauen in Entscheidungen von KI-Systemen entwickeln.
Im Mittelpunkt der „Strategien für Daten und künstliche Intelligenz“ der EU-Kommission steht das Whitepaper zur künstlichen Intelligenz [10]. Damit soll ein allgemeiner Rechtsrahmen für die Entwicklung und Umsetzung von KI-Anwendungen geschaffen werden. Hier wird beispielsweise die menschliche Aufsicht hervorgehoben: Von KI-Systemen erarbeitete Ergebnisse sollen erst dann wirksam werden, wenn sie von einem Menschen überprüft wurden – oder wenn menschliche Intervention später sichergestellt wird. Außerdem soll berücksichtigt werden, dass sich KI-Systeme weiterentwickeln und lernfähig seien, weshalb erneute Überprüfungen notwendig werden können.
Im Programm der österreichischen Regierung ist von Rahmenbedingungen für die Entwicklung und den Einsatz von KI bei gleichzeitigem Schutz der Menschenwürde die Rede [11]. So sollen etwa Verwaltungsentscheidungen maschinell unterstützt, aber nicht allein durch Maschinen getroffen werden dürfen. Die Datenschutzbehörde soll mit den erforderlichen personellen und finanziellen Mitteln ausgestattet werden; auch eine Prüf- und Beratungsstelle für IT- und Cybersicherheit soll eingeführt werden. Des Weiteren ist von der Förderung eines KI- und Ethikrats die Rede sowie von der Unterbindung der Herstellung KI-gesteuerter Waffen weltweit.
Die erwähnten Strategien sind derzeit nur Empfehlungen, keine Gesetze, und sind oft noch schwammig formuliert. Was jede/r Einzelne auf jeden Fall tun kann: sich eine kritische Haltung antrainieren und Daten nicht leichtfertig preisgeben.Da sehr viele Menschen noch zu blauäugig im Umgang mit KI sind,wird auch mehr Aufklärung und Information darüber nötig sein.
[1] vgl. https://kurier.at/politik/inland/wenn-der-pfleger-einfach-piept/400376612 (Zugriff 12.5. 2020)
[2] vgl. https://www.tagesschau.de/inland/pflege-roboter-101.html (Zugriff 12.5.2020)
[3] vgl. https://impact.zhaw.ch/detail/robotik-in-pflege-und-therapie-der-neue-stationskollege-kennt-keinen-stress (Zugriff 12.5.2020)
[4] vgl. https://oe1.orf.at/artikel/666715/Alexa-Siri-und-die-Ethik (Zugriff 12.5.2020)
[5] vgl. https://www.retresco.de/ethische-ki/ (Zugriff 14.5.2020)
[6] vgl. https://ec.europa.eu/commission/presscorner/detail/de/IP_19_1893 (Zugriff 15.5.2020)
[7] vgl. https://www.mpg.de/12290850/regeln-fuer-roboter (Zugriff 14.5.2020)
[8] vgl. https://www.deutschlandfunk.de/technikethik-in-der-pflege-ein-roboter-zum-reden.886.de.html?dram:article_id=448612 (Zugriff 14.5.2020)
[9] vgl. https://netzpolitik.org/2018/ethische-fragen-bei-kuenstlicher-intelligenz-mit-welchen-herausforderungen-muessen-wir-umgehen/ (Zugriff 14.5.2020)
[10] vgl. https://www.datenschutz-notizen.de/die-eu-kommission-stellt-das-whitepaper-zur-ki-vor-ein-grosser-wurf-0724849/ (Zugriff 14.5.2020) Das Whitepaper zur KI stand bis zum 19. Mai 2020 zur öffentlichen Konsultation bereit.
[11] vgl. Regierungsprogramm 2020-2024: https://www.bundeskanzleramt.gv.at/bundeskanzleramt/die-bundesregierung/regierungsdokumente.html (S. 222 sowie S. 225-226 – abgerufen am 17.5.2020)