«Der Verlust der Menschlichkeit wäre ein echtes Problem»

Der Einsatz von künstlicher Intelligenz erscheint als Lösung in Zeiten des Pflegenotstands. Doch wie ist er aus ethischer Sicht zu beurteilen? Ein Interview mit dem Wissenschaftsphilosophen Prof. Claus Beisbart vom Institut für Philosophie der Universität Bern.


Wann sind künstliche Intelligenz und Robotik ethisch, wann nicht? Diese Frage muss sich das Gesundheitswesen stellen. Illustration: Getty Images / Stutz Medien

SPITEX MAGAZIN: Der Einsatz von künstlicher Intelligenz (KI) in der Pflege weckt grosse Hoffnungen, aber auch Befürchtungen. Wo sehen Sie die hauptsächlichen Konfliktpotenziale? 
PROF. CLAUS BEISBART: Ethik heisst nicht nur, Probleme zu identifizieren. Darum möchte ich auch die Hoffnungen erwähnen, dass durch KI bestimmte Abläufe verbessert werden können, die Pflege optimiert und preisgünstiger wird und weniger Personal braucht. Was sind die Ängste? Da gibt es sehr, sehr viele. Zum einen geht es natürlich um Entmenschlichung, aber auch um den Verlust von Autonomie. Zum anderen könnte die KI unsere Privatheit gefährden, wenn die Algorithmen eine Vielzahl unserer Daten verarbeiten.

In der Pflege gelten die vier Prinzipien der Medizinethik: Selbstbestimmung, Schadensvermeidung, Patientenwohl und Gerechtigkeit. Sind dies auch die «Leitplanken», wenn wir von KI sprechen?
Ethik diskutiert KI aus der Sicht menschlicher Werte, der Menschenrechte, aber auch menschlicher Pflichten. Wenn es um die Anwendung der KI in der Medizin geht, dann sind diese vier Prinzipien schon sehr gut. Es gibt jedoch in der Literatur den Vorschlag, diese um den Aspekt der Transparenz zu ergänzen. KI muss für die beteiligten Menschen also nachvollziehbar sein.

Von einem Pflegeroboter (vgl. Berichte Die Chancen und Risiken künstlicher Intelligenz für die Pflege und KI-Angebote für die(zukünftige) Pflege zu Hause) bedient, gewaschen und sogar unterhalten zu werden, mutet für viele befremdlich an. Welche Einsatzformen sind aus ethischer Sicht bedenklich? 
An Funktionen wie Waschen oder Unterhalten sehe ich erst mal nichts Schlechtes – es ist doch gut, wenn einer älteren Person beim Waschen geholfen oder wenn sie unterhalten wird. Denkt eine ältere oder demente Person jedoch, sie hätte es mit einem echten Menschen zu tun, dann ist dies ethisch problematisch, denn unsere Beziehungen sollen nicht auf Täuschungen basieren. Wird menschliche Arbeit von Maschinen übernommen, besteht zudem die Gefahr der Entmenschlichung. Diese ist aus meiner Sicht ein echtes Problem, denn menschliche Beziehungen sind etwas, das unserem Leben Sinn gibt. Ein anderer Aspekt sind die Daten, welche diese intelligenten Systeme benötigen. Werden diese öffentlich oder gehackt, dann ist die Privatheit verletzt. Ich denke also, die einzelnen Funktionen sind nicht als solche bedenklich – es kommt immer darauf an, wie sie umgesetzt werden.

Ist eine weitere Gefahr, dass die Maschine immer mehr Autonomie gewinnt und der Mensch immer unselbstständiger wird?
Die Gefahr besteht – und umfasst unterschiedliche Aspekte: Einer ist «Deskilling» oder «Dequalifizierung»: Nimmt die KI mir dauerhaft bestimmte Aufgaben ab, verlerne ich gewisse Fähigkeiten, und der Spielraum meiner Handlungsmöglichkeiten verkleinert sich. Ein anderer Aspekt ist die Frage nach den Entscheidungen: Kann ich als Nutzer oder Nutzerin den Roboter selbst steuern, oder tut dies ein Programm, das von einer Softwarefirma kontrolliert wird? Bei vielen Systemen hat der Mensch heute immer noch die Möglichkeit, den Roboter bei bestimmten Tätigkeiten zu unterbrechen. Doch handelt es sich beispielsweise um eine Person im Anfangsstadium einer Demenz, möchte man dieser nicht so viele Kontrollmöglichkeiten geben. Die Entwicklung von Robotern und Software muss darum in ganz engem Austausch mit Fachpersonen wie Pflegefachkräften, Patientenvertretungen sowie Ärztinnen und Ärzten erfolgen.

Ein anderes Thema sind auf Sensoren basierende intelligente Sicherheits- und Präventionssysteme, auch für zu Hause (vgl. Berichte Die Chancen und Risiken künstlicher Intelligenz für die Pflege und KI-Angebote für die(zukünftige) Pflege zu Hause). Wie sind diese ethisch zu bewerten – Sicherheit zum Preis der Komplettüberwachung? 
Da gibt es wieder zwei Aspekte; zum einen den der Privatheit: Es gibt das Recht auf informationelle Selbstbestimmung, also selbstständig über seine personenbezogenen Daten zu entscheiden. Die Systeme sammeln sehr viele Daten, und diese könnten an Dritte geraten, etwa an Versicherungen. Es mag zwar von Vorteil sein, wenn die Ärztin oder der Arzt von der KI erfährt, dass eine Patientin oder ein Patient ein Medikament nicht mehr einnimmt – dennoch ist es ein Eingriff in die Privatheit. Der andere Aspekt ist das Gefühl der ständigen Überwachung, das sehr unangenehm sein kann. Dieses zweite Problem kann man angehen, indem man mit der betroffenen Person klärt, wie mit den Daten umgegangen wird, mit wem sie geteilt werden, was wo und wie lange gespeichert wird. Da greift wiederum die wichtige Forderung nach Transparenz.

Immer komplexere Pflegesituationen erfordern zunehmend Entscheidungen von hoher Qualität in kurzer Zeit. KI soll hier zum Beispiel präzisere Diagnosen und optimierte Pflegeplanungen ermög­lichen. Drohen hier nicht mangelnde Transparenz und Nachvollziehbarkeit, ist die Angst vor der «Blackbox KI» also berechtigt?
KI ist in weiten Teilen tatsächlich eine «Blackbox». Gerade das «Deep Learning», welches das menschliche Gehirn durch künstliche neuronale Netze imitiert, ist für uns Menschen sehr schwer nachzuvollziehen. Etwa weil wir nicht wissen, welche Variablen für Entscheidungen des Systems herangezogen werden. Wie problematisch das ist, hängt davon ab, wie das System eingesetzt wird. Gibt mir das System Informationen, die mir eigene Entscheidungen erleichtern sollen? Gibt es mir konkrete Empfehlungen und ist es damit ein sogenanntes «Recommender System» wie bei Amazon, wo mir Bücher vorgeschlagen werden? Oder trifft die KI eigene Entscheidungen, die sie dann auch umsetzt, wie etwa ein Roboter, der selbst entscheidet, was er als Nächstes tut? Je nachdem hat der Mensch unterschiedliche Möglichkeiten: Bei einer Empfehlung kann er zum Beispiel immer noch sagen: «Nein, das setze ich nicht um», womit letztendlich immer noch der Mensch für die Entscheidung verantwortlich ist. Allerdings stellt sich auch hier eine spannende Frage: Aufgrund welcher Wertmassstäbe erfolgen eigentlich die Empfehlungen? Wir müssen verstehen, auf welchen Kriterien die jeweilige Software beruht, damit Entscheidungen transparent bleiben. Uns dies zu ermöglichen, sehe ich als Aufgabe der Software-Entwickler. 

Ist KI wirklich nur eine willkommene Unterstützung der Pflege oder droht sie Mitarbeitende zu ersetzen – und darf dieses allfällige Ersetzen von Menschen durch Maschinen dem Fortschritt im Wege stehen? 
Die Perspektive der Pflegefachkräfte als Stakeholder ist wichtig – also die Frage, ob sich die Arbeit für sie mit KI besser oder schlechter anfühlt. Unrealistisch ist, dass Pflegefachkräfte völlig von Robotern ersetzt werden. Doch gehe ich davon aus, dass sich ihre Tätigkeiten dahingehend verändern, dass die Fachkräfte immer mehr dazu eingesetzt werden, Roboter zu steuern oder gemeinsam mit ihnen etwas zu erledigen. Auch das nährt natürlich die Befürchtung, dass der Job weniger erfüllend wird als die Beschäftigung mit Menschen allein. Demgegenüber steht die Hoffnung, dass der Einsatz von Robotern den Pflegenden mehr Zeit für zwischenmenschliche Beziehungen einräumt. Aber ob es wirklich so kommt, müssen wir sehen. Inwieweit sich Mensch und Maschine tatsächlich konkurrenzieren, ist auch davon abhängig, wie viele Pflegefachkräfte wir haben und wie teuer die Roboter sind.

Die Akzeptanz des Menschen gegenüber KI scheint sehr individuell?
Das ist richtig, und es zeigen sich interessante Effekte, etwa bei dem Versuch, mit KI eine Art Psychotherapie zu machen: Tatsächlich öffnen sich manche Personen eher gegenüber einer Maschine als einem menschlichen Arzt, weil sie sich vor einem anderen Menschen eher schämen. Dass wir gegenüber KI eine andere Einstellung haben, kann also auch Vorteile haben. Auch die ärztliche Beratung ist ein interessantes Thema. Es gibt bereits Ansätze, bei denen ich anhand meiner Symptombeschreibungen im Online-Chat von KI konsultiert werde. Da stellt sich aber die Frage, ob mich Rückmeldungen einer realen Person nicht viel besser motivieren, mein Verhalten zu ändern – etwa bei Übergewicht dazu, weniger zu essen.

Wird KI eingesetzt, ohne dass wir verstehen, was da passiert, ist
das eine gefährliche Situation.

PROF. CLAUS BEISBART

Wissenschaftsphilosoph, Universität Bern

KI ist unaufhaltsam – wo geht die Zukunft Ihrer Meinung nach hin? 
In den letzten Jahren hat die KI technisch einige Hürden genommen, und nun stellt sich die grosse Frage, wie wir damit umgehen. Wir leben in einer interessanten Zeit, weil wir jetzt mitentscheiden, wie KI in Zukunft eingesetzt wird. Im Moment bestimmen vor allem kommerzielle Unternehmen das Tempo. Aber es steht einiges auf dem Spiel. So können Ungerechtigkeiten entstehen, wenn aufgrund eines algorithmischen «Bias», also einer Art Verzerrung, Krankheiten für eine Bevölkerungsgruppe weniger gut erkannt werden als für eine andere. Wird KI dann eingesetzt, ohne dass wir ver­stehen, was da passiert, ist das eine gefährliche Situa­tion. Gerade wenn es um moralisch relevante Entscheidungen geht, muss der Gesetzgeber für Transparenz sorgen. Wir brauchen hier also gute Richtlinien und Gesetze (vgl. Die Chancen und Risiken künstlicherIntelligenz für die Pflege). Es gibt gute Szenarien, in denen Mensch und Maschine in interessanter Art und Weise miteinander agieren, aber eben auch Szenarien, in denen es für den Menschen immer undurchschaubarer wird. In welchem Szenarium wir landen, hängt stark von den gesetzlichen Rahmenbedingungen ab.

Zur letzten Frage: Kann die künstliche Intelligenz nicht selbst Ethik lernen?
In der sogenannten Maschinenethik wird versucht, ethisches Handeln bei KI zu erwirken. Nun sind Computer, Algorithmen und Roboter zwar keine Persönlichkeiten, die Gefühle oder Empathie empfinden können. Auf einer oberflächlichen Ebene lässt sich jedoch das Verhalten von Robotern anhand von ethischen Prinzipien steuern. Es gibt bereits verschiedene Vorschläge, wie man die Moral in den Maschinen implementieren kann. Das wiederum wirft die spannende Frage auf, welche Moral implementiert werden soll. Richtet man sich nach ethischen Theorien wie dem Utilitarismus [1] oder nach den genannten vier Prinzipien, oder orientiert man sich eher an Alltagsintuitionen? Auch hier gibt es noch einige spannende Fragen zu klären.

Interview: Martina Kleinsorg

[1]Utilitarismus geht davon aus, dass diejenige Handlung moralisch richtig ist, welche das Wohlergehen aller Betroffenen insgesamt maximiert.

Weitere Artikel

Eine gemeinsame Erklärung unterzeichnet

Die GDK, Arbeitgeberverbände, Berufsverbände und Gewerkschaften haben sich auf g...

Eine intelligente Box für das Medikamenten­management

Die «Smart Pillbox» der Gerisana Care AG soll Fehler beim Abfüllen und Einnehmen...

Gewalt in der Partnerschaft kommt auch im Alter vor 

Die Sensibilisierungskampagne «Gewalt bei älteren Paaren» wurde Mitte Dezember 2...