«La perte d’humanité serait un véritable problème»
L’utilisation de l’intelligence artificielle (IA) et de la robotique semble une solution en période de pénurie de personnel soignant. Mais comment cela doit-il être évalué du point de vue éthique? Entretien avec le professeur Claus Beisbart, philosophe des sciences à l’Institut de philosophie de l’Université de Berne.
MAGAZINE ASD: L’utilisation de l’IA dans les soins suscite de grands espoirs, mais aussi des craintes. Où voyez-vous les principaux conflits potentiels?
PROF. CLAUS BEISBART: L’éthique ne consiste pas seulement à identifier les problèmes. C’est pourquoi je tiens aussi à mentionner l’espoir que l’IA permette d’améliorer certains processus, d’optimiser les soins, de les rendre moins coûteux et nécessitant moins de personnel. Quelles sont les craintes? Elles sont très, très nombreuses. Il y a d’abord bien sûr la déshumanisation, mais aussi la perte d’autonomie. De même, l’IA pourrait menacer notre vie privée si les algorithmes traitent un grand nombre de nos données.
Les quatre principes de l’éthique médicale autodétermination, non-malfaisance, bien-être du patient et justice s’appliquent aux soins. S’agit-il aussi de «garde-fous» lorsque nous parlons d’IA?
L’éthique aborde l’IA du point de vue des valeurs humaines, des droits de l’homme, mais également des devoirs humains. Lorsqu’il s’agit d’appliquer l’IA à la médecine, ces quatre principes sont déjà très bons. Cependant, il est suggéré dans la littérature de les compléter par l’aspect de la transparence. Par conséquent, l’IA doit être compréhensible pour les personnes impliquées.
Etre servi, lavé et même diverti par un robot de soins (voir les articles Intelligence artificielle: opportunités et risques pour les soins et Des offres d’IA pour les (futurs) soins à domicile) semble étrange pour bien des gens. Quelles formes d’utilisation sont préoccupantes d’un point de vue éthique?
Je ne vois pas de mal à des fonctions comme laver ou divertir – c’est bien d’aider une personne âgée à se laver ou de la divertir. Mais si une personne âgée ou atteinte de démence pense avoir affaire à un être humain réel, cela pose un problème éthique, car nos relations ne doivent pas être basées sur la tromperie. Si le travail humain est pris en charge par des machines, il existe en outre un risque de déshumanisation. C’est à mon avis un véritable problème, car les relations humaines sont quelque chose qui donne un sens à notre vie. Un autre aspect concerne les données dont ces systèmes intelligents ont besoin. Si elles sont rendues publiques ou piratées, la vie privée est alors violée. Je pense donc que les différentes fonctions ne sont pas inquiétantes en tant que telles; tout dépend de la manière dont elles sont mises en œuvre.
Y a-t-il aussi le danger que la machine gagne toujours plus en autonomie et que l’homme perde toujours plus en indépendance?
Le danger existe – et comprend différents aspects. L’un d’eux est ce que l’on appelle le «deskilling» (la «déqualification»): si l’IA me décharge durablement de certaines tâches, je perds certaines compétences et ma marge de manœuvre diminue. L’autre aspect est la question relative aux décisions: est-ce que je peux contrôler le robot moi-même en tant qu’utilisateur ou utilisatrice, ou est-ce que c’est un programme contrôlé par une société de logiciels qui le fait? Dans de nombreux systèmes, l’être humain a encore la possibilité d’interrompre le robot lors de certaines activités. Mais s’il s’agit, par exemple, d’une personne présentant une démence au stade initial, on ne veut pas lui donner autant de possibilités de contrôle. Le développement des robots et des logiciels doit donc se faire en étroite collaboration avec des spécialistes tels que le personnel soignant, les représentants des patients et les médecins.
Un autre thème est celui des systèmes intelligents de sécurité et de prévention basés sur des capteurs, y compris pour le domicile (voir les articles Intelligence artificielle: opportunités et risques pour les soins et Des offres d’IA pour les (futurs) soins à domicile). Comment les évaluer sur le plan éthique: la sécurité au prix d’une surveillance totale?
Il y a à nouveau deux aspects, d’une part celui de la vie privée: il existe un droit à l’autodétermination en matière d’information, soit le droit de décider soi-même de ses données personnelles. Les systèmes collectent beaucoup de données, et celles-ci pourraient être transmises à des tiers, par exemple à des assurances. Il peut être bénéfique que le médecin soit informé par l’IA qu’une patiente ou un patient ne prend plus un médicament, mais il s’agit tout de même d’une atteinte à la vie privée. L’autre aspect est le sentiment de surveillance permanente, qui peut être très désagréable. Ce second problème peut être abordé en clarifiant avec la personne concernée la manière dont ces données seront traitées, avec qui elles seront partagées, ce qui sera conservé, où et combien de temps. C’est là qu’intervient l’exigence cruciale de transparence.
Des situations de soins de plus en plus complexes exigent toujours plus de décisions de grande qualité dans un bref délai. L’IA doit par exemple permettre d’établir des diagnostics plus précis et d’optimiser la planification des soins. Ne risque-t-on pas ici un manque de transparence et de traçabilité, la crainte de la «boîte noire de l’IA» étant ainsi justifiée?
L’IA est en fait, dans une large mesure, une «boîte noire». Le «deep learning», qui imite le cerveau humain à l’aide de réseaux neuronaux artificiels, est très difficile à comprendre pour nous, humains. Notamment parce que nous ne savons pas quelles variables sont prises en compte dans les décisions du système. L’ampleur du problème dépend de la manière dont le système est utilisé. Le système me fournit-il des informations destinées à faciliter mes propres décisions? Me donne-t-il des recommandations concrètes et est-il ainsi un «système de recommandations» comme sur Amazon, où des livres me sont suggérés? Ou l’IA prend-elle ses propres décisions qu’elle met ensuite en œuvre, comme un robot qui décide lui-même de ce qu’il va faire ensuite? L’être humain a des options différentes selon les cas: dans le cas d’une recommandation, il peut toujours dire: «Non, je ne l’appliquerai pas», ce qui signifie qu’il reste responsable de la décision. Mais là encore, une question passionnante se pose: sur quels critères de valeur se basent les recommandations? Nous devons comprendre sur quels critères repose le logiciel en question, afin que les décisions restent transparentes. Je considère que c’est aux développeurs de logiciels qu’il incombe de nous permettre d’y parvenir.
L’IA n’est-elle vraiment qu’un soutien bienvenu dans le domaine des soins ou menace-t-elle de remplacer les employés – et ce remplacement éventuel des humains par des machines peut-il faire obstacle au progrès?
La perspective du personnel soignant en tant que partie prenante est importante, c’est-à-dire la question de savoir si le travail lui semble pour lui meilleur ou moins bon avec l’IA. Il est irréaliste de penser que les soignantes et soignants seront entièrement remplacés par des robots. Mais je pense que leurs activités vont évoluer dans le sens où ils seront de plus en plus utilisés pour commander des robots ou pour effectuer des tâches en collaboration avec eux. Bien sûr, cela nourrit aussi la crainte que le travail devienne moins épanouissant que le fait de travailler seulement avec des humains. En revanche, on espère que l’utilisation de robots permettra aux soignants de consacrer plus de temps aux relations humaines. Mais il faudra voir si c’est vraiment le cas. La mesure dans laquelle l’humain et la machine se concurrencent réellement dépend également du nombre de soignants dont nous disposons et du prix des robots.
L’acceptation des individus envers l’IA semble être très personnelle?
C’est vrai, et des effets intéressants se manifestent, notamment lorsqu’on tente de faire de la psychothérapie avec l’IA: en réalité, certaines personnes s’ouvrent plus facilement à une machine qu’à un médecin humain, car elles éprouvent davantage de gêne face à un autre être humain. Le fait d’avoir une attitude différente envers l’IA peut donc avoir des avantages. La consultation médicale est également un sujet intéressant. Il existe déjà des approches où, en décrivant mes symptômes dans un chat en ligne, la consultation passe par une IA. Cependant, la question se pose de savoir si les retours d’une personne réelle ne me motiveraient pas beaucoup plus à changer mon comportement – par exemple, en cas de surpoids, à manger moins.
L’IA est inéluctable – vers où se dirige l’avenir selon vous?
Ces dernières années, l’IA a franchi quelques obstacles techniques, et la grande question qui se pose maintenant est de savoir comment nous allons l’aborder. Nous vivons une période intéressante, car nous avons désormais notre mot à dire sur la manière dont l’IA sera utilisée à l’avenir. Pour l’instant, ce sont surtout les entreprises commerciales qui donnent le tempo. Mais les enjeux sont importants. Ainsi, des injustices peuvent apparaître si, en raison d’un «biais» algorithmique, c’est-à-dire d’une sorte de distorsion, les maladies sont moins bien détectées pour un groupe de population que pour un autre. Si l’IA est alors utilisée sans que nous ne comprenions ce qui se passe, cela crée une situation dangereuse. C’est justement lorsqu’il s’agit de décisions moralement pertinentes que le législateur doit veiller à la transparence. Nous avons donc besoin de bonnes directives et de bonnes lois dans ce domaine. Il existe de bons scénarios dans lesquels l’homme et la machine interagissent de manière intéressante, mais aussi des scénarios dans lesquels les choses deviennent de plus en plus opaques pour les humains. Le scénario dans lequel nous nous retrouverons dépendra fortement du cadre juridique.
Si l’IA est utilisée sans
que nous ne comprenions
ce qui se passe, cela crée
une situation dangereuse.
PROF. DR CLAUS BEISBART
Philosophe des sciences à l’Université de Berne
Pour finir, l’IA ne peut-elle pas apprendre l’éthique elle-même?
Dans ce que l’on appelle l’éthique des machines, il est question d’essayer de faire en sorte que l’IA agisse de manière éthique. Or, les ordinateurs, les algorithmes et les robots ne sont pas des personnalités capables de ressentir des émotions ou de l’empathie. Mais à un niveau superficiel, le comportement des robots peut être contrôlé à l’aide de principes éthiques. Il existe déjà différentes propositions sur la façon d’implémenter la moralité dans les machines. Cela soulève la question passionnante de savoir quelle moralité il faut implémenter: s’inspirer de théories éthiques comme l’utilitarisme [1] ou des quatre principes susmentionnés, ou s’inspirer d’intuitions quotidiennes? Là aussi, il reste des questions passionnantes à éclaircir.
Interview: Martina Kleinsorg
[1]L’utilitarisme postule qu’une action moralement bonne est celle qui maximise le bien-être global de toutes les personnes concernées.