Une IA qui vous veut du bien: les implications éthiques des systèmes d’IA en santé

Co-leaders

  • Laurence Devillers (Chaire IA – HUMAAINE)
  • Marc-Antoine Dilhac (Chaire CIFAR en éthique de l’IA)

Partenaires

  • Chaire IA – HUMAAINE: http://humaaine-chaireia.fr

L’objectif de ce projet est d’évaluer les implications éthiques des systèmes d’IA de type “nudging”. Un système d’IA par encouragement est un dispositif qui incite les utilisateur.rice.s à se comporter et à agir d’une manière dont ils/elles n’ont pas conscience. Il prend différentes formes telles que des notifications, des évaluations, des classements, mais surtout des recommandations en langage naturel. La théorie du “nudging” développée par Thaler et Sunstein a fixé une contrainte morale à la mise en œuvre du “nudging” pour influencer le comportement des individus : il doit poursuivre un bien qui est recherché par les utilisateur.rice.s cibles, ou qui est aligné avec leur meilleur intérêt.

Le projet comporte trois volets :

  • Nous voulons montrer, sur la base de recherches empiriques, que les systèmes d’IA de type “nudging” ont un impact plus important sur l’architecture des choix que la surveillance humaine et brouillent la ligne de démarcation entre recommandation et manipulation ;
  • Nous aborderons spécifiquement la question de l’autonomie et de l’agentivité humaine, même dans les cas évidents où le système d’IA favorise l’intérêt de l’utilisateur.rice ;
  • Nous établirons les exigences éthiques auxquelles doivent répondre les systèmes d’intelligence artificielle pour être considérés comme politiquement légitimes et socialement dignes de confiance.