IA responsable : se connecter à la société ... et à l'éthique

Vigile urbaine ©Sophie Hamel-Dufour
Vigile urbaine ©Sophie Hamel-Dufour

Texte publié dans La Presse + 

 

La Déclaration de Montréal pour un développement responsable de l’intelligence artificielle pose des constats et des questions cruciales. Les auteurs soulignent, à juste titre, que « réduire la société à des nombres et la gouverner par des procédures algorithmiques est un vieux rêve qui nourrit encore les ambitions humaines, mais [que] les nombres ne disent pas ce qui a une valeur morale, ni ce qui est socialement désirable ». 

 

Pour autant, les principes* énoncés manquent d’ancrages solides dans la réalité.

 

Pour autant, la Déclaration appelle à un développement responsable de l’IA sans jamais définir clairement ce que signifie être responsable. 

 

Le risque de ne parler qu’aux convaincus est grand

 

Les auteurs de la Déclaration reconnaissent d’entrée de jeu qu’elle a été élaborée à partir d’une perspective culturelle, morale et politique restreinte. En effet, les consultations citoyennes ont été essentiellement réalisées à Montréal, Québec et Paris. Autant dire dans des milieux urbanisés, au sein de sociétés démocratiques, favorisées, occidentales. Est-ce que cela entrave la portée universelle recherchée? 

 

Je réponds que cela la fragilise cette ambition universelle.

 

Les notions de bien-être, de mal-être ne se définissent pas partout de la même manière. Ce qui sera intolérable pour les uns sera de l’ordre des codes sociaux pour les autres. Il en est de même pour les notions de liberté, de diversité, de transparence. 

 

Compte tenu du biais occidental de la Déclaration, il est permis de se demander comment cette dernière saura rejoindre, et surtout inciter les puissances politiques et économiques du Moyen-Orient, d’Asie et d’Afrique à s’intéresser à la Déclaration à la mettre réellement en œuvre. 

 

Le risque de ne rejoindre que les convaincus est bien présent. 

 

Qui est responsable?

 

La Déclaration parle de l’IA comme un objet à part entière, présentée à la troisième personne. L’IA ne doit pas faire ceci, l’IA ne doit pas causer cela. L’IA, est là, posée devant nous, extérieure à nous.

 

Malheureusement, même si le Principe 9 évoque la responsabilité humaine, il se dégage du style rédactionnel à la troisième personne une impression qu’il reviendra à l’IA elle-même d’être responsable. Comme si l’IA voguait – déjà - vers sa propre vie autonome. 

 

En parlant de l’IA à la troisième personne, la Déclaration étiole les liens entre l’humain et l’IA. En définitive, on ne sait plus vraiment qui sera responsable

 

Afin d’éviter ce flou, nommer clairement qui devra ne pas faire ceci, qui devra ne pas causer cela (concepteur, utilisateurs, bailleurs de fonds) aurait affirmé sans équivoque la responsabilité des humains qui seront aux commandes. 

 

Se connecter aux réalités sociologiques 

 

Alors que les principes appellent à la réflexion avant de passer à l’action, notamment en évitant la malveillance, la manipulation et la discrimination, les principes semblent déconnectés de réelles et inévitables réalités sociologiques : pour les fins de ce texte, retenons seulement les intérêts et le pouvoir.

 

L’IA n’échappe déjà pas aux intérêts et n’y échappera pas. Du citoyen qui ne veut plus être pris dans le trafic, en passant par le gouvernement qui veut accroître sa défense nationale ou l’entreprise privée qui automatise ses entrepôts, l’intérêt est un moteur de décision, une motivation à l’action. Pourquoi développer tel robot, telle application si ce n’est pour répondre aux intérêts de futurs clients? La Déclaration semble faire fi de l’influence fondamentale des intérêts dans les choix qui guideront le futur de l’IA.

 

D’ailleurs, les auteurs de la Déclaration illustrent eux-mêmes cette part d’influence ; leur intérêt de chercheur est nommément privilégié au principe 3.7 : « Toute personne peut faire don de ses données personnelles aux organismes de recherche afin de contribuer au progrès de la connaissance ». 

 

L’IA n’échappe déjà pas au pouvoir et n’y échappera pas. Posséder une technologie, déployer une technologie, utiliser une technologie donne du pouvoir. Il apparaît simpliste de la part des auteurs de souhaiter que les institutions publiques n’utilisent pas l’IA pour promouvoir ou défavoriser une conception de la vie bonne (Principe 2.3). À l’ère des villes dites intelligentes, n’est-il pas paradoxal d’inviter à ne pas user de ces outils de promotion au bénéfice de visions politiques? 

 

Où est l’éthique?

 

La Déclaration se veut une boussole éthique. Hélas, en la matière, la Déclaration est incomplète

 

Ce qui manque aux principes pour éviter de n’être que de belles intentions, ce sont des valeurs éthiques claires permettant de prendre une saine distance avec les intérêts et le pouvoir. Des valeurs comme l’intégrité dans la prise de décision, non pas l’intégrité pour parler de fiabilité ou l’intégrité physique et psychologique. 

 

Le lexique proposé ne définit ni l’éthique, ni la responsabilité, ni l’équité, ni la solidarité ; il ne présente que des éléments techniques. 

 

Sans valeurs éthiques claires et praticables, il est prévisible que le secteur de l’IA évoluera vers l’imposition de normes et de critères. L’expérience démontre explicitement que souscrire aux meilleurs normes et critères ne garantit en rien un agir éthique fort. Parlez-en à Volkswagen.

 

Être responsable. Agir de façon responsable. Ce sont là de nobles engagements. Toutefois, sans davantage d’ancrages sociologique et éthique, le choc d’avec la réalité risque d’être brutal. Et la portée de la Déclaration, éthérée. 

 

*Afin d’alléger le texte, le terme principe inclut les sous-principes de la Déclaration.

PARTAGEZ

Retour à la liste des Billets sociologiques


SocioZone©, entreprise spécialisée en sociologie stratégique, propose des services de mesure de l’Empreinte sociale et de Développement participatif. 

 

L’Empreinte sociale est la mesure de ce qu’une organisation inscrit dans la société par son image et ses actions.