Nos valeurs 

1. Participation 

 

Algora Lab est motivé par les valeurs démocratiques. Nous sommes un espace de délibération sur les impacts et les défis éthiques, sociétaux et politiques de l’apprentissage des algorithmes et de l’innovation numérique, réunissant des parties prenantes, des experts et des non-experts, des représentants d’organisations de la société civile, du secteur privé et des décideurs publics. Nous défendons l’inclusion, l’ouverture d’esprit et la tolérance au cours de nos processus de consultation et de délibération.

 

2. Transparence

 

Algora Lab restera transparent dans ses actions, en rendant compte à d’autres institutions partenaires et en rendant notre travail disponible sur notre site web. Nous divulguerons toutes les sources de financement et de soutien financier. En outre, nous limiterons le financement des entreprises à 15 % du budget d’Algora Lab.
Un comité de surveillance veillera à ce que les projets de recherche d’Algora Lab restent transparents et éthiques. Il sera composé d’experts internationaux et de personnalités connues dans les domaines de l’éthique et de l’intelligence artificielle. 

 

3. Autonomisation 

 

Les actions d’Algora lab sont basées sur les principes de renforcement des capacités et de collaboration. Nous nous engageons à renforcer les capacités des communautés par la consultation et la délibération. Ces deux méthodes sont au cœur de notre action, mais ne suffisent pas à elles seules à garantir une autonomisation efficace. C’est pourquoi nous proposons également des formations aux institutions d’enseignement et de recherche, aux organisations publiques et privées sur les questions éthiques de l’IA et de l’utilisation des données, et plus particulièrement sur la Déclaration de Montréal sur l’IA responsable et son application à la conception et au déploiement des systèmes d’IA. 

Algora Lab se conforme en tous points à la Déclaration de Montréal pour une utilisation responsable de l’intelligence artificielle. En 2017, l’Université de Montréal, avec le soutien du FRQ (Fonds de la recherche du Québec), du CIFAR, de Mila et de l’IVADO, a lancé un processus participatif qui a abouti à l’élaboration de ce document.
Plus de 20 événements publics et ateliers délibératifs ont été organisés et plus de 500 personnes ont participé aux ateliers délibératifs en face à face et en ligne.
Les responsables scientifiques de la Déclaration de Montréal et plusieurs assistants de recherche qui ont travaillé sur ce document font partie de l’équipe de base d’Algora Lab.

 

4. Équité, diversité, inclusion et égalité des sexes 

 

Nous nous sommes engagés à inclure divers groupes de participants, notamment des ambassadeurs et des employés. Nous garantissons une rémunération équitable à tous les employés, quel que soit leur pays d’origine ou leur sexe. Ce projet doit bénéficier aux communautés qui y participeront, et à tous leurs membres. Une attention particulière et des stratégies ciblées seront mises en œuvre pour atteindre les voix traditionnellement marginalisées et assurer leur participation inclusive et significative au forum.

Contexte
1. La crise de la diversité de l’IA s’étend du monde universitaire à l’industrie. Dans le monde universitaire, les femmes ne représentent que 18 % des auteurs des principales conférences sur l’IA et plus de 80 % des professeurs d’IA sont des hommes. La situation dans l’industrie est tout aussi préoccupante. Malgré le manque de données, d’autres marqueurs d’identité façonnent le secteur de l’IA (dimensions de la race, personnes LGBTQ, personnes handicapées, groupes économiquement marginalisés, jeunes ou personnes âgées, le “Sud global”). La crise de la diversité de l’IA est essentiellement une question de pouvoir (où la connaissance de l’IA est essentiellement concentrée entre les mains de quelques acteurs).
2. Selon l’indice 2019 de préparation des gouvernements à l’AI, qui fournit une évaluation du niveau de préparation des gouvernements à bénéficier du potentiel de l’AI, les pays à haut revenu ayant des stratégies et des investissements solides en matière d’AI dominent les 10 premières places de l’indice. “Dans l’ensemble, l’indice indique que les gouvernements du Nord sont mieux placés que leurs homologues du Sud pour récolter les fruits de l’AI. Si ce déséquilibre de l’état de préparation à l’IA persiste, les pays du Sud risquent de devenir des terrains d’essai de l’IA où les systèmes sont mal utilisés”.
↳ “Les disparités dans la préparation à l’IA avec le Sud pourraient augmenter le risque que certains pays deviennent des terrains d’essai. En outre, l’IA pourrait amplifier les inégalités existantes si le contexte unique de chaque région n’est pas pris en compte”.
↳ “Par exemple, l’utilisation croissante de la reconnaissance faciale au Zimbabwe se fait sans politiques appropriées de protection des données, ce qui soulève d’importantes questions éthiques”.
3. Les préjugés et la discrimination d’Amnesty International. En outre, “les systèmes d’IA peuvent refléter des préjugés et des hypothèses de la société détenus par leurs concepteurs ou inhérents aux ensembles de données sur lesquels leurs algorithmes de base sont formés. L’utilisation de systèmes biaisés pour automatiser les processus de décision pourrait amplifier l’impact de ces préjugés en produisant systématiquement des résultats qui désavantagent des individus et des groupes particuliers, notamment ceux qui sont marginalisés” : les algorithmes de ciblage publicitaire sont plus susceptibles de proposer aux femmes des offres d’emploi moins bien rémunérées, l’IA travaillant sur le langage peut reproduire des stéréotypes sexistes ; les technologies de reconnaissance faciale sont plus fiables avec les hommes blancs qu’avec les femmes et les personnes racialisées… En fin de compte, les personnes disposant de peu de ressources économiques sont celles qui finissent par payer le prix de l’adoption de systèmes de décision. Les conséquences possibles ne touchent pas seulement les individus ; la perte d’opportunités, les pertes économiques et la stigmatisation sociale font partie des risques auxquels la société en tant que communauté est confrontée.

Notre engagement
Plusieurs principes et recommandations de la Déclaration de Montréal pour un développement responsable de l’AI (qui est née d’un processus de délibération inclusif) concernent l’équité, la diversité et l’inclusion :
Principes 5 – Participation démocratique : l’AI doit répondre à des critères d’intelligibilité, de justification et d’accessibilité, et doit être soumise à un examen, un débat et un contrôle démocratiques
Principe 6 – Équité : le développement et l’utilisation de l’AIS doivent contribuer à la création d’une société juste et équitable.
Principes 7 – Inclusion de la diversité : Le développement et l’utilisation des AIS doivent être compatibles avec le maintien de la diversité sociale et culturelle et ne doivent pas restreindre la portée des choix de style de vie ou des expériences personnelles.
“Il existe une responsabilité collective pour les impacts sociaux de l’IA”
Alors que l’utilisation de l’IA se répand, il est crucial que la diversité soit prise en compte dans le processus de création et de détermination des principes éthiques qui guideront son développement et son déploiement. Il est urgent d’informer et de consulter les citoyens d’horizons divers afin de minimiser les dommages potentiels, de garantir que les technologies d’IA sont utilisées pour le bien commun et de développer des politiques informées et participatives.
La diversité des expériences et des perspectives est essentielle à la formulation d’opinions éclairées et de choix éthiques. Le raisonnement d’Algora résulte de la nécessité de “créer des moyens de consultation inclusifs qui impliquent les citoyens dans toute leur diversité, à différentes étapes du processus de surveillance du développement responsable de l’IA “11. Pour Algora, la diversité comprend des aspects évidents tels que les origines, le sexe, l’âge et les conditions socio-économiques, mais tient également compte d’autres éléments essentiels tels que la culture, les traditions et la spiritualité.
À Algora, nous sommes conscients que les groupes moins privilégiés et traditionnellement marginalisés peuvent être moins aptes à participer aux événements délibératifs ou se sentir moins en sécurité pour exprimer leurs opinions. Avec nos partenaires, l’équipe d’Algora prend des mesures concertées pour intégrer la diversité et l’inclusion dans tous les aspects de leurs projets. Cela inclut le développement de liens avec les communautés locales afin d’inclure les groupes sous-représentés dans nos activités et, éventuellement, dans le processus de définition du développement et du déploiement éthique de l’AI.

Vous souhaitez vous impliquer ou en savoir plus sur notre engagement ? Contactez-nous : Pauline Noiseau ou Jihane Lamouri : Jihane.lamouri@ivado.ca

 

5. Confidentialité et vie privée

 

Algora Lab s’engage à protéger la vie privée des participants aux recherches. Nos événements sont publics, mais nous protégeons l’identité des participants – s’ils en font la demande. Nous ne recueillons pas d’informations personnelles inutiles. Les informations que nous collecterons, en ligne ou lors des événements physiques, ne seront pas partagées avec des tiers, sauf si cela est explicitement indiqué au préalable. 

 

6. Développement durable

 

Algora Lab est impliqué dans des projets internationaux. En règle générale, nous nous efforçons de réduire ces déplacements au minimum nécessaire. Nous visons également à compenser de manière proactive l’empreinte carbone de notre projet. 

Contexte

À Algora Lab, notre recherche s’intéresse aux aspects éthiques et aux impacts sur la société de l’utilisation de l’IA. Nous ne pouvons donc pas ignorer les impacts environnementaux de nos activités de recherche. Notre expertise inclut l’organisation d’ateliers et d’évènements à l’international. Nos opérations ont une empreinte environnementale importante, puisqu’elles comprennent des voyages, de l’équipement électronique et l’organisation événementielle.

Nous reconnaissons les rapports scientifiques qui démontrent l’importance de minimiser les changements climatiques et d’éviter la pollution générée par les activités anthropiques. À Algora Lab, nous sommes convaincus de la nécessité de protéger l’environnement et nous nous engageons à limiter et compenser les émissions de gaz à effet de serre et la production de déchets dues à nos activités.

Limiter notre impact environnemental

L’organisation d’évènements et les voyages inhérents à nos activités sont la source majeure de notre empreinte environnementale.

Dans le cadre de notre objectif de limiter notre impact écologique, nous nous engageons aux actions suivantes:

  1. Voyage : Lors de courts déplacements, nous encouragerons l’utilisation du transport en commun. 
  2. Nous réduirons les distances voyagées au possible. Lorsque le voyage de longue distance est nécessaire, nous choisirons en priorité les moyens de transport les moins polluants. Au meilleur des possibilités logistiques, nous considérerons d’abord le train, le bus, la voiture, le bateau et finalement l’avion.
  3. Déchets : Dans le cadre de nos événements, et pendant nos activités régulières, nous réduirons autant que possible les quantités de déchets produits. Nous concevrons nos ateliers pour minimiser l’utilisation de matériel jetable, pour réutiliser le matériel, et pour recycler les déchets qui seront malgré cela générés.
  4. Nourriture : Lorsque les événements que l’on organisera contiendront de la nourriture, nous prendrons les mesures nécessaires pour éviter le gaspillage d’aliments, et que les restes seront compostés. Considérant la consommation d’eau élevée et les émissions de gaz à effet de serre dus à l’industrie agro-alimentaires animale, ainsi que les mauvais traitements qu’elle inflige aux êtres sentients, nous prioriserons les aliments à base de plante, préférablement biologiques, dans les repas que nous fournirons .
  5. En général: quelque soit le contexte, nous penserons toujours aux impacts environnementaux de nos activités, et prendront les mesures appropriées pour les réduire.

La compensation carbone: pourquoi et comment?

Malgré les efforts significatifs que nous ferons pour diminuer notre empreinte écologique, la nature même de nos activités et la nécessité de voyager rendront impossible son élimination totale. Nous nous engageons donc à quantifier et compenser les impacts restant, particulièrement par rapport aux gaz à effet de serre.

Nous compenserons nos émissions de gaz à effet de serre en contribuant financièrement à des projets qui captureront ces gaz depuis l’atmosphère ou réduiront les émissions d’une source existante. Nous reconnaissons que la compensation carbone n’est pas une solution parfaite. Cependant, nous considérons que c’est la meilleure option disponible lorsque toutes les autres mesures de réduction ont déjà été appliquées.

Nous avons sélectionné deux organisations pour compenser nos émissions, auxquelles nous contribuerons de manière égale:

  • Carbone Boréal est un projet québécois mené par des chercheurs de l’Université du Québec à Chicoutimi (UQAC). Les contributions sont utilisées pour planter des arbres dans la forêt boréale, ce qui permet d’absorber du carbone de l’atmosphère de manière fiable et vérifiable, tout en constituant un objet de recherche pour les chercheurs de l’UQAC qui s’intéressent à la séquestration de carbone. Cette plateforme a été choisie pour son utilité double (absorption de carbone, recherche scientifique) ainsi que pour la transparence du procédé. De plus, nous sommes heureux d’appuyer une initiative locale, dans la province du Québec où est établi Algora Lab.
  • La Plate-forme de compensation carbone des Nations Unies permet de soutenir des projets certifiés UNFCCC dans des pays en développement. L’objectif premier de ces projets est de réduire ou éviter les émissions de gaz à effet de serre. En parallèle, ils visent aussi à améliorer les conditions écologiques, sociales et économiques dans la région où ils sont développés. Cette plateforme a été choisie pour sa portée internationale, la crédibilité d’un programme des Nations Unies, ainsi que le double impact positif des contributions.

Les deux organisations proposent un prix par tonne de CO2 à compenser. La quantification de nos émissions de gaz à effet de serre sera réalisée à l’aide du Calculateur GES de Carbone Boréal, qui est justifié scientifiquement et permet d’évaluer individuellement une grande diversité d’éléments, des modes de transport à la nourriture. Cette flexibilité est nécessaire pour évaluer justement nos événements.

Nous appuyons aussi le concept Préventif pour le Climat tel que défini par la Chaire en éco-conseil de l’UQAC, et nous nous engageons à doubler nos contributions à chaque programme de compensation.

 

7. Indépendance 

 

Algora Lab est une institution académique. Nous défendons notre indépendance intellectuelle et scientifique. Nous ne sommes pas une organisation politique ou corporative et nous le resterons. 

 

Ressources et date de révision 

 Nous respectons la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle : https://www.declarationmontreal-iaresponsable.com/

 Cette déclaration de valeurs sera mise à jour au bout d’un an, en décembre 2020.