Vision, Mission & Valeurs
Notre vision
Nous aspirons à un monde où la technologie en général, et les systèmes algorithmiques en particulier, sont utilisés pour bénéficier aux êtres humains et les protéger. Ces systèmes devraient rendre les sociétés plus justes, démocratiques, inclusives et durables, aussi bien en ce qui concerne l’origine, la racialisation, le genre présumé ou revendiqué, l’orientation sexuelle, les capacités, l’âge, la richesse, la classe sociale ou la consommation de ressources.
Notre mission
Nous veillons à ce que l’utilisation de systèmes algorithmiques profite au plus grand nombre, et pas uniquement à une minorité. Nous plaidons pour des systèmes algorithmiques qui protègent la démocratie et l’État de droit et non pas l’autoritarisme, la liberté et non pas la surveillance, les droits humains et non pas la déshumanisation, l’autonomie et non pas les asymétries de pouvoir, la justice et l’égalité et non pas le favoritisme et la discrimination, et un mode de vie durable et non pas l’extractivisme.
Pour réaliser cette mission, nous
- développons et utilisons des outils pour décortiquer et analyser l’utilisation de processus de prise de décision algorithmique et leurs effets sur les humains et les sociétés ;
- expliquons les caractéristiques et les structures de pouvoir derrière ces processus de prise de décision algorithmique complexes. Nous signalons leurs risques ainsi que les conflits et préjudices possibles au grand public ainsi qu’aux personnes ayant des responsabilités politiques. Nous les aidons à faire la différence entre les projets fondés sur des recherches scientifiques solides et éthiques et ceux fondés sur de la poudre de perlimpinpin ;
- élaborons des cadres efficaces pour l’utilisation des systèmes algorithmiques, fondés sur nos recherches et les évidences scientifiques, en assurant la transparence, la compréhensibilité, le contrôle individuel et démocratique ainsi que l’obligation de rendre des comptes ;
- dénonçons publiquement les utilisations abusives ainsi que les effets discriminatoires et d’autres types d’impacts négatifs des systèmes algorithmiques sur les droits humains et le bien commun. Nous faisons campagne pour des mécanismes de transparence et de responsabilisation efficaces. Nous nous engageons pour la reconnaissance et l’inclusion de divers points de vue dans tous les aspects de l’utilisation et de la surveillance des systèmes algorithmiques, y compris en ce qui concerne les décisions relatives à la question de savoir si leur application est justifiée pour un objectif donné ;
- bâtissons un réseau de personnes et d’organisations de différents milieux, cultures et disciplines pour collaborer à la réalisation de ces objectifs ;
- encourageons le débat plus large sur la question de savoir s’il devrait y avoir des limites à l’utilisation d’approches basées sur le calcul pour résoudre les problèmes humains, et sur la façon dont elles diffèrent fondamentalement des approches non basées sur le calcul.
Nos valeurs
Chez AlgorithmWatch, nous pratiquons ce que nous attendons des autres : respect, équité, solidarité, intégrité, inclusivité, diversité, transparence, responsabilité. Nous avons une culture de la rigueur et du pardon. Nous donnons le meilleur de nous-mêmes et acceptons que les erreurs sont une partie nécessaire de l’apprentissage, à la fois individuellement et en tant qu’organisation. Nous croyons à l’encouragement, pas au rabaissement. Nous nous soutenons mutuellement.
Nos positions et nos exigences sont basées sur des preuves obtenues par une analyse professionnelle et des normes élevées de recherche. Nous sommes politiquement apartisans et laïques. Nous dénonçons les absurdités, peu importe d’où elles viennent, nous résistons aux dynamiques de pouvoir et nous n'hésitons pas à nous remettre en question dans le cadre d'un échange d'arguments rationnels. Nous travaillons avec toute personne qui fait preuve d’une véritable bonne volonté pour résoudre les problèmes, qu’elle soit issue de la société civile, d’un gouvernement, d'une autorité publique, d’une université ou d’une entreprise privée.
Nous sommes convaincu·e·s que la société civile et les personnes et groupes affectés par les systèmes algorithmiques doivent être une voix centrale dans ce débat, et nous nous efforçons de représenter de manière convaincante et respectueuse l’intérêt général.
Nous n’acceptons que des financements qui ne compromettent pas notre capacité à aborder les problématiques librement, de manière approfondie et objective. Nous produisons et publions des rapports précis et honnêtes sur nos activités et notre financement.
En tant qu’équipe, nous reconnaissons les personnes comme des individus dans toute leur dignité, et non comme des ressources humaines dont la valeur peut être quantifiée et mesurée par des mesures de performance. Nous comprenons qu’être une équipe diversifiée et inclusive est un processus continu. Pour en faire un succès, nous devons être prêt·e·s à écouter et à apprendre, à voir et à remettre en question les privilèges et à agir en conséquence. Nous visons une représentation équilibrée et diversifiée au sein de nos organes directeurs et de notre équipe.
Nous ne nous prenons pas plus au sérieux que nécessaire. Nous croyons qu’une journée sans rire ensemble et de nous-mêmes est une journée perdue.
Le document sur la vision, la mission et les valeurs complète le Manifeste ADM qui a guidé notre travail depuis la création d'AlgorithmWatch:
Le Manifeste d'ADM
La prise de décision algorithmique (algorithmic decision-making, ADM) est une réalité aujourd'hui ; ce sera une réalité encore plus importante demain. Tout en étant prometteur par de nombreux aspects, l’ADM porte en elle d'énormes dangers. Le fait que la plupart des systèmes d’ADM soient des « boîtes noires » n’est pas une fatalité.
- Un système d’ADM n'est jamais neutre.
- Le créateur ou la créatrice d'un système d’ADM est responsable de ses effets. Par ailleurs, un système d’ADM n'est pas uniquement créé par son concepteur ou sa conceptrice mais englobe des éléments créés par d’autres.
- Un système d’ADM doit être intelligible, afin de pouvoir rendre des comptes aux institutions qui permettent la démocratie.
- Les sociétés démocratiques doivent rendre les systèmes d'ADM intelligibles en utilisant à la fois des technologies, des lois et des instances de contrôle.
- Nous devons pouvoir décider des libertés qu’il ou elle délègue à un système d’ADM.
Pour nous, un processus de prise de décision algorithmique implique les étapes suivantes:
- Conception de procédures de recueil de données,
- Recueil de données,
- Conception d’algorithmes pour
- analyser les données,
- interpréter les résultats de cette analyse sur la base d'un modèle créé par des humains,
- agir automatiquement, de quelque manière que ce soit, à partir de ces interprétations.