Prise de position

La stratégie sur l’IA dans l’administration fédérale est une pièce du puzzle

Le Conseil fédéral a publié vendredi dernier sa stratégie partielle pour l'utilisation de l'intelligence artificielle dans l'administration fédérale. Cette stratégie constitue une pièce de puzzle importante de l'élaboration de conditions-cadres pour l'IA. Elle doit toutefois se concrétiser dans un plan de mise en œuvre. Ce n'est qu'alors que nous pourrons voir si et comment l'IA est utilisée de manière responsable dans l'administration. Nous présentons brièvement ci-dessous les éléments dont l'administration fédérale devrait tenir compte dans ce contexte.

Image: Chancellerie fédérale ChF
Angela Müller
Dr. Angela Müller
Directrice d'AlgorithmWatch CH | Associée d’AlgorithmWatch
Estelle Pannatier
Chargée de politique

La stratégie partielle «Utilisation de systèmes d'IA dans l'administration fédérale» décrit la vision de l'administration concernant son utilisation de l'IA et explique les principes qu'elle souhaite suivre pour une utilisation responsable de ces systèmes. Selon le document, l'IA doit contribuer à optimiser les processus et les services de l’administration, à soutenir les cadres et les collaborateur·rice·s et à ouvrir la voie à de nouvelles solutions au sein de l'administration fédérale. Pour sa mise en œuvre, la stratégie désigne trois champs d'action spécifiques: développer les compétences, gagner la confiance et améliorer l’efficience. Pour chacun d'entre eux, elle fixe des objectifs.

Nous saluons le fait que l'administration mène une réflexion stratégique sur l'utilisation de l'IA et définisse les principes qu'elle doit suivre à cet égard. Étant donné que les réglementations autour de l'IA en Suisse n'en sont qu'à leurs débuts, il est crucial de développer un plan clair et complet pour protéger les droits fondamentaux, défendre la démocratie et permettre la durabilité lors de l'utilisation d'algorithmes et d'IA. La stratégie est une pièce importante du puzzle à cet égard. Elle apporte en effet un élément décisif qui fait défaut à l'état des lieux et à l'orientation du Conseil fédéral jusqu'à présent: elle part d'objectifs et de principes globaux et en déduit des champs d'action. Parmi ces principes, la stratégie mentionne notamment la protection des droits fondamentaux ainsi que la durabilité écologique, sociale et économique. L'administration fédérale reconnaît donc ici que le développement et l'utilisation de l'IA ne peuvent pas être abordés avec des œillères, mais qu'il faut aussi considérer la situation dans son ensemble, par exemple la concentration du pouvoir dans les entreprises tech ou la consommation de ressources qui en découle.

Cependant, la stratégie reste vague à plusieurs égards et doit être concrétisée dans un plan de mise en œuvre. Ce n'est qu'avec ce plan et les mesures qui en découleront que l'on verra comment les objectifs pourront être atteints et comment les principes de la stratégie, comme la durabilité, seront effectivement mis en œuvre et appliqués dans la pratique. Nous présentons ci-après brièvement les points auxquels l'administration doit veiller lors de la mise en œuvre de la stratégie.

Champ d’action 1: développer les compétences

Le développement des compétences est essentiel pour une utilisation responsable de l'IA dans l'administration. Il est toutefois important que cette approche ne se limite pas uniquement aux compétences techniques, mais qu'elle intègre également les aspects éthiques, sociaux et juridiques. L'administration fédérale entend également mettre en place des structures de coordination interdépartementales. C'est très important pour garantir l'apprentissage et la coordination à l'échelle de l'administration. Cependant, pour exercer ce rôle, les structures concernées, comme le CNAI – Réseau de compétences en intelligence artificielle, doivent disposer des ressources adéquates.

Champ d’action 2: gagner la confiance

La stratégie prévoit que «l’administration fédérale s’assure, au moyen de règles, de pratiques, de processus et d’instruments techniques et non techniques, qu’elle utilise les systèmes d’IA conformément à ses valeurs et à ses exigences légales et éthiques». Elle doit utiliser les systèmes d'IA pour le bien commun et prendre des mesures contre les éventuels effets négatifs sur la société, la démocratie et l'État de droit. La stratégie stipule en outre sans équivoque que les responsabilités et l'obligation de rendre des comptes doivent être garanties, notamment par des processus appropriés. Elle reconnaît ainsi que la manière dont un outil est utilisé dans un contexte donné est déterminante. La transparence et la traçabilité sont des conditions importantes pour garantir cette responsabilité, mais ces principes ne sont pas explicitement traités. Dans nos recommandations pour l'utilisation de systèmes algorithmiques dans l'administration publique, nous montrons pourquoi des conditions strictes en matière de transparence et de traçabilité sont importantes et pourquoi elles doivent donc être définies dès l'acquisition et le développement des systèmes. Cela inclut des mesures telles que des analyses d'impact obligatoires, des registres publics et le droit pour les personnes concernées d'être informées lorsqu'un algorithme a contribué à la prise de décision (entièrement ou partiellement automatisée). L'exemple récent autour d'un modèle d'IA testé en secret par le Conseil fédéral, appelé Gov-GPT, illustre le fait que cette transparence fait souvent défaut dans la pratique. Nous recommandons à l'administration fédérale de ne pas considérer la transparence comme une menace, mais comme une opportunité.

Champ d’action 3: améliorer l’efficience

Le dernier champ d'action se concentre sur l'amélioration de l’efficience. Si réfléchir à la manière dont l'IA peut améliorer l'efficacité des processus est certainement important, d'autres aspects de la vision de la stratégie ne sont pas explicitement pris en compte dans les champs d'action. Le flou persiste donc sur la manière dont l'administration fédérale entend utiliser l'IA non seulement pour améliorer son efficacité, mais aussi pour réaliser sa vision d'une meilleure qualité ou d’une meilleure orientation utilisateurs de ses services. Par ailleurs, il serait essentiel que l'utilisation de l'IA poursuive également d'autres objectifs. Par exemple, comment elle peut renforcer la capacité d'action de l'État, améliorer la durabilité ou augmenter l'égalité des chances. En ce qui concerne l’amélioration de l’efficience, il est également essentiel que l'administration fédérale réfléchisse dès maintenant à la stratégie à adopter et définisse comment gérer les éventuels gains d'efficacité. Pour cela, elle devrait déterminer qui doit en profiter, où les ressources gagnées doivent être utilisées et comment elles doivent être réparties. Ce n'est qu'alors qu'il sera possible d'évaluer les bénéfices potentiels d'une augmentation de l'efficacité, et qui en bénéficiera.

Le 12 février 2025, le Conseil fédéral a pris sa décision de principe concernant la réglementation de l'IA. Dans son orientation, le Conseil fédéral reconnaît que l'IA doit être réglementée pour protéger les droits fondamentaux et vise notamment à ratifier la convention sur l'IA du Conseil de l'Europe. Il est essentiel que les différentes pièces du puzzle de la gouvernance de l'IA, comme la stratégie partielle sur l'utilisation de systèmes d'IA dans l'administration fédérale ou la réglementation des plateformes en ligne, soient raccordées et réunies dans une stratégie globale. C'est la seule façon pour la Suisse de faire preuve de vision globale et de concevoir activement des conditions-cadres qui prennent en compte le contexte plus large et l'économie politique derrière l'IA.

AlgorithmNews CH - abonne-toi maintenant à notre newsletter !