Article

Réseaux sociaux et IA: comment protéger les enfants et les jeunes?

À l'occasion de la Journée internationale des droits de l'enfant, nous mettons en lumière les débats actuels sur les effects des réseaux sociaux et de l'intelligence artificielle sur les enfants et les jeunes. Nous montrons pourquoi le débat ne devrait pas se limiter à la question d'une interdiction des réseaux sociaux et comment mieux protéger les enfants et les jeunes.

Ying-Chieh Lee & Kingston School of Art / betterimagesofai.org / creativecommons.org/licenses/by/4.0
Estelle Pannatier
Chargée de politique senior
Angela Müller
Dr. Angela Müller
Directrice d'AlgorithmWatch CH | Associée d’AlgorithmWatch

Qu'il s'agisse de jouets basés sur l'IA, de systèmes d'apprentissage personnalisés, d'algorithmes de réseaux sociaux ou de compagnons IA, les enfants et les adolescent·e·s sont de plus en plus en contact avec des systèmes algorithmiques et d'IA. Cependant, ces systèmes peuvent également avoir des effets négatifs. Ils peuvent par exemple renforcer les inégalités et reproduire les préjugés. À long terme, cela peut avoir des répercussions sur les perspectives et les conditions de vie des enfants. Pour en savoir plus, voir notre article «Comment l'intelligence artificielle peut désavantager les enfants». Les algorithmes et l'IA peuvent également avoir une influence sur le développement et la santé mentale des enfants et des adolescents.

Quel sont les effets des réseaux sociaux sur les enfants et les adolescent·e·s?

C'est précisément cette question qui est souvent au centre des débats actuels, en particulier l'impact des réseaux sociaux sur les enfants et les jeunes. Les plateformes de réseaux sociaux utilisent des systèmes de recommandation algorithmiques dans le but de garder les utilisateur·rice·s en ligne le plus longtemps possible: plus nous restons longtemps sur la plateforme et plus nous y interagissons, plus la plateforme peut nous montrer de publicités et plus l'entreprise derrière celle-ci gagne d'argent. En conséquence, les algorithmes des réseaux sociaux classent les contenus affichés dans nos flux en fonction de la probabilité que nous les consommions, les aimions, les partagions ou les commentions. Cela peut également conduire à une diffusion accrue de contenus polarisants, émotionnels, provocateurs, extrêmes ou délibérément faux. Il peut en résulter un renforcement des préjugés, en particulier chez les enfants et les adolescent·e·s. Ce faisant, le risque qu'ils se laissent influencer dans leur façon de penser, de ressentir ou d'agir peut augmenter. Par exemple, la comparaison sociale avec des images idéalisées peut nuire à l'estime de soi.

Une étude menée en France par Amnesty International et publiée récemment a montré que le fil d'actualité «For You» de TikTok poussait les enfants et les jeunes intéressé·e·s par les contenus liés à la santé mentale dans un cercle vicieux de dépression, d'automutilation et de contenus suicidaires. Trois à quatre heures seulement après avoir commencé à utiliser le fil d'actualité «For You» de TikTok, des comptes tests se sont vus diffusé des vidéos qui romantisaient le suicide ou montraient des jeunes exprimant leur intention de se suicider, y compris des informations sur les méthodes de suicide. Malgré le nombre croissant d'études sur ce sujet, il reste difficile de se faire une idée précise de ces effets. En effet, la recherche ne dispose à ce jour d'aucune preuve concluante sur la mesure dans laquelle et la manière dont les réseaux sociaux affectent la santé mentale des enfants et des adolescent·e·s.

Comment mieux protéger les enfants et les adolescent·e·s?

Lorsqu'il s'agit de mieux protéger les enfants et les jeunes sur les réseaux sociaux, nous assistons souvent à un débat polarisé autour d'une solution qui semble simple sur le papier: sommes-nous pour ou contre l'interdiction des réseaux sociaux pour les moins de 16 ans? Des interventions dans ce sens ont déjà été discutées au niveau national (postulats 24.4480 et 24.4592) et au niveau cantonal, par exemple dans le canton du Valais. Cependant, la problématique est plus complexe que ne le suggère une interdiction générale des réseaux sociaux. En effet, cette revendication ne doit pas occulter le problème fondamental: notre débat public, auquel nous souhaitons en principe associer les jeunes, se déroule aujourd'hui en grande partie sur des plateformes en ligne privées. Le modèle économique des plateformes de réseaux sociaux dominantes repose sur la publicité; celles-ci utilisent la personnalisation basée sur le comportement pour maximiser notre temps d'utilisation (et donc les publicités affichées). Cela facilite le partage et la diffusion de contenus préjudiciables aux individus ou au débat démocratique. Les deepfakes (créés rapidement grâce à l'IA), les contenus sexualisés, les discours haineux, les absurdités générées par l'IA (AI Slop) ou les représentations de violence peuvent ainsi être facilement accessibles et bien visibles lorsque des personnes (quel que soit leur âge) naviguent sur les réseaux sociaux. Les plateformes acceptent cette situation afin de maximiser leurs profits.

Afin de permettre un débat public constructif sur les réseaux sociaux, nous devons donc responsabiliser les entreprises qui exploitent ces plateformes. Un levier important à cet effet est la réglementation des plateformes, pour laquelle un projet de loi a été mis en consultation par le Conseil fédéral en octobre 2025. Nous devons utiliser cette réglementation ainsi que les futures réglementations relatives à l'IA pour renforcer la protection et les droits de toutes les personnes qui utilisent les réseaux sociaux, en particulier les groupes plus vulnérables tels que les enfants et les jeunes. Cela peut se faire, par exemple, en limitant les «dark patterns» (les fonctionnalités de conception telles que le «défilement infini», c'est-à-dire des fils d'actualité sans fin destinés à inciter les utilisateur·rice·s à rester en ligne), les algorithmes visant à maximiser l'interaction, le profilage comportemental ou la publicité ciblée sur la base de caractéristiques sensibles. Nous avons également besoin d'alternatives orientées vers l'intérêt général, y compris adaptées aux jeunes, pour contrer la domination d'un petit nombre de plateformes mondiales. Il faut ainsi développer et promouvoir des alternatives, que ce soit d’autres systèmes de recommandation algorithmiques, de nouveaux designs de plateformes ou encore des plateformes alternatives.

Les compétences médiatiques et démocratiques constituent également des pièces de puzzle essentielles pour l'utilisation des réseaux sociaux et doivent être renforcées. Il s'agit d'une part de transmettre aux jeunes des compétences qui leur permettent de comprendre le fonctionnement des plateformes en ligne, leurs algorithmes et leurs effets. D'autre part, nous devons être en mesure de transmettre aux enfants et aux adolescent·e·s les principes démocratiques: par exemple, ce que signifie l'accès à des informations fiables pour le fonctionnement d'une société démocratique, pourquoi nous avons besoin d'un journalisme fort et diversifié et quelle est l'importance d'un débat inclusif et constructif auquel tout le monde peut participer.

Nous avons également besoin d'une meilleure base factuelle dans ce domaine: la recherche indépendante et interdisciplinaire sur le fonctionnement des algorithmes des plateformes et, en particulier, sur leurs effets sur les personnes et la société, y compris les enfants et les jeunes, doit être davantage encouragée et financée. En effet, nous n’avons aujourd'hui pas assez de connaissances sur les effets des réseaux sociaux et de l'IA. Sans une base factuelle solide, il est difficile de prendre les bonnes décisions en matière de réglementation.

Ne pas oublier les générateurs IA d'images et de vidéos, les chatbots d'IA et les compagnons IA

Enfin, lorsque nous parlons de protection des enfants et des jeunes, nous ne devons pas oublier qu'outre les algorithmes des réseaux sociaux, d'autres applications d'IA, telles que les générateurs d'images et de vidéos, les chatbots ou les compagnons IA, qui sont de plus en plus intégrés aux plateformes en ligne, peuvent également influencer les enfants et les adolescent·e·s. Les générateurs d'images permettent de créer facilement des contenus violents, diffamatoires ou sexistes, comme l'a notamment montré un cas en Espagne. Les compagnons IA sont aussi de plus en plus utilisés par les jeunes pour obtenir des conseils ou un accompagnement. Aujourd'hui, ils sont souvent commercialisés sans mesures de précaution adéquates. Ainsi, plusieurs cas ont déjà été recensés où des adolescent·e·s se sont tragiquement donné la mort après de longues conversations avec des chatbots tels que ChatGPT. De tels destins ne sont jamais monocausaux et il serait erroné et imprudent de considérer le chatbot comme la seule cause. Mais ils montrent que les systèmes algorithmiques et d'IA ne doivent pas être un terrain de jeu sans aucune mesure de protection, en particulier pour les adolescent·e·s qui se trouvent dans des phases sensibles de leur vie. Les exploitants d'outils d'IA doivent donc assumer la responsabilité de prendre des mesures pour protéger de manière adéquate les utilisateur·rice·s.