#impactassessment (2 résultats)

Publication

Utiliser l’IA de manière responsable: notre outil d’analyse d’impact

Les systèmes algorithmiques et basés sur l’IA peuvent avoir des répercussions éthiques sur les personnes. Quiconque les utilise endosse donc une responsabilité particulière. L’outil d’analyse d’impact développé par AlgorithmWatch aide à assumer cette responsabilité et donne les moyens de le faire.

Projet «HUMAN»

HUMAN – un pas de plus vers une utilisation responsable de l’IA

Lorsque la police tente de calculer la probabilité de récidive des délinquant·e·s à l’aide d’algorithmes, lorsque les employeurs font un premier tri des candidatures à l’aide de l’IA ou lorsqu’un agent conversationnel basé sur l’IA rédige des articles de presse: qui est concerné·e par ces contenus, recommandations et décisions générés par des algorithmes? Comment les personnes concernées peuvent-elles être impliquées afin de garantir le respect de leurs droits et la préservation de leurs intérêts?