La revue Vie et Sciences de l'Entreprise (VSE) déjà classée FNEGE émergente en 2019 est maintenant classée FNGE 4 !!!

Résumé :

Nous proposons un outil d'autorégulation pour la conception d'IA qui intègre des mesures sociétales telles que l'équité, l'interprétabilité et la confidentialité. Pour ce faire, nous créons une interface qui permet aux praticiens de l’IA (experts en mégadonnées/data scientists) de choisir visuellement l'algorithme d’apprentissage (Machine Learning/ML) qui correspond le mieux aux préférences éthiques des concepteurs d'IA. En utilisant une méthodologie de conception en design science (science du design), nous testons l'artefact sur des data scientists et montrons que l'interface est facile à utiliser, permet de mieux comprendre les enjeux éthiques de l'IA, génère des débats, rend les algorithmes plus éthiques et est opérationnelle pour la prise de décision. Notre première contribution est de construire un outil de régulation de l'IA qui intègre non seulement les préférences éthiques des utilisateurs, mais aussi les singularités du cas pratique appris par l'algorithme. La méthode est indépendante des cas d'utilisation et des procédures d'apprentissage ML. Notre deuxième contribution est de montrer que les data scientists peuvent choisir librement de sacrifier certaines performances pour atteindre des algorithmes plus éthiques, à condition d'utiliser des outils réglementaires appropriés. Nous fournissons ensuite les conditions dans lesquelles cette approche technique et autorégulatrice peut échouer. Cet article montre comment il est possible de combler le fossé entre les théories et les pratiques en matière d'éthique de l'IA à l'aide d'outils flexibles qui prennent en compte les singularités des cas pratiques.

Mots-clés : Éthique de l'IA, réglementation, Machine Learning, Autoapprentissage, science du design, Design Science, compromis, mégadonnées

Abstract: A SELF-REGULATORY FRAMEWORK FOR IA ETHICS: OPPORTUNITIES AND CHALLENGES

We propose a self-regulatory tool for AI design that integrates societal metric  s such as fairness, interpretability, and privacy. To do so, we create an interface that allows data scientists to visually choose the Machine Learning (ML) algorithm that best fits the AI designers’ ethical preferences. Using a Design Science methodology, we test the artifact on data scientist users and show that the interface is easy to use, gives a better understanding of the ethical issues of AI, generates debate, makes the algorithms more ethical, and is operational for decision-making. Our first contribution is to build a bottom-up AI regulation tool that integrates not only users’ ethical preferences, but also the singularities of the practical case learned by the algorithm. The method is independent of ML use cases and ML learning procedures. Our second contribution is to show that data scientists can select freely to sacrifice some performance to reach more ethical algorithms if they use appropriate regulatory tools. We then provide the conditions under which this technical and self-regulatory approach can fail. This paper shows how it is possible to bridge the gap between theories and practices in AI Ethics using flexible and bottom-up tools.

Keywords: AI Ethics, regulation, Machine Learning, Design Science, trade-off

Resumen: UN MARCO AUTORREGULADOR PARA LA ÉTICA DE LA IA: OPORTUNIDADES Y RETOS

Proponemos una herramienta de autorregulación para el diseño de IA que integra métricas sociales como la equidad, la interpretabilidad y la privacidad. Para ello, creamos una interfaz que permite a los científicos de datos elegir visualmente el algoritmo de aprendizaje automático (ML) que mejor se adapte a las preferencias éticas de los diseñadores de IA. Utilizando una metodología de Design Science, probamos el artefacto con usuarios científicos de datos y demostramos que la interfaz es fácil de usar, permite comprender mejor las cuestiones éticas de la IA, genera debate, hace que los algoritmos sean más éticos y es operativa para la toma de decisiones. Nuestra primera contribución es construir una herramienta de regulación ascendente de la IA que integre no sólo las preferencias éticas de los usuarios, sino también las singularidades del caso práctico aprendido por el algoritmo. El método es independiente de los casos de uso de ML y de los procedimientos de aprendizaje de ML. Nuestra segunda contribución es demostrar que los científicos de datos pueden elegir libremente sacrificar parte del rendimiento para conseguir algoritmos más éticos si utilizan herramientas de regulación adecuadas. A continuación, proporcionamos las condiciones en las que este enfoque técnico y autorregulador puede fallar. Este documento muestra cómo es posible salvar la brecha entre las teorías y las prácticas en la ética de la IA utilizando herramientas flexibles y ascendentes.

Palabras claves: Ética de la IA, regulación, aprendizaje automático, ciencia del diseño, compromiso

Consulter cet article