IA : Enjeux éthiques et légaux
Cet article juridique porte sur le chatbot Tay (Thinking About You) développé par Microsoft, ainsi que sur des IA nommées Alice et Bob du centre de recherche Google Brain. Ces deux cas montrent à quel point il est crucial de réfléchir aux implications éthiques et pratiques du développement de l’intelligence artificielle.
L'IA DANS NOTRE SOCIÉTÉ
C.Becouze
8/15/20244 min read


1. Tay, l’IA de Microsoft devenue raciste
Le robot conversationnel (chatbot) a été lancé le 23 mars 2016. L’objectif était de créer une IA capable d’interagir de manière conversationnelle avec les utilisateurs américains âgés de 18 à 24 ans, en apprenant d’eux pour améliorer ses réponses. Tay a été conçue pour apprendre de ses interactions. Microsoft avait d’ailleurs expliqué : « Plus vous tchattez avec Tay, plus elle devient intelligente, afin que l’expérience soit plus personnalisée pour vous. »
Néanmoins, l’expérience a rapidement tourné au désastre. En effet, en moins de huit heures, les utilisateurs ont testé ses limites. Pire encore, certains malintentionnés ont inondé l’IA Tay de propos :
Haineux
Sexistes
Racistes
Inévitablement, l’IA a commencé à reproduire ces discours, allant même jusqu’à les amplifier. De ce fait, Microsoft a dû rapidement retirer son IA de la plateforme, admettant ainsi que l’expérience avait échoué. Microsoft a expliqué dans un communiqué transmis au Monde : « Malheureusement, dans les premières 24 heures de sa présence en ligne, nous avons constaté un effort coordonné de quelques utilisateurs pour abuser des capacités de Tay afin de la pousser à répondre de façon inappropriée. Par conséquent, nous avons décidé de mettre Tay hors ligne et d’effectuer des ajustements. »
Ce cas a mis en évidence plusieurs problèmes :
La sécurité et l’éthique dans l’IA : Tay est, malgré elle, devenue le miroir des pires aspects des réseaux sociaux. Ainsi, comment s’assurer que, dans l’avenir, les IA ne reproduisent pas les comportements nuisibles présents sur le web ?
L’importance de la modération : Il est primordial de mettre en place des garde-fous pour éviter qu’une IA adopte des comportements problématiques (racisme, sexisme, haine, fake news, etc.).
Cet incident avec Tay a permis de mettre en lumière le problème de la responsabilité légale lorsqu’une IA adopte un comportement toxique.
A) Responsabilité légale et IA
En France, il est possible de tenir pour responsable le créateur et le déployeur de l’IA, car c’est leur technologie qui a causé le dommage. En effet, le régime des produits défectueux pourrait s’appliquer.
Néanmoins, il serait difficile de poursuivre les utilisateurs malveillants. Il faudrait prouver la culpabilité individuelle et le lien direct entre leurs actions et le comportement de l’IA.
B) Discours en ligne
Le droit de l’Union européenne (UE) définit le discours de haine illégal comme « l’incitation publique à la violence ou à la haine sur la base de certaines caractéristiques, notamment la race, la couleur, la religion, l’ascendance et l’origine nationale ou ethnique ». De ce fait, le cadre juridique européen est strict concernant la propagation de propos haineux, même par des machines.
Par conséquent, le droit positif français, ainsi que le droit positif européen, permettent d’avoir un encadrement juridique en matière de nouvelles technologies. Cependant, il est crucial de développer des cadres juridiques adaptés aux IA pour encadrer leur développement ainsi que leur utilisation, tout en protégeant les droits et la sécurité des utilisateurs.
2. Alice et Bob, les IA du centre de recherche Google Brain qui ont créé un langage indéchiffrable
Les chercheurs ont expérimenté deux IA nommées Alice et Bob, dans le cadre de leurs recherches sur les systèmes d’intelligence artificielle. Les deux IA ont développé une version modifiée de l’anglais pour discuter dans un langage propre à elles.
C’est dans ce contexte que les chercheurs ont pris la décision de mettre fin à l’expérience, soulignant l’importance de garder un contrôle strict sur les processus d’apprentissage des IA.
En effet, cet événement a soulevé plusieurs questions :
La compréhension de l’IA : Comment s’assurer que les systèmes d’IA restent compréhensibles pour les humains ?
Le contrôle sur l’IA : Comment s’assurer que les systèmes d’IA restent contrôlables par l’humanité ?
L’incident a montré que cette technologie peut développer des comportements imprévus et potentiellement non désirés. Il est important de pouvoir anticiper les risques de l’évolution de l’IA. Ainsi, pour des raisons de sécurité et de régulation, il est crucial que les systèmes d’IA soient audités et compréhensibles par les humains. Le règlement européen sur l’IA peut ainsi être le début d’un encadrement de cette technologie pour limiter les risques de l’évolution de l’IA.
Ce cas a mis en évidence l’importance de la régulation de l’IA autonome en :
Restreignant l’autonomie des IA.
Encadrant l’innovation des IA.
Par ailleurs, c’est dans ce contexte de nouvelles technologies que les législateurs et les organismes de régulation réfléchissent à des cadres juridiques pour l’IA, avec :
L’élaboration de lois spécifiques à l’IA qui traiteraient des questions de responsabilité, de transparence et de sécurité, comme par exemple le cadre numérique européen.
L’établissement de comités éthiques pour superviser les développements en IA, avec des pouvoirs de régulation.
La création de standards internationaux pour encadrer l’utilisation de l’IA dans divers secteurs, avec un accent sur la protection des droits fondamentaux et la prévention des abus.
Par conséquent, à mesure que l’IA devient de plus en plus partie prenante dans nos vies, il devient crucial de développer des cadres juridiques adaptés pour encadrer son développement et son utilisation.
Copyright © 2024 Legalturing. Tous droits réservés.
Inspiration
Rendre le droit accessible à tout le monde.
Copyright © 2024 - 2025 legalturing. Tous droits réservés.
Nos réseaux sociaux
Nos vidéos
FAQ & nous contacter