Écrit par : Ilya Rokach, Université européenne des sciences humaines.
Au sein de l’Union européenne, la responsabilité sociale des entreprises (RSE) est devenue un pilier essentiel pour équilibrer le bien-être social et la rentabilité des entreprises, en particulier dans le contexte de la transformation numérique et de l’évolution du paysage réglementaire. L’IA générative est capable de créer des textes, des œuvres d’art qui remportent divers concours (par exemple « Spatial Theatre »), des chefs-d’œuvre musicaux, etc. Elle soulève de nouveaux dilemmes éthiques et juridiques qui nécessitent de repenser les principes de la RSE, notamment en ce qui concerne la dignité humaine, la surveillance et la responsabilité (Vincent, 2022).
L’UE a répondu à ces défis par une législation novatrice, notamment le règlement général sur la protection des données (RGPD) et la loi sur l’intelligence artificielle (AI Act), se positionnant ainsi comme un leader mondial en matière de réglementation éthique de l’IA. Ces instruments visent à aligner le développement technologique sur les valeurs fondamentales de l’UE – respect de la dignité humaine, liberté et démocratie – et influencent directement la manière dont la RSE est mise en œuvre en relation avec l’IA.
Dans le contexte du développement de l’IA générative, la RSE nécessite la mise en œuvre d’un cadre éthique qui va au-delà des pratiques commerciales établies. Dans ce cas, les théories sous-jacentes à la discussion sont la théorie des parties prenantes, développée par Edward Freeman, et l’éthique kantienne, du nom du grand penseur et philosophe Emmanuel Kant.
La théorie des parties prenantes souligne la nécessité pour les entreprises de prendre en compte les intérêts de toutes les parties qui sont engagées dans l’activité et influencent ses actions et son développement. L’IA générative perturbe cet équilibre, créant des risques de perte d’emploi, d’atteintes à la vie privée et de biais algorithmiques. Par exemple, des outils tels que ChatGPT ou DALL-E remplacent les rôles créatifs et soulèvent des questions sur la responsabilité éthique des entreprises en matière de préservation culturelle et d’emploi équitable.
Du point de vue de l’élaboration des politiques de l’UE, ces préoccupations sont prises en compte dans la loi sur l’IA, qui introduit une classification des systèmes d’IA basée sur les risques et impose des garanties obligatoires pour les applications « à haut risque » susceptibles d’affecter l’emploi, l’éducation et l’accès aux services, domaines dans lesquels les droits des parties prenantes sont les plus vulnérables.
L’éthique kantienne, en revanche, est fondée sur la dignité humaine et le devoir moral, et l’un de ses principes centraux est l’impératif catégorique de traiter les personnes non pas comme des moyens pour parvenir à des fins, mais comme des fins en soi. Cet impératif est en contradiction avec l’utilisation non réglementée des données personnelles pour l’entraînement de l’IA, dans lequel les travaux des individus sont traités comme de simples données brutes sans leur consentement, violant ainsi leur vie privée et leur autonomie.
Cette violation éthique est particulièrement pertinente dans le contexte de l’UE, où le RGPD offre un cadre juridique complet pour protéger les données personnelles. En vertu de l’article 5 du RGPD, les données personnelles doivent être traitées de manière licite, loyale et transparente. La formation de l’IA à partir de données personnelles récupérées enfreint directement ces principes, exposant les entreprises à des sanctions et à des risques pour leur réputation.
La RSE dans le domaine de l’IA exige la transparence, la protection des droits des travailleurs et la prévention de la discrimination. En vertu de la loi sur l’IA et du RGPD, il ne s’agit pas de lignes directrices facultatives, mais d’obligations légales, qui institutionnalisent le comportement éthique des entreprises. Ainsi, l’intégration des principes de la théorie des parties prenantes et de l’éthique kantienne aide les entreprises à minimiser les risques associés à l’IA et à renforcer la confiance du public dans les technologies disruptives de l’avenir.
En effet, l’IA générative est une technologie révolutionnaire, car elle transforme les industries, leur fonctionnement et leur développement futur, et crée de nouvelles opportunités d’innovation. Dans le même temps, sa diffusion rapide concentre les risques liés à la RSE dans trois domaines : la vie privée, le travail créatif et les droits d’auteur, et la manipulation (y compris les deepfakes).
De nombreux pipelines de formation reposent sur la collecte de données à grande échelle ; en l’absence de consentement valable, cela entre en conflit avec la légalité, la limitation des finalités et la minimisation des données prévues par le RGPD, et érode la confiance, qui est au cœur de la RSE.
Par exemple, pour former les algorithmes de la start-up Clearview AI, des milliards d’images ont été prélevées sur les réseaux sociaux à l’insu et sans le consentement des utilisateurs. Clearview AI a été condamnée à une amende de 20 millions d’euros en 2022 par l’autorité italienne de protection des données pour avoir mené des activités de collecte et d’utilisation illégales des données des utilisateurs. Cette affaire montre que sans une gouvernance des données et des contrôles de consentement intégrés et conformes à la RSE, la seule application de la loi ne suffit pas à empêcher que cela se reproduise. Pour la RSE, les conséquences comprennent l’érosion de la confiance des utilisateurs et l’augmentation des risques d’utilisation abusive des données sensibles.
Les outils d’IA générative tels que ChatGPT, MidJourney, DALL-E, Suno, etc. ont reconfiguré les marchés créatifs et soulevé des questions systémiques sur la provenance des données d’entraînement et les limites de l’appropriation.
Un exemple frappant est le procès en cours « Stability AI, Midjourney et DeviantArt » aux États-Unis. En janvier 2023, les artistes Sarah Andersen, Kelly McKernan et Carla Ortiz ont intenté un recours collectif contre Stability AI, Midjourney et DeviantArt. Elles ont affirmé que ces entreprises avaient utilisé leurs œuvres pour former l’IA sans leur consentement, enfreignant ainsi les droits d’auteur de millions d’artistes. Le litige porte essentiellement sur la limite entre l’exploration de textes et de données/l’utilisation équitable et la protection du travail créatif. En août 2024, le juge a autorisé certaines des demandes des plaignants à être examinées, notamment les allégations de violation des droits d’auteur et des marques déposées (CourtListener 2023). Pour la RSE, cela met en évidence non seulement les risques juridiques, mais aussi la nécessité d’une répartition équitable de la valeur entre les plateformes et les créateurs.
Dans le contexte de la RSE, cette affaire soulève des questions socio-économiques urgentes. À mesure que les contenus générés par l’IA se généralisent et que les tâches créatives peuvent être automatisées, les créateurs humains sont confrontés à l’instabilité financière, à un marché de la créativité en déclin et à une réduction des possibilités de réalisation personnelle. Cette évolution affecte non seulement les créateurs individuels, mais réduit également la diversité culturelle en général, car les résultats des algorithmes sont souvent dépourvus des spécificités et des nuances inhérentes à la créativité humaine.
Au sein de l’Union européenne, ces préoccupations ont relancé le débat sur le droit d’auteur et les limites éthiques de l’entraînement de l’IA. La Commission européenne a reconnu la nécessité de moderniser le cadre européen du droit d’auteur en réponse à l’essor de l’IA générative. Si la directive européenne sur le droit d’auteur (2019/790) prévoit des exceptions pour l’exploration de textes et de données (TDM), elle permet également aux titulaires de droits de se désengager, une disposition qui reflète la volonté de l’UE de trouver un équilibre entre l’innovation et la protection des droits des créateurs.
L’utilisation manipulatrice de l’IA générative constitue une menace particulièrement insidieuse pour les droits de l’homme car, contrairement aux formes traditionnelles de persuasion et d’ingénierie sociale, la manipulation par deepfake repose sur des algorithmes sophistiqués qui exploitent les vulnérabilités psychologiques et créent des contenus artificiels hyperréalistes. Par exemple, en 2019, une filiale anonyme d’une société énergétique britannique a été victime d’une fraude financière réalisée à l’aide d’une deepfake : les fraudeurs ont utilisé une deepfake vocale pour se faire passer pour le PDG de la société mère allemande lors d’un appel téléphonique. Le PDG fictif, dont la voix avait été usurpée à l’aide de l’IA, a demandé au directeur de la filiale britannique de transférer 220 000 euros sur le compte d’un fournisseur hongrois, alors qu’en réalité, ce compte appartenait aux criminels (The Wall Street Journal 2019).
Cet incident illustre comment l’usurpation d’identité à l’aide de modèles amplifie les risques de fraude traditionnels et élargit donc le périmètre de la RSE, qui passe des contrôles internes à des impacts sociétaux plus larges. Par exemple, les vidéos deepfake sont largement utilisées dans la propagande politique pour saper la confiance du public dans les institutions au pouvoir : lors des élections législatives de février 2020 à Delhi, deux fausses vidéos du président du Bharatiya Janata Party (BJP), Manoj Tiwari, critiquant le gouvernement en place de Delhi dirigé par Arvind Kejriwal, sont devenues virales sur WhatsApp afin d’influencer la perception des électeurs (Vice 2020). Ces épisodes renforcent l’obligation de la RSE d’intégrer la provenance et la divulgation dans les communications basées sur l’IA.
L’Union européenne a pris note de ces risques. La loi sur l’IA comprend des dispositions qui traitent spécifiquement des utilisations manipulatrices de l’IA, en particulier celles impliquant l’identification biométrique, la reconnaissance émotionnelle et les technologies deepfake. Elle impose la transparence, l’étiquetage des contenus synthétiques dans des contextes spécifiques et des obligations d’atténuation des risques pour les systèmes à haut risque, faisant passer les contrôles de manipulation de « bonnes pratiques » à une conformité obligatoire.
Dans tous ces cas, le dénominateur commun est le manque de gouvernance plutôt que l’inévitabilité inhérente :
– renforcer la gouvernance des données : intégrer le consentement, la limitation des finalités et la minimisation dès la conception ; documenter les bases légales ; et soumettre les ensembles de données de formation à un audit indépendant, avec suspension en cas d’échec des amendes dissuasives.
– faire progresser la conception éthique : tester les impacts disparates, sélectionner des données représentatives et contrôler les lancements en fonction de seuils de biais ; le modèle de recrutement abandonné par Amazon montre comment les données historiques peuvent renforcer la discrimination si elles ne sont pas corrigées. Dans l’UE, la loi sur l’IA exige que les systèmes d’IA à haut risque soient soumis à des évaluations de conformité, notamment des contrôles visant à détecter les biais, la discrimination et la représentativité dans les données d’entraînement. Cela légalise les attentes fondamentales en matière de RSE concernant la non-discrimination et la protection des droits de l’homme. En outre, les entreprises devraient mettre en place des comités internes ou nommer un responsable de l’éthique chargé de superviser le développement de l’IA et habilité à suspendre les déploiements en attendant la correction des risques.
– Renforcer la surveillance et l’interopérabilité des règles : adapter les cadres de propriété intellectuelle afin de clarifier les limites de l’exploration de textes et de données et les options de désengagement des créateurs, et coordonner l’application des règles entre les juridictions afin de limiter l’arbitrage.
Au sein de l’UE, la cohérence réglementaire transfrontalière est poursuivie grâce à des mécanismes tels que la loi sur les services numériques (DSA) et la loi sur les marchés numériques (DMA) qui, avec la loi sur l’IA, forment un cadre holistique pour régir les plateformes numériques, le déploiement de l’IA et la protection des consommateurs.
Combler les lacunes en matière de confidentialité, de travail créatif et de manipulation n’est pas seulement une réduction des risques, mais un mandat stratégique de confiance pour les entreprises qui déploient l’IA générative. Il ne fait aucun doute que l’IA générative a des implications profondes, tant positives que négatives, pour les droits de l’homme. Selon les principes du droit international, les droits de l’homme sont au cœur des interactions entre les gouvernements, les entreprises et la société. La Déclaration universelle des droits de l’homme énonce les principes fondamentaux de dignité, de liberté et d’égalité qui restent pertinents à l’ère numérique, indépendamment des défis posés par le développement de l’IA générative.
La Déclaration universelle des droits de l’homme, le Pacte international relatif aux droits civils et politiques et le Pacte international relatif aux droits économiques, sociaux et culturels établissent l’obligation pour les États de protéger les droits de l’homme contre les violations, y compris celles commises par des acteurs non étatiques. Dans le contexte de l’IA, cela englobe l’utilisation abusive des données, les algorithmes discriminatoires et l’érosion des moyens de subsistance créatifs.
Les Principes directeurs des Nations unies relatifs aux entreprises et aux droits de l’homme traduisent cela en une obligation pour les entreprises de faire preuve de diligence raisonnable en matière de droits de l’homme, y compris en matière de confidentialité, de transparence et d’atténuation des préjugés.
Ces principes mondiaux sont renforcés au niveau européen par des instruments tels que la Charte des droits fondamentaux de l’Union européenne, qui consacre le droit à la vie privée, à la protection des données et à la non-discrimination. Les cadres législatifs et éthiques de l’UE fournissent ainsi une base concrète pour aligner la RSE sur les droits de l’homme à l’ère de l’IA.
Les débats sur l’universalité par opposition au relativisme culturel sont importants pour le déploiement mondial de l’IA. Une approche rawlsienne de la « justice comme équité » soutient les droits fondamentaux (vie privée, égalité, non-discrimination) qui s’appliquent dans tous les contextes, tandis que la mise en œuvre peut refléter les conditions locales. Par exemple, le droit à la confidentialité des données énoncé dans des lois internationales telles que le RGPD est souvent considéré comme un droit universel. Le RGPD, un règlement phare de l’UE, illustre comment des instruments juridiques supranationaux peuvent établir des références mondiales en matière de gouvernance éthique des données.
En revanche, les points de vue relativistes culturels mettent l’accent sur la sensibilité aux normes sociales locales (par exemple, les cadres collectivistes de la gouvernance des données). Pour les entreprises qui mettent en œuvre l’IA générative, un modèle hybride pragmatique, ancré dans les Principes directeurs des Nations unies et les normes de référence au niveau de l’UE, qui adapte les processus en consultation avec les régulateurs locaux et la société civile, permet d’équilibrer légitimité et faisabilité.
Dans l’UE, ce modèle hybride est partiellement institutionnalisé par la loi sur l’IA et l’Alliance européenne pour l’IA, un forum qui rassemble des acteurs de différents secteurs et cultures afin de contribuer à une vision commune d’une IA fiable et inclusive. Par exemple, l’intégration de normes universelles permet de minimiser les risques liés aux droits et de renforcer la confiance lors du déploiement.
À l’heure actuelle, l’Union européenne a réalisé des progrès significatifs en adoptant la loi sur l’IA, qui classe les systèmes en fonction du risque et impose des obligations de transparence, de responsabilité et d’équité. La loi sur l’IA met en œuvre de nombreux principes liés à la RSE en exigeant la documentation, la supervision humaine et l’évaluation des risques pour les systèmes d’IA à haut risque. Elle interdit également certaines utilisations manipulatrices ou abusives de l’IA, renforçant ainsi la dignité et l’autonomie humaines. La prévoyance (par exemple, les deepfakes, l’utilisation abusive des données, les situations de conflit) devrait guider les mises à jour itératives afin de maintenir l’adaptabilité du cadre.
Comme indiqué précédemment, les entreprises jouent un rôle clé dans la réalisation pratique des droits de l’homme, et leurs stratégies de développement devraient inclure des dispositions visant à intégrer des principes éthiques dans les processus de développement et d’utilisation de l’IA. Les évaluations d’impact sur les droits de l’homme (HRIA) devraient devenir la norme pour les cas d’utilisation à haut risque, avec des mesures correctives claires.
Un autre élément important est la transparence des algorithmes, ce qui signifie que les systèmes d’IA doivent être explicables et vérifiables. Une explicabilité adaptée aux publics (régulateurs, utilisateurs concernés, auditeurs) et une implication structurée des parties prenantes renforcent à la fois la responsabilité et l’acceptabilité sociale.
Un autre outil important est la formation à l’éthique et à la sensibilisation à l’IA destinée aux équipes des produits, des questions juridiques et de la direction, liée à des critères concrets de décision.
Des recours efficaces jouent un rôle important dans la lutte contre les violations des droits humains dans le contexte du développement de l’IA générative. Les entreprises doivent veiller à ce que les mécanismes de plainte et de réclamation soient accessibles, avec des canaux protégés pour les employés, les utilisateurs et les tiers, et des accords de niveau de service (SLA) avec des délais de réponse.
Les partenariats et la collaboration entre les entreprises, les gouvernements et la société civile renforcent l’efficacité de ces mesures. Par exemple, les initiatives de type « Partnership on AI », créées en 2016 par de grandes entreprises technologiques telles qu’Amazon, Apple, DeepMind, Facebook (aujourd’hui Meta), Google, IBM, Microsoft et d’autres organisations, démontrent la valeur de la collaboration intersectorielle et mettent en commun des ressources et des compétences pour traiter des questions éthiques complexes.
Il est important de partager d’autres exemples de réussite d’entreprises qui ont mis en œuvre des initiatives en matière d’éthique de l’IA. L’initiative de Microsoft en matière d’éthique de l’IA en est un exemple. Le cadre éthique de Microsoft en matière d’IA est une référence pour la mise en œuvre responsable des technologies d’IA. L’entreprise réalise régulièrement des évaluations d’impact sur les droits humains afin d’évaluer l’impact de ses systèmes d’IA sur la société, et a également créé une norme d’IA responsable pour guider la conception et la mise en œuvre des systèmes d’IA (Microsoft 2022). En outre, Microsoft publie régulièrement un rapport de transparence sur l’IA responsable, donnant ainsi la priorité à l’équité et à la transparence dans l’utilisation de l’IA (Microsoft n.d.). Ces pratiques illustrent la mise en œuvre de la RSE dans les programmes d’IA à grande échelle.
L’exemple suivant est sans précédent : le refus d’IBM de développer un système de reconnaissance faciale. En juin 2020, le PDG d’IBM, Arvind Krishna, a envoyé une lettre au Congrès américain annonçant qu’il cesserait de développer et de vendre des technologies à usage général pour la reconnaissance et l’analyse faciales. Dans cette lettre, Arvind Krishna soulignait les préoccupations de l’entreprise concernant l’utilisation potentielle de ces technologies à des fins de surveillance de masse, de profilage racial et de violation des droits humains et libertés fondamentaux (BBC 2020a). Il s’agit là d’un exemple paradigmatique d’alignement des choix commerciaux sur une RSE fondée sur les droits.
Un autre exemple est le modèle collaboratif de l’Alliance européenne pour l’IA. L’Alliance européenne pour l’IA est une initiative de la Commission européenne qui vise à établir un dialogue ouvert entre les entreprises, les décideurs politiques et la société civile sur le développement et le fonctionnement de l’IA. Les recommandations de l’Alliance, notamment l’accent mis sur la transparence et l’équité des algorithmes, ont servi de base à la loi européenne sur l’IA (Commission européenne, s.d.).
L’Alliance européenne pour l’IA illustre la manière dont l’UE intègre la participation des parties prenantes dans le processus d’élaboration des politiques, un élément fondamental tant pour la RSE que pour la légitimité démocratique dans la gouvernance de l’IA.
Collectivement, ces exemples montrent les voies à suivre, des normes internes aux sorties du marché et aux forums multipartites, pour intégrer la RSE dans les cycles de vie de l’IA.
L’IA générative étant de plus en plus utilisée dans les opérations commerciales, la responsabilité est la pierre angulaire d’une gouvernance éthique. Les entreprises qui mettent en œuvre des systèmes d’IA doivent relever non seulement les défis opérationnels et techniques de leur activité.
La responsabilité dans le contexte de l’IA générative englobe trois dimensions fondamentales : la transparence, l’équité et la réactivité :
- transparence : documentation des sources de données d’entraînement, des limites des modèles et des risques prévisibles pour les publics concernés ;
- équité : objectifs mesurables en matière de non-discrimination et suivi ;
- réactivité : mécanismes de contestation et de recours accessibles et recours efficaces.
Ces principes de responsabilité sont inscrits dans le droit européen : le RGPD garantit aux individus le droit d’obtenir des informations significatives sur la logique et de s’opposer à la prise de décision automatisée, tandis que la loi sur l’IA institutionnalise davantage ces garanties, en exigeant la documentation, l’auditabilité et la supervision humaine pour les systèmes d’IA à haut risque.
Ces aspects de la responsabilité sont conformes aux théories éthiques suivantes :
- l’éthique déontologique, qui met l’accent sur l’obligation morale des entreprises d’agir de manière transparente et équitable, indépendamment des avantages et des profits éventuels ;
- l’utilitarisme, qui met l’accent sur la maximisation des avantages pour la société et la minimisation des dommages, faisant de la responsabilité un outil important pour créer des technologies qui maximisent les avantages.
- l’éthique de la vertu, qui consiste à créer une culture d’entreprise fondée sur l’honnêteté, l’équité et la compassion.
Ces obligations s’alignent sur les perspectives déontologiques, utilitaristes et éthiques de la vertu, fournissant une base normative pluraliste pour la pratique des entreprises.
D’un point de vue juridique, la responsabilité dans la gouvernance de l’IA combine désormais le régime des droits relatifs aux données du RGPD et les obligations fondées sur les risques de la loi sur l’IA. Cependant, il existe encore des lacunes en matière d’application dans ce domaine, car il n’existe pas de cadre réglementaire complet pour l’IA.
Pour combler ces lacunes, la loi européenne sur l’IA introduit une approche à plusieurs niveaux fondée sur les risques, impose des évaluations de conformité et renforce le rôle des autorités de surveillance du marché dans tous les États membres. Elle complète également les cadres existants tels que la DSA, qui met l’accent sur la responsabilité des plateformes et la suppression des contenus illégaux générés par l’IA.
Pour satisfaire aux exigences en matière de responsabilité, il est nécessaire de mettre en œuvre des mécanismes pratiques spécifiques, dont un élément central est la transparence, qui doit être intégrée à chaque étape du développement et du déploiement des technologies d’IA.
Par exemple, les initiatives en matière d’IA explicable visent à créer des algorithmes compréhensibles tant par un public technique que non technique. Le système de santé Watson Health d’IBM en est un exemple. Ce système est utilisé pour aider les médecins à établir des diagnostics et à choisir le meilleur traitement. IBM Watson Health analyse les données médicales des patients (antécédents médicaux, tests de laboratoire, etc.) ainsi que les publications scientifiques afin de proposer des recommandations de traitement aux médecins. IBM indique utiliser des techniques d’explicabilité afin que les cliniciens puissent interroger les recommandations (IBM n.d.).
Les entreprises doivent également mettre en place des mécanismes permettant de documenter les processus liés à l’IA, notamment la traçabilité des données, les fiches de modèle et le suivi post-déploiement.
Au sein de l’UE, cela correspond à l’obligation de conserver une « documentation technique » en vertu de l’article 11 de la loi sur l’IA et d’enregistrer les systèmes d’IA à haut risque dans la base de données publique gérée par la Commission européenne.
Bien sûr, les gouvernements et les organisations internationales jouent un rôle important en matière de responsabilité. Par exemple, en septembre 2024, l’Organe consultatif de haut niveau sur l’intelligence artificielle des Nations unies a publié un rapport contenant des recommandations sur la réglementation de l’IA. L’une des principales propositions est la création d’un panel scientifique international indépendant sur l’IA, soutenu par l’UIT/l’UNESCO, afin de synthétiser les données et de soutenir la coordination intergouvernementale (Nations unies 2024).
Un élément essentiel d’un cadre de responsabilité est la mise en place de mécanismes de réclamation. Les entreprises doivent fournir aux utilisateurs des moyens accessibles pour signaler les problèmes liés à l’IA : des procédures claires de réception, de triage et d’escalade, ainsi que la communication des résultats. Par exemple, Google dispose de principes publics en matière de responsabilité de l’IA et de canaux de retour d’information destinés aux utilisateurs (Google n.d.).
Cependant, les entreprises ne sont pas toujours tenues responsables : en 2020, Google a été au centre d’un scandale impliquant le licenciement de Timnit Gebru, l’une des principales chercheuses dans le domaine de l’éthique de l’IA (BBC, 2020b). Cet épisode souligne le fossé qui peut exister entre les principes énoncés et la responsabilité interne.
Un autre exemple est le scandale Cambridge Analytica qui a éclaté en 2018. L’entreprise a accédé aux données personnelles de millions d’utilisateurs de Facebook sans leur consentement, puis a utilisé l’IA pour manipuler l’élection présidentielle américaine de 2016 et le référendum sur le Brexit (BBC, 2018). Cela illustre à quel point la faiblesse des contrôles en matière de gouvernance des données peut amplifier les dommages sociétaux, ce qui renforce l’importance des garanties et de l’application du RGPD.
Il n’est pas rare que des entreprises soient critiquées pour ne pas exercer un contrôle suffisant sur les contenus générés par l’IA. En 2023, Twitter (aujourd’hui X) a fait l’objet de critiques similaires et a même été qualifié de « ville fantôme de bots » en raison de la diffusion à grande échelle de contenus indésirables sur la plateforme (ABC News, 2024). Cela met en évidence les obligations au niveau des plateformes (par exemple, les obligations DSA) de détecter, d’étiqueter et de supprimer les contenus générés par l’IA qui sont nuisibles ou trompeurs.
Cette étude de cas révèle les problèmes liés à un contrôle algorithmique insuffisant (le système de modération de Twitter n’était pas adapté au nouveau niveau de complexité du contenu généré par l’IA), à l’absence de réglementation du contenu généré par l’IA (aucun mécanisme permettant d’identifier ou d’étiqueter ce contenu n’avait été mis en place) et aux risques de violations des droits humains (la diffusion de contenu inexact a manipulé la stabilité politique dans certaines régions, sapant ainsi la confiance dans les institutions gouvernementales).
Les instruments réglementaires de l’UE, tels que la DSA et le Code de bonnes pratiques sur la désinformation, visent précisément ce type de risques, en définissant clairement les responsabilités des plateformes en matière de détection, d’étiquetage et de suppression des contenus générés par l’IA qui sont préjudiciables ou trompeurs.
Pour gérer efficacement les risques et garantir l’équité, les entreprises devraient tenir compte des recommandations suivantes :
- institutionnaliser la responsabilité : renforcer la gouvernance éthique en lui accordant des droits de décision ; définir des critères de biais/robustesse comme critères d’expédition ; et lier les incitations à la direction aux résultats en matière de conformité ;
- s’aligner sur la loi sur l’IA/la DSA grâce à une conformité dynamique : tenir à jour la documentation technique, les registres des risques, les rapports d’incidents et les audits indépendants.
- déployer des contrôles techniques : gestion des versions des ensembles de données, prévention de la perte de données pour les sources sensibles, filigranage/divulgation pour les médias synthétiques et surveillance continue après le déploiement.
Ces couches, ainsi que la culture, les contrôles et la conformité, renforcent mutuellement la confiance et réduisent le risque systémique.
L’IA générative est une technologie disruptive qui ouvre de nouvelles opportunités commerciales tout en mettant en péril le respect des droits de l’homme et en soulevant d’importantes questions éthiques. Cet article a redéfini la RSE pour l’IA générative autour de trois domaines de risque principaux (vie privée, travail créatif, manipulation) et a fondé les obligations des entreprises sur l’éthique des parties prenantes et l’éthique kantienne.
Sur le plan opérationnel, les entreprises doivent combiner les HRIAs, l’explicabilité, la gouvernance des ensembles de données, les mécanismes de réclamation et l’engagement des parties prenantes avec la conformité à l’AI Act/DSA.
L’Union européenne, par le biais de ses instruments juridiques et de ses initiatives politiques, façonne activement cette nouvelle frontière éthique, en proposant un modèle qui peut être adapté à l’échelle mondiale.
Une utilisation responsable de l’IA générative nécessite une gouvernance contraignante, une équité mesurable et des recours exécutoires, afin que l’innovation progresse sans compromettre les droits.
Références
- Vincent, J. (2022, September 2). Who gets credit for AI-generated art? The question is posing problems for artists. The New York Times. Retrieved from https://www.nytimes.com/2022/09/02/technology/ai-artificial-intelligence-artists.html
- CourtListener. (2023). Case Summary: Stability AI, Midjourney, and DeviantArt. Retrieved from https://storage.courtlistener.com/recap/gov.uscourts.cand.407208/gov.uscourts.cand.407208.223.0_2.pdf
- The Wall Street Journal. (2019). Fraudsters Use AI to Mimic CEO’s Voice in Unusual Cybercrime Case. Retrieved from https://www.wsj.com/articles/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402
- Vice. (2020). The First Use of Deepfakes in Indian Election by BJP. Retrieved from https://www.vice.com/en/article/the-first-use-of-deepfakes-in-indian-election-by-bjp/
- Microsoft. (2022). Microsoft’s Framework for Building AI Systems Responsibly. Retrieved from https://blogs.microsoft.com/on-the-issues/2022/06/21/microsofts-framework-for-building-ai-systems-responsibly/
- Microsoft. (n.d.). Responsible AI Transparency Report. Retrieved from https://www.microsoft.com/en-us/corporate-responsibility/responsible-ai-transparency-report
- BBC. (2020). IBM to Stop Offering Facial Recognition Software. Retrieved from https://www.bbc.com/news/technology-52978191
- European Commission. (n.d.). European AI Alliance. Retrieved from https://digital-strategy.ec.europa.eu/en/policies/european-ai-alliance
- IBM. (s.d.). Explainable AI: IBM Watson Health. Retrieved from https://www.ibm.com/think/topics/explainable-ai
- United Nations. (2024). Governing AI for Humanity: Final Report. Retrieved from https://www.un.org/sites/un2.un.org/files/governing_ai_for_humanity_final_report_en.pdf
- Google. (s.d.). AI Responsibility Principles. Retrieved from https://ai.google/responsibility/principles/
- BBC. (2020). Google licencie Timnit Gebru, chercheuse en éthique de l’IA. Extrait de https://www.bbc.com/news/technology-55281862
- BBC. (2018). Facebook and Cambridge Analytica Scandal. Retrieved from https://www.bbc.com/news/technology-43465968
- ABC News. (2024). Twitter X Fighting Bot Problem as AI Spam Floods the Internet. Retrieved from https://www.abc.net.au/news/science/2024-02-28/twitter-x-fighting-bot-problem-as-ai-spam-floods-the-internet/103498070



