Biais, hallucinations, désinformation et divulgation de données confidentielles

Quelles réponses possibles face aux risques éthiques de la GenAI ?

risques de la GenAI
  • Publication
  • 22 mai 2024

Porté par un engouement médiatique et une adoption massive par le grand public, ChatGPT est en quelques mois devenu le porte-étendard d’une révolution de l'IA dont les cercles spécialisés parlent depuis des années. Comme toute avancée révolutionnaire, l’IA générative (GenAI) n’est pas dépourvue de risques, notamment éthiques, dus aux hallucinations et à l’importation des biais sociétaux, de la désinformation à la divulgation d'informations privées et confidentielles. Mais, face à chaque type de risque, des solutions existent.


Qu'est-ce que l’intelligence artificielle générative, ou GenAI ?

Contrairement à une IA classique, qui accomplit des tâches spécifiques (classification, prédiction, résolution de problèmes), l’IA générative est entraînée pour produire de nouvelles données (texte, son, image fixe ou animée) qui ressemblent à celles créées par des êtres humains. Pour accomplir cela, l'IA générative s'appuie sur des avancées remarquables en apprentissage automatique (machine learning), notamment l'utilisation de réseaux de neurones profonds (deep learning) et de modèles dits transformers. Ces derniers lui permettent de comprendre et de générer des données complexes, au lieu de seulement étiqueter ou classer une donnée existante.

 

L’IA générative, une avancée révolutionnaire qui arrive sur le marché avec son lot de risques éthiques

ChatGPT incarne enfin l'IA de manière tangible pour tous. Il n’en représente pourtant qu’une facette relativement étroite des cas d'utilisation de l’IA. Limité au traitement automatique du langage naturel (NLP), l'une des sous-catégories de l'IA, il laisse de côté de vastes domaines, tels que l'optimisation ou la classification. ChatGPT n'apporte pas non plus d'innovation technologique majeure, car il résulte d’un processus d'amélioration continue engagé depuis plusieurs années. Dès lors, peut-on vraiment parler de révolution ?

La réponse est oui. Pour la première fois, un outil d'IA est largement reconnu et utilisé, sans intermédiaire, par des personnes sans aucune connaissances en développement informatique, en infrastructures techniques ni en fondements théoriques du modèle. C’est à une révolution du produit et de son usage que nous assistons.

L'intense médiatisation de l'IA générative s’accompagne de messages puissants mettant en lumière les risques importants associés à cette technologie. Ces messages suscitent un vaste intérêt au sein des entreprises, soulevant des questions sur les enjeux et les risques par rapport aux avantages annoncés. 

Ces préoccupations ont acquis un caractère encore plus pressant lorsqu'elles ont trouvé écho dans une lettre ouverte où d’éminentes figures de l'industrie, dont Elon Musk et Steve Wozniak, appelaient à réguler l’IA, à généraliser la mise en place de cadres de contrôle des risques et à renforcer la supervision des tiers autorisés.

“La révolution de l'IA générative présente à la fois des opportunités et des défis majeurs pour les entreprises et la société dans son ensemble. Une approche responsable, éthique et proactive est essentielle pour maximiser les avantages tout en minimisant les risques inhérents à cette avancée technologique.”

Stéphane Bocquillon, Associé, PwC France et Maghreb

GenAI : quelles solutions face à chaque risque éthique ?

Les entreprises font en effet face à de nombreux risques éthiques lors de l'intégration de ces technologies. Tout utilisateur de modèles d'IA générative se trouve confronté à des risques éthiques très concrets dès la formulation de sa première requête. Mais des solutions existent pour y parer. Des mesures telles que l'affinement des données d'entraînement, la mise en place de mécanismes de surveillance, la sensibilisation des utilisateurs et la validation humaine sont essentielles pour atténuer ces risques. Voici quelques-unes des plus emblématiques, que les entreprises peuvent mettre en place en amont afin de sécuriser la prise en main de ces outils par leurs collaborateurs et partenaires.

Biais, stéréotypes et préjugés

Les biais inhérents à l'IA font partie des risques les plus fréquemment relevés. Ces erreurs ou déformations systématiques peuvent en effet altérer les résultats produits par les systèmes de GenAI. Relevant souvent de stéréotypes liés au genre, à l'âge ou à la couleur de peau, ces biais existent dans nos sociétés et, si l’on n’y prend garde, se retrouvent importés dans les modèles. 

Pire, ils pourraient même y être amplifiés. Selon Bloomberg, une IA génératrice d'images accentue les biais observés chez les êtres humains. Par exemple, pour illustrer le métier de médecin, cette IA ne génère que 7% d’images de femmes, alors qu’elles représentent 39% de la profession aux États-Unis.

L’origine de ces biais est que les modèles de GenAI apprennent à partir de schémas existant dans la société, et donc dans les données d’entraînement, dont les caractéristiques statistiques guident leur comportement. Par exemple, si les images utilisées lors de l'entraînement présentent davantage d'hommes médecins que de femmes médecins, le modèle établira automatiquement une corrélation entre la profession et le genre. Les biais peuvent ainsi être amplifiés dans les sorties du modèle par rapport à leur présence dans les données initiales.

Le filtrage et autres solutions contre les biais

Plusieurs solutions existent pour ne pas importer ces biais dans les applications de GenAI. L’une d’elles est le filtrage ou editing des corpus de pré-entraînement. Ceux actuellement employés pour la formation des versions de LLM en cours de développement proviennent essentiellement du web scrapping, c’est-à-dire de l’extraction de contenus de sites sur Internet. Nous pouvons anticiper des investissements de la part des acteurs du GenAI visant à élaborer des ensembles spécialisés et soigneusement filtrés et édités. 

À l’échelle d'une entreprise, lorsque décision est prise d'incorporer de manière extensive des modèles d'IA générative dans ses opérations, les répercussions éthiques liées aux biais deviennent d'une importance capitale. C’est particulièrement sensible dans des domaines d’activité où les discrimination peuvent être flagrantes, par exemple les outils RH de recrutement. Les entreprises doivent impérativement prendre des mesures proactives pour minimiser les biais dans l'utilisation des modèles d'IA générative, telles que :

  • Affiner et diversifier les données d'entraînement pour éliminer les déséquilibres ;

  • Mettre en œuvre des mécanismes de surveillance continue pour identifier et corriger les biais éventuels dans les résultats ;

  • Intégrer des contrôles éthiques et des audits réguliers pour aider à atténuer les risques légaux et préserver la réputation de l'entreprise.

Hallucinations

On parle d'hallucination lorsque le modèle présente des informations fausses sous l'apparence de la vérité. La faculté des modèles d'IA à engendrer des informations hautement plausibles mais totalement imaginaires est en effet troublante. C’est l'un des risques auxquels les utilisateurs de GenAI sont les plus exposés.

Par exemple, si l'on demande à ChatGPT d’indiquer les résultats financiers d'une entreprise qui ne les publie pas, l'algorithme les inventera et produira une réponse crédible sur la forme. Si on lui demande d’estimer les résultats financiers à venir d’une société cotée sur la base des comptes publiés dans le passé, la réponse pourra elle aussi être déconnectée de la réalité, car tributaire des données de sa période d'entraînement - soit antérieures à septembre 2021 dans le cas de ChatGPT.


Pourquoi la GenAI hallucine-t-elle ?

ChatGPT (OpenAI) et Gemini (Google) appartiennent à la branche de l'IA générative appelée Large language model (LLM), capable de synthétiser des informations, de résumer des textes et d'interagir avec les utilisateurs. Pour cela, le système prédit le mot le plus probable à la suite d'une séquence donnée, se basant sur un apprentissage des probabilités de transition entre les mots ou les tokens (parties de mots). Ce faisant, il est programmé pour fournir une réponse statistiquement probable, mais pas nécessairement logique ni véridique. Il lui arrive donc de fournir une réponse fausse : dans ce cas, on dit qu’il hallucine. Il faut garder à l'esprit que les LLM ne sont pas des outils de connaissances, mais des outils linguistiques.

 

Si de nombreux services peuvent être rendus par la GenAI, la fiabilité ne fait pas partie des promesses faites aux utilisateurs. Comme le résumait en décembre 2022 Sam Altman, cofondateur et directeur général d’OpenAI, la société à l’origine de l’algorithme de ChatGPT : “It's a mistake to be relying on it for anything important right now.”*

En prenant pour argent comptant les réponses produites par un tel outil, les collaborateurs pourraient mettre leur entreprise en risque. Accorder une confiance excessive aux résultats générés, ignorer ou sous-estimer la capacité du modèle à créer des informations fictives : de tels comportements peuvent conduire à prendre des décisions erronées, diffuser de fausses informations ou mettre en œuvre des actions basées sur des réponses inexactes.

La température et autres solutions contre les hallucinations

Afin de réduire le risque d’hallucination d’un point de vue algorithmique, il existe une solution technique appelée la température. La température indique, sur une échelle de 0 à 1, à quel degré les résultats générés par un modèle de GenAI sont fiables ou aléatoires. Plus elle est basse, plus les résultats sont prévisibles, cohérents, fidèles aux textes d'entraînement. Plus elle est élevée, plus les résultats sont imprévisibles, créatifs, inattendus. 

Par exemple, un LLM à la température élevée est susceptible d’inventer des événements fictifs, de mentionner des lieux sans rapport logique ou de manipuler la temporalité. Cela peut répondre à certains besoins, mais il faut en avoir conscience, que ce soit un choix volontaire de la part de l’utilisateur.

Par défaut, les modèles de LLM publics ont une température non nulle (par exemple, la température par défaut de ChatGPT est de 0.7). Cela signifie que l'outil peut produire des phrases grammaticalement correctes mais parfois dénuées de sens. Pour les utilisateurs expérimentés qui maîtrisent ces modèles, il suffit de fixer la température à zéro pour éviter la grande majorité des hallucinations. Pour les utilisateurs novices qui interagissent avec des interfaces conviviales, la manipulation de ce paramètre peut s'avérer complexe et décourageante. Des efforts sont nécessaires pour arriver à une compréhension plus approfondie des mécanismes sous-jacents du modèle d'IA.

Un autre garde-fou pour se prémunir contre les hallucinations est de favoriser l'utilisation des résultats issus de l'IA générative dans un cadre de gouvernance défini par l’entreprise. Cela implique la mise en place de processus tels que la vérification d'informations à partir de sources fiables ainsi que l'introduction de mécanismes de validation humaine. La culture d’entreprise est au cœur d’un tel dispositif.

  • Vérification d'informations à partir de sources fiables. L’entreprise intègre dans le processus de génération de texte des mécanismes qui consultent et évaluent des sources de données réelles et vérifiables. En utilisant ces sources (bases de données, encyclopédies, sites de référence, publications académiques) comme référence, le modèle d'IA peut être programmé pour générer du contenu qui est cohérent avec les informations validées et confirmées.

  • Mécanisme de validation humaine. Cette étape va encore plus loin avec l'intervention de collaborateurs dans le processus de vérification et d'approbation du contenu généré par l'IA. Capables d’identifier les erreurs, les biais, les incohérences et les contenus douteux, ces experts garantissent la qualité et la précision du contenu final. Ce dispositif s’avère particulièrement pertinent dans des domaines où la justesse et l'exactitude des informations sont essentielles, tels que le journalisme, la recherche académique ou les professions réglementées. Il est également nécessaire pour toutes les cas d’usage ayant un impact important sur les personnes, comme la détection de fraude ou l’affectation de polices d’assurance.

  • Culture d’entreprise. Les organisations doivent encourager la formation et la sensibilisation de leurs collaborateurs quant aux limites et aux fonctionnalités des modèles de LLM, afin d'assurer une utilisation avisée et responsable de l'IA générative.

En mettant en place une gouvernance renforcée combinant ces trois approches, les entreprises se dotent d’un cadre de gestion des risques pour s'assurer que le contenu généré par les modèles d'IA générative est à la fois précis et fiable. Cela renforce la confiance des utilisateurs dans les résultats produits par les modèles de GenAI tout en contribuant à atténuer les risques liés à la diffusion de fausses informations et à la création de contenus trompeurs ou biaisés.

Ombline de Mascureau, Senior Manager, spécialiste Data & AI, PwC France et Maghreb

Divulgation d'informations privées et confidentielles

Selon une étude Cyberhaven de juin 2023, 11% des employés ont utilisé ChatGPT sur leur lieu de travail, et 9% d’entre eux y ont copié des données de l'entreprise. Les conséquences n’ont pas tardé, avec un exemple emblématique de divulgation involontaire lorsque des employés de Samsung ont utilisé la fonctionnalité de correction de code directement sur la plateforme web de ChatGPT. En réaction à cette fuite de données, le conglomérat coréen a rapidement pris la mesure de limiter à 1024 octets les saisies dans ChatGPT.

La confidentialité des données (data privacy) est en effet une préoccupation majeure dans le contexte d'utilisation des modèles de LLM. En Europe, le Règlement général sur la protection des données (RGPD) établit une surveillance stricte des données personnelles. Cependant, l'ouverture de ChatGPT peut sérieusement fragiliser cette maîtrise des données personnelles. Voici trois axes de réflexion pour les entreprises :

  • Les modèles de GenAI sont capables de générer des informations pouvant être considérées comme des données personnelles. Par exemple, si un utilisateur interagit avec ChatGPT en fournissant des noms, lieux, dates ou autres informations spécifiques, le modèle peut incorporer ces informations dans d’autres réponses. Des informations personnelles pourraient être utilisées et même dévoilées sans que l'utilisateur en ait pleinement conscience. Dans ce cas, impossible de savoir où sont exposées les données et qui y aura accès.

  • Les LLM comme ChatGPT étant souvent utilisés dans des applications où des informations confidentielles sont échangées (rédaction de courriels professionnels, traitement de demandes d'assistance client), le risque existe que des données sensibles soient reprises par ailleurs dans les conversations générées par le modèle.

  • Il convient également de prendre en compte les questions de propriété intellectuelle liées au contenu généré par des LLM, ainsi que la légalité de l'utilisation de LLM entraînées sur des données qui pourraient être partiellement protégées par des droits d'auteur.

Les plateformes personnalisées et autres solutions contre la divulgation non intentionnelle d'informations

Face à ces risques, les entreprises doivent ériger des plateformes techniques qui encouragent une utilisation sécurisée de l'IA et adapter leurs méthodes habituelles de gestion de la sécurité. De cette manière, elles offrent aux développeurs la possibilité d'intégrer des fonctionnalités de filtrage et de suppression automatique des informations sensibles engendrées par le modèle, prévenant toute divulgation non intentionnelle.

Dans cette démarche, le choix de l'infrastructure influe sur le niveau de risque auquel une entreprise s’expose et la nature des failles sécuritaires potentielles. Pour bien comprendre le risque, il faut revenir sur la façon dont les données sont stockées et utilisées. Par exemple, ChatGPT est accessible de plusieurs manières et chacune a ses propres incidences :

  • ChatGPT sur le web, sur la plateforme d'OpenAI. À partir de n'importe quel navigateur, les utilisateurs peuvent accéder à ChatGPT et interagir avec le modèle pour obtenir des réponses et des informations. Dans cette configuration, les données renseignées dans les requêtes par l'utilisateur appartiennent à OpenAI, qui les conserve pendant une période de 30 jours, principalement dans le but d'améliorer les performances et la qualité des modèles. Toute donnée personnelle divulguée peut être accessible à OpenAI.

  • ChatGPT sur Azure, la plateforme cloud de Microsoft. OpenAI a collaboré avec Microsoft pour permettre aux développeurs et aux entreprises d'utiliser les fonctionnalités de ChatGPT dans leurs applications, services et produits via Azure. Les données déposées par l’utilisateur sont stockées dans l'environnement Azure, en fonction de la manière dont le modèle est intégré et configuré par les développeurs et les entreprises. La plateforme propose des fonctionnalités de cryptage, de réseaux privés virtuels (VPN) et de gestion des accès. L’entreprise a donc la main sur le choix de stockage des données et les problématiques de protection de la donnée s'appliquent essentiellement au sein de l’entreprise. Le risque de fuite de données en extérieur existe toujours mais est réduit.

  • ChatGPT personnalisé. Par exemple, PwC a annoncé dès 2023 déployer des chatbots dédiés pour ses 4 000 avocats et juristes dans 100 pays en partenariat avec la startup Harvey financée par OpenAI. Cet assistant, construit à partir de GPT-4, va permettre d’analyser et de comparer des clauses contractuelles et d’assister les avocats dans des tâches de conformité réglementaire, de synthèse de la réglementation, ou de due diligence, sans oublier le support aux équipes de fiscalistes dans leur revue, documentation et travaux de compliance. Posséder un modèle personnalisé, totalement confidentiel et sécurisé permet à PwC de maîtriser les données utilisées pour le développement et le paramétrage, augmentant ainsi son acuité et réduisant les risques de non maîtrise ou de mauvaise utilisation de la donnée.

Aujourd'hui, les collaborateurs cherchent activement des moyens d'accéder aux capacités génératives de l'IA. En établissant une plateforme adaptée à leurs besoins, l’entreprise ouvre la voie d’une exploitation légale et responsable de la puissance de la GenAI, tout en évitant les utilisations risquées et abusives.

Contrefaçon de la vérité et désinformation

Une hallucination, réponse vraisemblable mais fausse produite par le modèle, peut tromper un utilisateur inadvertent. Ce phénomène peut aussi être dévoyé par des organisations mal intentionnées, qui y voient une occasion d'accélérer et d’améliorer leur production de faux contenus visant à tromper ou manipuler les opinions. On peut anticiper des campagnes massives de désinformation ciblant des entreprises de façon malveillante. 

Ce risque doit être anticipé par les départements sécurité et le dispositif de remédiation des incidents révisé pour en tenir compte. En interne, les entreprises doivent contrôler l’éthique de leurs utilisateurs de l’IA, par exemple via des statistiques sur la teneur des prompts formulés par l’utilisateur ou par des revues systématiques en comité d’éthique des cas d’usage des solutions en développement.

Au-delà des risques éthiques qu’elle présente, la révolution engendrée par l'IA générative est d'une telle envergure qu'elle pourrait également susciter des bouleversements à l'échelle sociale ou macroéconomique. Les implications sociétales et macroéconomiques de l'essor de l'IA générative sont significatives. Les grands défis incluent la propagation de la désinformation, la perte d'emplois traditionnels due à l'automatisation, et des répercussions sur l'économie et la stabilité sociale. Les entreprises doivent adopter une approche équilibrée en tirant parti des avantages de l'IA tout en anticipant et atténuant ses impacts négatifs.

Ombline de Mascureau, Senior Manager, spécialiste Data & AI, et Selma Mehyaoui, Associate, PwC France et Maghreb, sont les auteures de ce texte.

* “ChatGPT est incroyablement limité, mais suffisamment bon dans certains domaines pour donner une impression trompeuse de grandeur. C'est une erreur de s'y fier pour quoi que ce soit d'important en ce moment.”

Suivez-nous

Contactez-nous

Stéphane Bocquillon

Stéphane Bocquillon

Associé, PwC France et Maghreb

Benoît Sureau

Benoît Sureau

Associé, Financial Institutions, Risk Management & Blockchain, PwC France et Maghreb

Pierre Bosquet

Pierre Bosquet

Associé, stratégie digitale et IA, Strategy& France

Pierre Capelle

Pierre Capelle

Associé responsable de l’activité Data Analytics et Intelligence Artificielle, PwC France et Maghreb

Masquer