Ces dernières années, l'intelligence artificielle (IA) a fait des progrès étonnants, en particulier dans le domaine du traitement du langage naturel (NLP). Les systèmes connus sous le nom de grands modèles de langage, tels que GPT-3, LaMDA de Google et Wu Dao 2.0, peuvent désormais générer des textes remarquablement humains et engager un dialogue persuasif sur pratiquement tous les sujets imaginables. Leurs capacités semblent devenir de plus en plus impressionnantes au fil des mois.
Mais comme le soulignent les chercheurs en IA, "les modèles de langage n'ont pas une compréhension fondamentale du monde". Bien qu'ils puissent manipuler habilement le langage et enchaîner les mots de manière cohérente et significative, ils n'ont pas une véritable compréhension des concepts, des faits et du bon sens que les humains accumulent au fil de leur expérience. Ainsi, leur production peut sembler convaincante en surface, tout en contenant des faussetés ou des préjugés qui nécessitent un examen humain.
Cela pose un problème lorsqu'il s'agit d'interagir avec des modèles de langage de plus en plus puissants qui semblent désireux, parfois à l'excès, de fournir des informations à la demande. Comment tirer parti de l'étendue de leurs connaissances tout en tenant compte des inexactitudes ou des préjudices potentiels liés à la désinformation ? Comment pouvons-nous poser de bonnes questions qui suscitent de la valeur plutôt que des absurdités ou des tromperies ?
Cette série explore les principes et les stratégies permettant d'interroger de manière responsable de grands modèles de langage afin d'enrichir la compréhension tout en minimisant les risques. Pour tirer le meilleur parti de cet outil alimenté par l'IA, il faut faire preuve de prudence et de diligence pour le maintenir sur la bonne voie.
Les promesses et les limites des modèles de langage
Les grands modèles de langage utilisent la technique de traitement du langage naturel connue sous le nom de modélisation linguistique. Il s'agit d'entraîner les systèmes d'IA sur des ensembles massifs de textes en ligne, ce qui leur permet de prédire des séquences de mots probables avec une précision croissante. En étant exposés à des quantités astronomiques de textes provenant de sites web, de livres, d'articles et de conversations en ligne, les modèles "apprennent" effectivement les relations entre les mots, les phrases, les concepts et les contextes.
Des modèles de pointe tels que LaMDA de Google ont été entraînés sur plus d'un trillion de mots. Le modèle GPT-3 d'OpenAI a consommé 45 téraoctets de texte Internet avec 570 milliards de paramètres - des ordres de grandeur supérieurs à ceux des systèmes précédents. Au cours de ce processus, ils ont développé une capacité époustouflante à générer des textes ouverts remarquablement semblables à ceux des humains.
Toutefois, comme l'expliquent les chercheurs en sécurité de l'IA, ces systèmes sont "étroits", car ils possèdent des compétences en matière de génération de langage sans avoir une compréhension plus large du monde ou des objectifs de communication autres que la reproduction d'un texte. Ils peuvent être capables d'enchaîner des mots en paragraphes significatifs et d'imiter certains modèles, mais il leur manque le sens des mots et ils ont des difficultés avec l'abstraction et le contexte.
Ainsi, ils peuvent être capables de discuter de manière persuasive de sujets en utilisant des corrélations apprises entre les mots, mais ont une compréhension limitée de la signification des événements, des faits, des émotions, des causes et des effets, ou des implications sociétales des problèmes. Cela devient évident lorsque leurs connaissances atteignent les limites programmées par leurs données de formation. Les discussions deviennent rapidement absurdes lorsque des événements d'actualité ou des contextes humains modernes entrent en jeu.
La recherche révèle des angles morts en matière de préjudice, d'éthique et de désinformation. Par exemple, lorsqu'ils sont alimentés par des données nuisibles, les grands modèles de langage peuvent produire des résultats comprenant des dialogues racistes, des théories du complot ou des déclarations politiques présentant de graves dangers pour la société. Ils héritent des biais et des problèmes latents dans leurs ensembles de données d'origine.
En outre, s'ils peuvent citer des informations factuelles, celles-ci coexistent avec des fabrications créées avec la même confiance. Lorsqu'ils ne comprennent pas bien un sujet, ils tentent de "combler les lacunes" en générant en douceur un nouveau texte très plausible sur le plan linguistique, mais qui n'est pas exact sur le plan factuel. Ils ont tendance à halluciner des déclarations cohérentes mais dénuées de toute vérité.
Il convient donc de s'interroger sur l'utilisation de grands modèles linguistiques à des fins de connaissance, de prise de décision ou de conseil. En l'absence de garanties appropriées, nous risquons de diffuser des informations erronées, d'intégrer des préjugés ou de propager des instructions nuisibles qui sont aussi persuasives que la sagesse qu'ils peuvent partager lorsqu'ils sont correctement guidés.
La compétence essentielle de poser de bonnes questions
Interagir avec de grands modèles de langage devient un exercice qui consiste à poser des questions. Comme les bibliothécaires de référence automatisés, leur rôle est de répondre aux demandes des utilisateurs en leur fournissant des informations pertinentes. Toutefois, contrairement aux experts humains, on ne peut pas se fier entièrement à leur jugement. Il incombe aux opérateurs humains de réfléchir soigneusement à la manière dont ils interrogent ces systèmes.
Poser des questions est en effet un art ! Les questions que nous posons déterminent les réponses que nous obtenons. Des questions mal formulées mènent à des impasses, alors que des questions bien formulées ouvrent des portes à la compréhension.
Les psychologues notent que des préjugés sont intégrés dans les dialogues en fonction de la personne qui pose les questions et de celle qui fournit les réponses. Les linguistes notent que la dynamique du pouvoir va et vient entre le questionneur et le répondant, le questionneur dirigeant la conversation. Poser des questions devient "une stratégie linguistique pour prendre le contrôle".
Malheureusement, le commun des mortels n'est pas formé à structurer les questions de manière à ce qu'elles soient claires et qu'elles recherchent la vérité. La plupart d'entre eux adoptent une approche plutôt désordonnée lorsqu'ils interrogent des sources d'information. Lorsque les questions présentent des ambiguïtés, des prémisses erronées, des hypothèses étroites ou des préjugés inconscients, les réponses s'avèrent au mieux trompeuses, au pire dangereuses, et entraînent les personnes qui les posent vers des chemins de traverse infructueux.
Lorsqu'on a affaire à des systèmes d'IA dépourvus de jugement humain, il devient impératif d'affiner les compétences en matière de questionnement afin de minimiser le risque de tromperie ou d'erreur d'orientation. Cela vous permet d'exploiter leurs connaissances, tout en vérifiant leurs limites par le biais de la pensée critique. Pour ce faire, il est nécessaire d'élaborer des questions qui soutiennent la recherche de la vérité au lieu de l'entraver.
L'art du questionnement responsable
Dans son ouvrage de référence The Art of Questioning, l'expert en pensée critique Neil Browne expose des concepts qui s'appliquent parfaitement à l'interrogation de grands modèles de langage :
- Poser des questions ouvertes plutôt que fermées : Les questions fermées limitent les réponses à des options "oui/non" ou à des voies étroites qui empêchent toute réponse significative. Les questions ouvertes bien conçues laissent la place à des réponses réfléchies.
- Distinguez les faits des déductions : Les questions sur les faits recherchent des vérités objectives, tandis que les questions sur les déductions demandent des interprétations subjectives à partir de points de vue ou d'hypothèses personnels. Reconnaissez la différence.
- Envisagez des nuances de gris : Les questions qui ne suggèrent que des positions dualistes occultent souvent des réalités complexes. Accueillez les perspectives nuancées entre les extrêmes.
- Rendre les hypothèses explicites : Révéler les hypothèses sous-jacentes, les antécédents ou les croyances qui façonnent les questions, afin de s'assurer qu'elles sont logiques et qu'elles ne véhiculent pas de préjugés.
- Déterminer le contexte pertinent : Définissez précisément les cadres, les circonstances, les domaines et les facteurs contextuels associés aux questions.
- Examiner les valeurs implicites : Déterminez si les questions véhiculent subtilement des valeurs, des idéologies ou des jugements implicites qui influencent l'orientation des réponses. Soyez neutre pour éviter les préjugés.
Ces lignes directrices permettent d'éviter les pièges les plus courants qui nuisent à l'efficacité du questionnement. Cependant, un questionnement irresponsable peut saper la vérité de manière plus subtile. Par exemple,
- des questions mal construites peuvent formuler les questions de manière suggestive afin de confirmer des croyances préexistantes ou d'obtenir des réponses prévisibles (biais de confirmation)
- omettre des détails cruciaux qui affectent de manière significative la pertinence des réponses (erreurs d'omission)
- émettre de fausses hypothèses ou supposer des "faits" trompeurs (questionnement sur les fausses prémisses)
- charger le langage de connotations émotionnelles destinées à provoquer certaines réactions (cadrage manipulateur)
- proposer des scénarios absurdes déconnectés de la réalité (hypothèses erronées)
- exiger des simplifications excessives et ridicules de questions à multiples facettes (réductionnisme).
Ces défauts structurels corrompent les lignes d'enquête dès le départ. Même les sources qui contiennent de la sagesse ou de l'exactitude sont déréglées par des questions pièges qui ne recherchent pas la vérité de bonne foi. Il en résulte un dialogue de sourds plutôt qu'une enquête sérieuse.
Lorsque ces questions sont adressées à des systèmes d'IA qui manquent de discernement ou de scepticisme, les dangers sont amplifiés de manière exponentielle. Sans une clarté réaliste sur les contextes, les implications ou les erreurs potentielles d'orientation, ils généreront des réponses qui correspondent au ton et aux hypothèses des questions initiales, conduisant les utilisateurs dans des impasses infructueuses.
Par conséquent, il est impératif de poser des questions responsables avant de pouvoir attendre des réponses raisonnables de la part des grands modèles de langage. Nous devons veiller à rechercher la vérité, à expliquer le contexte, à clarifier les hypothèses et à formuler les questions de manière impartiale afin d'obtenir des connaissances plutôt que des erreurs ou des préjudices.
Stratégies clés pour un questionnement responsable
L'analyse ci-dessus révèle qu'il y a beaucoup à faire pour améliorer le questionnement humain. Pour exploiter de manière responsable la puissance des grands modèles de langage à des fins d'apprentissage et de prise de décision, tout en préservant la vérité, l'éthique et l'exactitude, nous avons besoin de principes et de pratiques qui favorisent un questionnement fiable et un engagement fructueux.
C'est ce qui a inspiré cette série d'articles visant à doter les utilisateurs de stratégies d'interrogation des grands modèles de langage dans une optique consciente et de recherche de la vérité. Chaque article fournira des conseils concrets et des lignes directrices pour structurer de meilleures questions afin de maximiser le dialogue productif avec ces systèmes.
Bien qu'elles ne soient pas exhaustives, ces recommandations visent à sensibiliser les utilisateurs aux pièges courants qui nuisent à l'efficacité des requêtes, afin qu'ils puissent améliorer consciemment leurs compétences dans ce domaine. En faisant preuve de réflexion et d'attention, nous pouvons surmonter les limites inhérentes aux systèmes d'IA en appliquant intentionnellement la sagesse humaine, la pensée critique et le questionnement éthique.
Les articles aborderont les aspects clés d'un questionnement responsable, tels que
- Formuler des questions neutres et non trompeuses
- Préciser le contexte et les domaines de pertinence
- Rendre explicites les hypothèses et les valeurs
- Déterminer les niveaux de complexité nécessaires
- Appliquer les règles de la logique et de la raison
- Rechercher des preuves justifiées et des sources fiables
- Structurer des enquêtes en plusieurs étapes
- Contrôler les signaux d'alerte et l'autocorrection
- Fournir un retour d'information approprié sur les performances du système
En incorporant de telles stratégies de questionnement responsable dans nos interactions avec des modèles de langage de plus en plus puissants, nous pouvons continuer à bénéficier des progrès de l'IA, tout en contrôlant les risques posés par les technologies émergentes qui manquent de sagesse humaine. L'objectif de cette série d'articles est de fournir aux utilisateurs les connaissances conceptuelles et les méthodes pratiques pour parvenir à un questionnement responsable afin de tirer profit des avantages, plutôt que des dangers, de ces systèmes.
Le prochain article explorera les principes de la formulation de questions neutres et impartiales qui évitent les hypothèses ou les sophismes logiques qui compromettent le dialogue. Les articles suivants renforceront les compétences en matière d'introspection et de questionnement éthique lorsque l'on s'appuie sur l'assistance de l'IA pour la prise de décision ou la collecte d'informations.
À mesure que les capacités de l'IA s'accélèrent, le moment est venu d'affiner les compétences permettant de maintenir ces technologies sur la bonne voie grâce à la pleine conscience, à la pensée critique et à un questionnement intentionnel qui élève la vérité tout en préservant l'éthique. Je souhaite la bienvenue aux lecteurs dans ce voyage qui leur permettra de s'engager de manière responsable grâce à des modèles de langage puissants mais limités.
Glossaire
- Grands modèles de langage - Systèmes d'IA sophistiqués formés sur de vastes ensembles de données textuelles pour générer un langage semblable à celui des humains et engager un dialogue. Parmi les exemples, citons GPT-3, LaMDA de Google et Wu Dao 2.0
- Traitement du langage naturel (TLN) - Branche de l'intelligence artificielle visant à permettre aux ordinateurs de comprendre, d'interpréter et de générer des langues humaines. La technique clé est la modélisation du langage.
- Modélisation du langage - Entraînement des systèmes d'intelligence artificielle à prédire des séquences probables de mots par l'exposition à des ensembles massifs de données textuelles. Permet de générer des textes fluides et cohérents.
- Paramètres - Variables internes ou poids des données dans un modèle d'apprentissage automatique qui sont ajustés au cours de la formation pour améliorer sa précision. Un plus grand nombre de paramètres permet de modéliser des modèles plus complexes.
- Généralisation - Capacité des systèmes d'intelligence artificielle à étendre leur apprentissage sur un ensemble de données de formation à de nouvelles données inédites. Une mauvaise généralisation signifie que l'on a du mal à gérer des données non familières.
- Surajustement - Lorsque les modèles deviennent excessivement adaptés aux idiosyncrasies de leurs données d'apprentissage au lieu d'apprendre des connaissances généralisées. Il en résulte de mauvaises performances sur les nouvelles données.
- Données hors distribution - Données d'entrée qui diffèrent de manière significative de celles sur lesquelles un modèle a été formé. Elles peuvent révéler les limites de la généralisation.
- IA étroite - Systèmes qui font preuve d'intelligence dans des domaines étroits, mais qui n'ont pas de capacités de raisonnement généralisé. Les grands modèles de langage sont actuellement de l'IA étroite.
- Abstraction - Capacité d'interpréter des concepts à des niveaux de signification plus élevés en identifiant des schémas, des règles, des thèmes, etc.
- Sens commun - Ensemble des connaissances de base, des hypothèses, des normes sociales, des intuitions causales et des capacités de raisonnement pratique que les êtres humains accumulent au fil de leur expérience.
- Hallucination - Lorsque les systèmes d'IA génèrent des résultats fabriqués qui semblent plausibles mais qui ne reflètent pas la réalité des faits.
- Biais de confirmation - Tendance à rechercher ou à interpréter des informations de manière à se conformer à ses idées préconçues ou à ses hypothèses. Peut fausser la recherche.
- Réductionnisme - Explication de phénomènes complexes en les réduisant à des éléments constitutifs plus simples plutôt qu'en reconnaissant les aspects multiformes.
- Question suggestive - Questions formulées pour influencer la réponse d'une personne en faisant des suppositions ou en suggérant des réponses souhaitées.