Alors que les grands modèles de langage tels que ChatGPT font l'objet d'une grande attention, l'optimisation des messages-guides pour guider leurs réponses devient un domaine d'intérêt important. Un article récent rédigé par des chercheurs de l'université Mohamed bin Zayed d'IA apporte une contribution significative en exposant les principes d'un guidage plus efficace des messages-guides sur la base d'expériences approfondies. Dans cet article, j'aimerais passer brièvement en revue leur travail et offrir quelques perspectives sur les implications des meilleures pratiques qu'ils proposent pour l'ingénierie des messages-guides. J'apprécie la rigueur et l'exhaustivité qui sous-tendent la formulation de ces principes pour obtenir de meilleures performances des modèles.
Mon intention n'est pas de me positionner en tant qu'expert, mais plutôt de réfléchir, en tant qu'observateur intéressé, à la manière dont ces idées pourraient améliorer l'interaction entre l'homme et l'intelligence artificielle en rendant la programmation des messages-guides plus structurée. La possibilité d'obtenir de meilleures réponses de la part des modèles existants simplement grâce à la conception des messages-guides est très prometteuse. En partageant les messages-guides de manière plus judicieuse en tant qu'utilisateurs, nous pouvons probablement exploiter davantage l'utilité des modèles de langage d'une manière éthique.
Apprendre à l'IA à écouter : L'art de l'ingénierie des prompts
Alors que les modèles de langage à grande échelle comme ChatGPT captent l'attention du monde entier avec leurs réponses éloquentes et leurs conversations semblables à celles des humains, une question cruciale se pose : Comment communiquer avec ces systèmes d'IA ? C'est là qu'entre en scène le monde complexe de l'ingénierie des messages-guides.
Les messages-guides sont les instructions que les utilisateurs donnent aux systèmes d'IA pour les guider vers les réponses dont ils ont besoin. L'élaboration de messages-guides efficaces est donc essentielle pour exploiter la puissance des grands modèles de langage (LLM) tels que ChatGPT, LaMDA de Google ou Claude d'Anthropic.
Pourtant, l'incitation reste un art qui requiert des compétences complexes. Des variations subtiles dans la formulation ont souvent un impact significatif sur les performances de l'IA. C'est pourquoi les chercheurs distillent les principes de conception des messages-guides afin de rationaliser les interactions avec les LLM. Récemment, des scientifiques de l'université Mohamed bin Zayed de l'IA ont distillé les résultats d'expériences approfondies en 26 principes de conception d'invites pour améliorer les performances des LLM.
"L'ingénierie des messages-guides est l'art de communiquer avec un grand modèle génératif de langage", dit ChatGPT lui-même. Cet art s'appuie toutefois sur des méthodes scientifiques.
Pourquoi s'embarrasser de messages-guides (Prompt) ?
Avec des billions de paramètres, les LLM montrent des capacités presque magiques pour la conversation, la création de contenu et la réalisation de tâches après avoir été entraînés sur d'énormes ensembles de données. Cependant, leur réglage direct pour des applications spécifiques demande beaucoup de ressources.
L'apprentissage basé sur des invites apparaît comme une alternative efficace, utilisant des instructions en langage naturel pour guider les modèles. Par exemple, en formulant soigneusement une invite musicale, Claude a pu composer un morceau de violon attrayant.
De telles capacités d'apprentissage à partir de zéro grâce à la programmation d'invites élargissent considérablement l'accessibilité et l'utilité des LLM pour les utilisateurs. Qu'il s'agisse d'étudiants, de professionnels de la création, de programmeurs ou d'universitaires, les utilisateurs de tous les domaines peuvent exploiter des modèles pré-entraînés en communiquant simplement les messages-guides appropriés, plutôt que de nécessiter une formation spécialisée.
Les messages-guides permettent en outre d'exploiter des applications riches à partir de modèles singuliers. En recevant des invites personnalisées, les LLM peuvent moduler leurs réponses, par exemple lorsqu'ils conseillent des investisseurs, donnent des cours particuliers à des étudiants ou analysent des données sur la santé.
En effet, l'ingénierie des messages-guides s'appuie aujourd'hui sur des recherches approfondies pour sa capacité à pousser les capacités des modèles. Mais formuler des messages-guides pour obtenir des réponses fiables et de qualité requiert des compétences nuancées.
Le cas curieux des messages-guides (Prompts)
L'une des principales découvertes est qu'en dépit de paramètres fixes après la formation, les LLM font preuve d'une adaptation surprenante aux nouvelles invites. Leurs résultats dépendent fortement des instructions données.
Par exemple, lorsqu'on demande à ChatGPT d'expliquer les bases de l'informatique quantique à un physicien titulaire d'un doctorat ou à un enfant de 12 ans, les réponses varient de manière appropriée en termes de complexité et de vocabulaire. Une telle sensibilité aux messages-guides implique que ces modèles développent une certaine compréhension du contexte et des besoins.
Ainsi, il suffit de reformuler les messages-guides pour obtenir des réponses différentes à partir du même modèle de base, sans nécessiter de ressources supplémentaires pour l'affiner ou l'étendre. Cette évolution vers un apprentissage basé sur des messages-guides est aujourd'hui une tendance dominante dans la recherche et l'application de l'IA.
Déchiffrer la conception des messages-guides
Comment les utilisateurs peuvent-ils maîtriser cet art pour tirer le meilleur parti des messages-guides disponibles sans avoir besoin de compétences spécialisées en matière d'apprentissage automatique ? Les chercheurs suggèrent d'examiner le comportement des modèles pour différents types d'invites afin d'en extraire les principes de conception.
"Notre objectif est de simplifier les concepts sous-jacents de la formulation des questions pour différentes échelles de grands modèles de langage, d'examiner leurs capacités et d'améliorer la compréhension des utilisateurs", explique l'auteur principal, Sondos Bsharat, de l'université Mohamed bin Zayed.
En testant des variantes de messages-guides sur des modèles tels que Meena de Google, Claude d'Anthropic et GPT-3 d'OpenAI, des aspects clés d'un message-guide efficace sont apparus : concision, pertinence contextuelle, alignement sur le format de réponse requis, inclusion d'exemples, etc.
La décomposition des questions complexes en chaînes d'invites plus simples permet également aux modèles d'aborder les questions difficiles. L'ajustement itératif des messages-guides sur la base des résultats initiaux permet d'affiner encore les performances. Ces principes acquis codifient les connaissances procédurales relatives à la programmation des messages-guides.
La prochaine évolution des assistants d'IA ?
Lorsque les chercheurs ont testé ces principes sur deux modèles représentatifs - Clara et GPT-4 - la qualité et la précision des réponses se sont améliorées de manière significative par rapport aux invites standard pour toute une série de tâches - respectivement de 57,7 % et 67,3 % pour GPT-4.
Les améliorations ont augmenté de manière cohérente avec la taille du modèle, ce qui suggère que l'optimisation de l'invite débloque une plus grande capacité latente. Il est intéressant de noter que les chercheurs précisent que "les grands modèles ont une capacité de simulation considérable... Plus la tâche ou l'instruction est précise, plus le modèle est efficace".
En d'autres termes, traiter les MFR comme des collaborateurs en les informant efficacement sur les exigences par le biais d'une programmation rapide améliore ce qu'ils peuvent fournir. Leur capacité à adapter les réponses indique une compréhension sophistiquée des contextes limités.
Les messages-guides permettent donc d'accéder à des compétences associées à l'intelligence générale : comprendre l'ambiguïté, adapter le langage, établir des liens logiques entre les concepts, etc. Les futurs assistants intelligents pourraient donc utiliser des messages-guides et des principes pour mieux servir les utilisateurs à la demande.
Alors que les débats sur l'éthique et la gouvernance de l'IA s'accélèrent, l'ingénierie des messages-guides peut offrir une approche équilibrée. Des messages-guides bien conçus peuvent déclencher des comportements utiles sans nécessiter une nouvelle formation coûteuse du modèle, tout en atténuant les caractéristiques indésirables. Comme l'explique M. Bsharat, "nous espérons que ce travail fournira un meilleur guide aux chercheurs qui travaillent sur l'incitation de grands modèles de langage".
Le chemin à parcourir nécessitera des progrès continus dans les principes d'incitation pour correspondre aux progrès dans les architectures de modèles. Cependant, le fait de réimaginer les LLM en tant qu'agents collaboratifs grâce aux messages-guides changera fondamentalement les expériences des utilisateurs et les applications de l'industrie.
L'aide-mémoire de la programmation des messages-guides
Vous voulez pirater des LLM comme ChatGPT et Claude en utilisant des messages-guides stratégiques ? Voici quelques conseils étape par étape :
- Soyez concis et clair : évitez les messages-guides verbeux. Utilisez un langage précis pour fournir un contexte pertinent et communiquer clairement la tâche.
- Démontrez les exigences : Incluez des exemples d'entrée/sortie qui modélisent le format exact de la réponse requise.
- Définir les attentes en matière de rôle : Attribuez un personnage spécifique au LLM en fonction de l'objectif visé, par exemple un tuteur.
- Décomposer la complexité : Décomposer les tâches complexes en invites simples et séquentielles.
- Adapter de manière itérative : Affiner les messages-guides en fonction des réponses initiales du modèle pour un meilleur alignement.
- Stimuler logiquement : Utiliser des constructions de programmation telles que les conditionnelles dans les messages-guides pour structurer le raisonnement.
- Atténuer les préjugés : veiller à ce que les messages-guides utilisent un langage neutre qui n'active pas les associations stéréotypées.
- Personnaliser la compréhension : Demandez des explications simplifiées pour confirmer la compréhension du modèle.
- Établir des normes positives : Utilisez des mots directifs positifs tels que "faire" plutôt que des mots prohibitifs tels que "ne pas faire".
- Récompensez les réponses souhaitables : Dites que vous donnerez un pourboire plus élevé pour les meilleures solutions afin d'encourager les efforts.
Au fur et à mesure de l'évolution des LLM, l'art de l'ingénierie de l'incitation évoluera lui aussi. Pour l'instant, ces principes fondés sur des données probantes constituent une solide boîte à outils de départ pour guider les interactions avec les LLM et améliorer constamment l'expérience.
Il est temps de les mettre en pratique pour renforcer votre assistant IA !
Voici le tableau de l'article
Source : Principled Instructions Are All You Need for Questioning LLaMA-1/2, GPT-3.5/4 - Sondos Mahmoud Bsharat, Aidar Myrzakhan, Zhiqiang Shen joint first author & equal contribution, VILA Lab, Mohamed bin Zayed University of AI
#Principe | Principe d'invite pour les instructions | ||||||
---|---|---|---|---|---|---|---|
1 |
|
||||||
2 | Intégrer le public ciblé dans l'invite, par exemple, le public est un expert dans le domaine. | ||||||
3 | Décomposer les tâches complexes en une séquence de prompts plus simples dans une conversation interactive. | ||||||
4 | Utiliser des directives affirmatives telles que « faites », tout en évitant un langage négatif comme « ne faites pas ». | ||||||
5 |
|
||||||
6 | Ajoutez « Je vais donner un pourboire de $xxx pour une meilleure solution ! » | ||||||
7 | Implémentez des invites basées sur des exemples (utilisez des invites avec peu d'exemples). | ||||||
8 |
|
||||||
9 | Incorporez les phrases suivantes : « Votre tâche est » et « Vous DEVEZ ». | ||||||
10 | Incorporez les phrases suivantes : « Vous serez pénalisé ». | ||||||
11 | utilisez la phrase « Répondez à une question de manière naturelle et humaine » dans vos invites. | ||||||
12 | Utilisez des mots conducteurs comme écrire « pensez étape par étape ». | ||||||
13 | Ajoutez à votre invite la phrase suivante « Assurez-vous que votre réponse est impartiale et ne repose pas sur des stéréotypes ». | ||||||
14 | Permettez au modèle d'obtenir des détails précis et des exigences de votre part en vous posant des questions jusqu'à ce qu'il ait suffisamment d'informations pour fournir la sortie nécessaire | ||||||
15 | Pour vous renseigner sur un sujet spécifique, une idée ou toute information et que vous souhaitez tester votre compréhension, vous pouvez utiliser la phrase suivante : « Enseignez-moi la [nom de théorème/sujet/règle] et incluez un test à la fin, mais ne me donnez pas les réponses et dites-moi ensuite si j'ai la bonne réponse lorsque je réponds ». | ||||||
16 | Attribuez un rôle aux modèles de langage à grande échelle. | ||||||
17 | Utilisez des délimiteurs. | ||||||
18 | Répétez un mot ou une phrase spécifique plusieurs fois dans une invite. | ||||||
19 | Combinez la réflexion en chaîne (CoT) avec des invites à quelques exemples. | ||||||
20 | Utilisez des amorces de sortie, qui impliquent de conclure votre invite par le début de la sortie souhaitée. Utilisez des amorces de sortie en terminant votre invite par le début de la réponse anticipée. | ||||||
21 | Pour écrire un essai / texte / paragraphe / article ou tout type de texte qui doit être détaillé : « Rédigez pour moi un [essai/texte/paragraphe] détaillé sur [sujet] en détail en ajoutant toutes les informations nécessaires ». | ||||||
22 | Pour corriger/modifier un texte spécifique sans changer son style : « Essayez de réviser chaque paragraphe envoyé par les utilisateurs. Vous ne devez améliorer que la grammaire et le vocabulaire de l'utilisateur et vous assurer qu'il sonne naturel. Vous ne devez pas changer le style d'écriture, comme rendre un paragraphe formel décontracté ». | ||||||
23 | Lorsque vous avez une invite de codage complexe qui peut être dans différents fichiers : « Désormais, chaque fois que vous générez du code qui s'étend sur plusieurs fichiers, générez un script [langage de programmation] qui peut être exécuté pour créer automatiquement les fichiers spécifiés ou apporter des modifications aux fichiers existants pour insérer le code généré. [votre question] ». | ||||||
24 | Lorsque vous souhaitez initier ou poursuivre un texte en utilisant des mots, des phrases ou des phrases spécifiques, utilisez l'invite suivante : o Je vous fournis le début [paroles de chanson/histoire/paragraphe/essai...] : [Insérez les paroles/mots/phrase]’. Terminez-le en fonction des mots fournis. Gardez la cohérence du flux. | ||||||
25 | Indiquez clairement les exigences que le modèle doit suivre pour produire du contenu, sous forme de mots-clés, réglementations, indices ou instructions | ||||||
26 | Pour rédiger un texte quelconque, tel qu'un essai ou un paragraphe, qui doit être similaire à un échantillon fourni, incluez les instructions suivantes : o Veuillez utiliser le même langage que celui du paragraphe/titre/texte/essai/réponse fourni. |
Tableau 1 : Vue d'ensemble des 26 principes d'action. (lien)
Glossaire
- Grands modèles linguistiques (LLM) : Systèmes d'IA sophistiqués formés à partir de vastes données afin d'acquérir des capacités et des compétences linguistiques étendues. Exemples : ChatGPT, Claude, LaMDA, GPT-3, etc.
- Ingénierie des messages : Rédaction d'instructions et d'exemples spécifiques pour guider les réponses du LLM vers les résultats souhaités pour une tâche sans formation supplémentaire.
- Programmation d'invites : L'émission de messages-guides dans un contexte et avec des exigences précises afin de déclencher les comportements souhaités de la part des LLM en exploitant leurs capacités d'adaptation.
- Apprentissage en quelques étapes : Permettre aux modèles de faire des déductions sur de nouvelles tâches en leur fournissant seulement quelques exemples, souvent par le biais de messages-guides.
- Apprentissage à partir de zéro : Amener les modèles à adopter de nouveaux comportements sans qu'ils aient été explicitement entraînés à le faire, uniquement à l'aide d'instructions.
- Mise au point : Processus de formation supplémentaire d'un modèle LLM déjà formé sur des tâches en aval en continuant la rétropropagation.
- Principes de l'invite : Lignes directrices et meilleures pratiques fondées sur des preuves pour formuler des messages-guides qui améliorent de manière fiable les performances du LLM.
- Qualité de la réponse : Métrique évaluant le degré de conformité des résultats du modèle avec les normes attendues en matière de pertinence, de précision, de concision, etc.
- lignement humain :Conception d'invites telles que les réponses du modèle démontrent une compréhension alignée sur les normes et les besoins humains.
- Simulation adaptative : Les LLM ont la capacité d'ajuster de manière adaptative les réponses générées sur la base d'instructions précises plutôt que sur la base de données d'entraînement mémorisées.