Supposons que nous disposons d’un ensemble de données d’entraînement, \( D^{train} \), contenant plusieurs entrées \( D^{train} _{x^{i}} \) et sorties \( D^{train} _{y^{i}} \) , utilisables pour effectuer du Few-Shot Prompting avec une IA générative, sans recourir à des mises à jour basées sur les gradients. Supposons également que le prompt peut être généré dynamiquement en fonction de \( D^{test} _{x^{i}} \) lors de la phase de test.

Voici le modèle de prompt que nous utiliserons dans cette section, suivant le format « entrée : sortie »

{Exemples}  
\( D^{test} _{x^{i}} \)

K-Nearest Neighbor (KNN)

Liu et al. (2021) propose une famille d’algorithmes qui sélectionne des exemples similaires à \( D^{test} _{x^{i}} \) pour améliorer les performances. Bien qu’efficace, l’utilisation de KNN lors de la génération de prompts peut être coûteuse en temps et en ressources.

KNN Prompting (K-Nearest Neighbor) : sélectionner les exemples les plus proches

Choisir des exemples qui ressemblent étroitement au contexte de la question posée.

Exemple :
Prompt :
“Résolvez 18 + 24. Exemples similaires : 12 + 15 = 27, 16 + 20 = 36.”

Réponse : 18 + 24 = 42.

Vote-K

Su et al. (2022) propose une autre méthode pour sélectionner des exemples similaires à l’échantillon de test. En deux étapes, un modèle propose d’abord des exemples candidats utiles, mais non étiquetés, que les annotateurs étiquettent ensuite. Dans une seconde étape, ce pool étiqueté est utilisé pour le Few-Shot Prompting. Vote-K garantit également que les nouveaux exemples ajoutés sont suffisamment différents des existants afin d’augmenter la diversité et la représentativité.

Vote-K : voter pour la réponse la plus représentative

Collecter plusieurs réponses candidates et voter pour celle qui reflète le mieux la question posée.

Exemple :
Prompt :
“Décrivez les avantages du télétravail.”

• Réponses :

Self-Generated In-Context Learning (SG-ICL)

Kim et al. (2022) utilise une IA générative pour produire automatiquement des exemples. Bien que cette méthode soit meilleure que les scénarios sans exemple (zero-shot) lorsque les données d’entraînement sont indisponibles, les exemples générés restent moins efficaces que des données réelles.

Prompt : Générer une critique :
La nourriture était étonnamment médiocre, et le service laissait vraiment à désirer.

Générer une critique positive :

Réponse : La nourriture était excellente, et le service était remarquable

Prompt Mining

Jiang et al. (2020) décrit un processus d’identification des mots ou formats "intermédiaires" optimaux pour les prompts en analysant de grands corpus. Ces formats intermédiaires servent effectivement de modèles de prompts. Par exemple, au lieu d’utiliser le format courant « Q : R : » pour les prompts, il peut exister d’autres formats similaires qui apparaissent plus fréquemment dans le corpus et offrent de meilleures performances.

Prompt Mining : chercher les formats de prompts les plus performants

Tester différentes formulations pour identifier celle qui donne les meilleurs résultats.

Exemple :
Prompt 1 :
“Expliquez les causes de la révolution industrielle.”
Prompt 2 : “Pourquoi la révolution industrielle a-t-elle eu lieu ?”

• Résultat : le Prompt 2 obtient une réponse plus complète.

Techniques Plus Complexes

Certaines techniques avancées, telles que LENS (Li et Qiu, 2023a), UDR (Li et al., 2023f) ou la sélection active d’exemples (Zhang et al., 2022a), exploitent des approches comme le filtrage itératif, l’intégration et la récupération, ou encore l’apprentissage par renforcement.

Last modified: Wednesday, 26 February 2025, 9:23 AM