Regroupement par Démonstration (DENSE) 

Khalifa et al. (2023) crée plusieurs suggestions Few-Shot, chacune contenant un sous-ensemble distinct d'exemples provenant du jeu d'entraînement. Ensuite, il agrège leurs sorties pour générer une réponse finale.

 

Mélange d'Experts en Raisonnement (MoRE)

Si et al. (2023d) crée un ensemble d'experts en raisonnement divers en utilisant différentes suggestions spécialisées pour différents types de raisonnement (par exemple, des suggestions avec augmentation de récupération pour le raisonnement factuel, des chaînes de pensée pour le raisonnement multi-étapes et mathématique, et des suggestions génératives pour le raisonnement communautaire). La meilleure réponse parmi toutes les experts est sélectionnée en fonction d'un score d'accord.

 

Méthode de l'Information Mutuelle Maximale

Sorensen et al. (2022) crée plusieurs modèles de suggestion avec des styles et exemples variés, puis sélectionne le modèle optimal comme celui qui maximise l'information mutuelle entre la suggestion et les sorties du LLM.

 

Auto-Consistance (Self-Consistency)

Wang et al. (2022) repose sur l'intuition que plusieurs chemins de raisonnement différents peuvent mener à la même réponse. Cette méthode incite d'abord le LLM à effectuer plusieurs CoT (Chaînes de Pensée), avec une température non nulle pour susciter des chemins de raisonnement diversifiés. Ensuite, elle utilise un vote majoritaire sur toutes les réponses générées pour sélectionner une réponse finale. L'auto-consistance a montré des améliorations dans les tâches arithmétiques, de raisonnement communautaire et symbolique.

 

Auto-Consistance Universelle

Chen et al. (2023e) est similaire à l'auto-consistance, sauf qu'au lieu de sélectionner la réponse majoritaire en comptant programmationnellement combien de fois elle apparaît, elle insère toutes les sorties dans un modèle de suggestion qui sélectionne la réponse majoritaire. Cela est utile pour la génération de texte libre et dans les cas où la même réponse peut être légèrement différente selon les suggestions.

 

Raisonnement Méta sur plusieurs CoTs

Yoran et al. (2023) est similaire à l'auto-consistance universelle ; il génère d'abord plusieurs chaînes de raisonnement (mais pas nécessairement des réponses finales) pour un problème donné. Ensuite, il insère toutes ces chaînes dans un seul modèle de suggestion, puis génère une réponse finale à partir d'elles.

 

DiVeRSe

Li et al. (2023i) crée plusieurs suggestions pour un problème donné, puis effectue l'auto-consistance pour chacune, générant ainsi plusieurs chemins de raisonnement. Ils évaluent les chemins de raisonnement en fonction de chaque étape, puis sélectionnent une réponse finale.

 

Auto-Adaptation Basée sur la Consistance (COSP)

Wan et al. (2023a) construit des suggestions Few-Shot CoT en exécutant Zero-Shot CoT avec auto-consistance sur un ensemble d'exemples, puis en sélectionnant un sous-ensemble des sorties ayant un fort accord pour les inclure dans la suggestion finale en tant qu'exemples. Il effectue à nouveau l'auto-consistance avec cette suggestion finale.

 

Auto-Adaptation Universelle (USP)

Wan et al. (2023b) s'appuie sur le succès de COSP, visant à le rendre généralisable à toutes les tâches. USP utilise des données non étiquetées pour générer des exemples et une fonction de notation plus complexe pour les sélectionner. De plus, USP n'utilise pas l'auto-consistance.

 

Paraphrasage de Suggestions

Jiang et al. (2020) transforme une suggestion originale en changeant certains termes tout en maintenant le sens global. C'est effectivement une technique d'augmentation de données qui peut être utilisée pour générer des suggestions pour un ensemble.

Voici un tableau récapitulatif des techniques de regroupement (ensembling) mentionnées précédemment, accompagné d'exemples pour illustrer chaque méthode :

 
DENSE (Demonstration Ensembling)
Crée plusieurs suggestions Few-Shot avec des sous-ensembles distincts d'exemples.
Pour résoudre une question mathématique, on crée 3 suggestions :<br>- Suggestion 1 : Exemples de multiplication.<br>- Suggestion 2 : Exemples de division.<br>- Suggestion 3 : Exemples mixtes.
MoRE (Mixture of Reasoning Experts)
Utilise différentes suggestions spécialisées pour divers types de raisonnement.
<ul><li>Raisonnement factuel : "Quelle est la capitale de la France ?"</li><li>Raisonnement mathématique : "Combien font 5 + 7 ?"</li><li>Raisonnement communautaire : "Pourquoi les oiseaux migrent-ils ?"</li></ul>
Max Mutual Information Method
Crée plusieurs modèles de suggestion avec des styles et exemples variés, puis sélectionne le meilleur.
<ul><li>Suggestion 1 : Style formel.</li><li>Suggestion 2 : Style informel.</li><li>Sélection du modèle qui maximise l'information mutuelle entre la suggestion et la sortie.</li></ul>
Self-Consistency
Génère plusieurs chemins de raisonnement avec une température non nulle, puis vote majoritaire.
<ul><li>Générer 5 réponses à "Quelle est la somme de 3 + 4 ?" : [7, 7, 6, 7, 8].</li><li>Majorité = 7.</li></ul>
Universal Self-Consistency
Insère toutes les sorties dans un modèle de suggestion pour sélectionner la réponse majoritaire.
<ul><li>Générer 3 réponses : ["Paris", "Londres", "Paris"].</li><li>Insérer dans un modèle final qui choisit "Paris".</li></ul>
Meta-Reasoning over Multiple CoTs
Génère plusieurs chaînes de raisonnement, puis insère toutes les chaînes dans un modèle unique.
<ul><li>Chaîne 1 : "3 + 4 = 7".</li><li>Chaîne 2 : "4 + 3 = 7".</li><li>Modèle final génère "La réponse est 7".</li></ul>
DiVeRSe
Crée plusieurs suggestions, effectue l'auto-consistance, puis évalue les chemins de raisonnement.
<ul><li>Suggestion 1 génère : "3 * 4 = 12".</li><li>Suggestion 2 génère : "4 * 3 = 12".</li><li>Évaluation des étapes, sélection de "12".</li></ul>
COSP (Consistency-based Self-adaptive Prompting)
Construit des suggestions Few-Shot en utilisant Zero-Shot CoT avec auto-consistance.
<ul><li>Zero-Shot CoT génère plusieurs réponses.</li><li>Sélectionne les réponses ayant un fort accord.</li><li>Utilise ces réponses comme exemples dans une suggestion finale.</li></ul>
USP (Universal Self-Adaptive Prompting)
Génère des exemples à partir de données non étiquetées et utilise une fonction de notation complexe.
<ul><li>Données non étiquetées : Questions diverses sur l'arithmétique.</li><li>Fonction de notation sélectionne les meilleures questions.</li><li>Crée une suggestion universelle.</li></ul>
Prompt Paraphrasing
Transforme une suggestion originale en changeant certains termes tout en maintenant le sens.
<ul><li>Suggestion originale : "Quelle est la capitale de la France ?"</li><li>Paraphrasée : "Quelle ville est la capitale de la France ?"</li></ul>

Ce tableau offre une vue synthétique des différentes approches de regroupement, mettant en évidence leurs caractéristiques principales et fournissant des exemples concrets pour faciliter leur compréhension.

Modifié le: mercredi 26 février 2025, 09:23