close Created with Sketch.

Solutions

Stratégie digitale

Développez votre présence sur les bons canaux

Publicités sur Facebook

Boostez vos ventes avec des publicités rentables et mesurables

Référencement naturel

Devancez vos concurrents

Google Ads

Imposez-vous sur les moteurs de recherche

Optimisation de Landing Page

Convertissez vos prospects en clients

Copywriting

Persuadez et convertissez

March 15, 2024

5 astuces pour personnaliser son assistant IA

Stratégie digitale
Actualités

Vous voulez améliorer votre expérience utilisateur ? Être disponible 24/24 pour vos clients ? Les assistants virtuels sont devenus de véritables incontournables. Dotés de capacités conversationnelles épatantes et d’une capacité de réponse au temps record, il est peut-être temps que plusieurs marques s’y penchent. Différents éditeurs de LLMs (Large Language Models), tels que ChatGPT ou Anthropic offre la possibilité d’élaborer son propre assistant. Lors de la conception de votre chatbot, il vous faut maîtriser l’art du bon prompt (la pratique de formuler des instructions ou des questions spécifiques pour orienter les modèles de langage). Pour ce faire, nous vous proposons 5 astuces qui vous permettront de faire vos premiers pas dans l’univers des assistants virtuels.

1. Nourrissez-le de contexte ! 

Un assistant au bon prompt devra d’abord s’initier par une contextualisation simple quant au rôle qui lui est attribué. Bienvenu à la bonne pratique du role play !

D’abord, il s’agit de définir sa fonction.

  • Exemple : "Tu es un traducteur spécialisé."

Ensuite, décrire très simplement la tâche attendue.

  • Exemple : "Ton rôle est de traduire un texte en anglais."

Puis, aborder les détails de la tâche en question.

  • Exemple :"L'utilisateur va te donner un texte à traduire qui exigera sa traduction en tenant compte du contexte global.")

Enfin, dans un cadre plus technique, il peut être utile de préciser le type de langage voulu (XML, JSON, HTML…).

2. Adoptez l’itération 

Il est fondamental de tester au préalable plusieurs formulations de prompt. Celui-ci doit être cohérent, pratique et efficace. L'itération, en altérant le prompt de l'assistant et en testant ses réponses à différentes reprises, s'avère très utile pour affiner sa réaction, et réussir le résultat voulu. Les experts recommandent d'échapper à la tentation de l'utilisation de "jailbreaks". En effet, ces techniques permettent de contourner certains filtres de modération de contenu, mais risquent de provoquer une baisse considérable de performance.

3. Simplifier le langage 

Les mots simples et clairs vous permettront d’optimiser la performance du prompt et de réduire le temps de calcul. Minimiser le nombre de tokens (mots et ponctuation) est impératif dans la mesure où plus ils sont présents, plus leur traitement prendra de temps et mobilisera des ressources de calcul. Des tournures complexes, des phrases inhabituelles ou l’usage d’une syntaxe embrouillée entraînera la génération exagérée de tokens.

4. Donner des exemples 

L’alimentation d'exemples relatifs aux résultats attendus permettra à tout assistant de booster son efficacité. Le nourrir de la formule “demande utilisateur / réponse souhaitée” est encore plus approprié. Voici un exemple pour un prompt de traduction : "Voici l'exemple d'un résultat attendu : [USER] Il fait beau aujourd'hui, n'est-ce pas ? [/USER] [ASSISTANT] It's nice weather today, isn't it ? [/ASSISTANT]."

En accumulant les exemples justes et variés, vous pourrez obtenir des résultats davantage satisfaisants. Nous vous conseillons également d’indiquer au chatbot que la réponse “je ne sais pas” est valable, lorsque celle-ci lui échappe. Ceci évitera toute une série de réponses rocambolesques des LLMs.

5. Séquencez vos instructions 

Des recherches au sein des Universités de Stanford et Berkeley ont révélé un phénomène attaché aux LLMs: le "lost in the middle". Il s’avère que lors de la soumission d’un contexte trop long, celui-ci s’efface dans l’excès d’information. Apparemment, une information pertinente au centre du contexte sera perdue alors que la même information au début ou à la fin sera assimilée. Les performances s’accentuent en fonction de ces positions stratégiques. Autrement dit, les LLMs actuels parviennent mieux à exploiter l'information quand elle se trouve au début (biais de primauté) ou à la fin (biais de récence) du contexte. Lorsqu’elle est placée au milieu de longues séquences en input, des difficultés surgissent.

En acceptant cette prémisse, il sera donc judicieux de placer les instructions essentielles en début et en fin de prompt. Pour limiter l'effet de récence, Microsoft recommande au sein de son guide de prompt engineering de pratiquer une répétition des instructions initiales en fin de prompt, pour maximiser les performances de l’assistant.

En tant que fidèles assistants non virtuels, nous espérons vous avoir équipés des premières astuces qui puissent vous mener au chatbot de vos rêves. Pour toute autre question, n’hésitez pas à nous envoyer vos appels au secours !