Faites attention à la manière dont vous vous adressez à ChatGPT

  • Commencer son "prompt" avec un "bonjour" et le finir avec un "merci" a une incidence sur la réponse que génère la machine.
    Commencer son "prompt" avec un "bonjour" et le finir avec un "merci" a une incidence sur la réponse que génère la machine. Supatman / Getty Images
Publié le
ETX Daily Up

(ETX Daily Up) - "Reformule ce mail", "Peux-tu réécrire ce paragraphe pour qu’il soit plus concis ?"... Il n’est pas toujours facile de savoir comment parler à ChatGPT. Pourtant, des chercheurs de l’université de Californie du Sud ont constaté que les robots conversationnels comme ChatGPT sont beaucoup plus performants quand on s’adresse à eux poliment.

Abel Salinas et Fred Morstatter sont arrivés à cette conclusion après avoir testé différents modèles de "prompts" (demande écrite) auprès de plusieurs modèles de langage dont ChatGPT. Les universitaires ont, par exemple, ajouté des espaces au début et à la fin de leurs requêtes, ou les ont ponctuées de formules de politesse. Il s'avère que la manière dont on s'adresse à un robot conversationnel a une incidence sur la précision de la requête. Mieux vaut commencer son "prompt" avec un "bonjour" et le finir avec un "merci". En effet, un internaute qui fait fi des règles élémentaires de politesse n’obtiendra pas le même résultat qu’un autre qui les respecte.

Par ailleurs, Abel Salinas et Fred Morstatter ont constaté qu’il est inutile d’essayer de corrompre une intelligence artificielle. ChatGPT réagit mal aux tentatives de corruption : il ne produit pas des réponses de meilleure qualité quand on essaie de le motiver avec un petit pourboire. Et cela ne s'arrange pas lorsque la somme proposée est plus importante, bien au contraire. Si un internaute lui promet 1000 dollars en échange d’une réponse "parfaite", le robot conversationnel d’OpenAI se montre encore moins performant.

Son concurrent, LlaMA, semble toutefois un peu plus sensible à la perspective d’obtenir une récompense d’ordre pécuniaire. "Lorsqu'il s'agit d'influencer le modèle en spécifiant un pourboire ou en spécifiant que nous ne donnerons pas de pourboire, nous avons constaté qu'un pourboire de 1, 10 ou 100 dollars améliore considérablement les performances de LlaMA- 7B", constatent Abel Salinas et Fred Morstatter dans leur étude.

Les chercheurs ne savent pas expliquer avec certitude les raisons qui poussent les intelligences artificielles génératives à se comporter différemment en fonction du prompt qu’elles doivent traiter. Mais ils pensent que ce phénomène est lié au type de contenus avec lesquels elles ont été entraînées. "Sur certains forums en ligne comme Quora, il est logique d'ajouter une formule de politesse. Commencer par "bonjour" ou ajouter un "merci" y est courant", explique Abel Salinas dans un communiqué, ajoutant que ces éléments conversationnels pourraient façonner le processus d'apprentissage des modèles de langage.

De manière générale, il est conseillé de réfléchir à son mode de communication quand on s’adresse à une intelligence artificielle conversationnelle. Mais inutile de complexifier à outrance ses "prompts" : la simplicité a du bon, surtout avec ChatGPT.

Voir les commentaires
Réagir
Vous avez droit à 3 commentaires par jour. Pour contribuer en illimité, abonnez vous. S'abonner

Souhaitez-vous recevoir une notification lors de la réponse d’un(e) internaute à votre commentaire ?