Bien que ChatGPT connaisse un succès mondial, celui-ci n’est pas dénué de défauts. En effet, quand le chatbot ne peut pas répondre à une question, il a tendance à inventer des faits.
ChatGPT est très performant dans de nombreux domaines. Les étudiants le préfèrent d’ailleurs à leurs professeurs pour apprendre. Le chatbot d’OpenAI est même capable de rédiger des scénarios, ce qui inquiète de nombreux scénaristes. Cependant, ChatGPT a encore des progrès à faire. En effet, les systèmes d’IA ont notamment tendance à inventer des choses et à les présenter comme des faits lorsqu’ils ne connaissent pas la réponse à une question, un phénomène connu sous le nom d' »hallucination ».
Crédit photo : Unsplash
Ces problèmes ont été mis en évidence lors d’un incident récent. En effet, un avocat s’est servi de ChatGPT afin d’appuyer sur son dossier. Mais le chatbot a fait n’importe quoi et a inventé des preuves inexistantes. L’avocat, qui a rapidement présenté ses excuses, pourrait se voir infliger des sanctions à la suite de son action.
ChatGPT : OpenAI travaille à la résolution du problème
Un autre incident a fourni l’attention en avril lorsque ChatGPT a apparemment réécrit l’histoire en affirmant qu’un maire australien avait été emprisonné pour corruption. En réalité, l’intéressé n’était ni plus ni moins que le dénonciateur dans cette affaire.
Les ingénieurs d’OpenAI ont depuis révélé qu’ils concentraient actuellement leurs efforts sur l’amélioration de son logiciel afin de réduire et d’éliminer ces occurrences problématiques. OpenAI déclare ainsi : «Les chatbots ont tendance à inventer des faits dans les moments d’incertitude. Ces hallucinations sont particulièrement problématiques dans les domaines qui ont avancé un raisonnement en plusieurs étapes, car une seule erreur logique suffit à faire dérailler une solution beaucoup plus grand.«
Pour répondre à ce problème, les ingénieurs de l’OpenAI travaillent sur des moyens permettant à ses modèles d’IA de se récompenser eux-mêmes en cas de bonne réponse. Selon les ingénieurs, le système pourrait aboutir à de meilleurs résultats en intégrant une procédure de réflexion plus proche de celle des humains.
Cependant, ces améliorations ne verront pas le jour de sitôt. En attendant, comme l’indique OpenAI elle-même, ChatGPT peut parfois générer des informations incorrectes. Il est donc indispensable de vérifier les informations fourni par le chatbot avant de s’en servir.
Source : tendances numériques