SÃO PAULO, SP (FOLHAPRESS) – Le lancement de ChatGPT attire l’attention sur le domaine de l’IA (intelligence artificielle) et ouvre la porte à d’autres systèmes similaires de la catégorie LLM.
C’est un domaine de l’IA qui utilise les techniques les plus avancées disponibles pour apprendre et reproduire les modèles de langage humain. Il recherche des milliards de textes pour reconnaître comment les mots sont enchaînés comme un humain.
Dans le cas de ChatGPT, ce système a été intégré à un moteur de chat. L’utilisateur pose une question ou demande et la machine répond en utilisant son LLM.
Pour Rune Nyrup, philosophe spécialiste de l’IA pour la prise de décision, les discours persuasifs peuvent conduire à de mauvaises conclusions et véhiculer une idée d’une capacité qui manque au système.
Nyrup est chercheur au Leverhulme Center for the Future of Intelligence de l’Université de Cambridge et titulaire d’un doctorat de l’Université de Durham (tous deux en Angleterre).
L’expert appelle à plus de transparence afin que les gens comprennent les lacunes des systèmes d’IA avant de les utiliser et recommande la prudence lors de leur introduction.
*
QUESTION – L’une des utilisations de ChatGPT est l’orientation professionnelle, qui peut vous conduire sur la mauvaise voie. Quand ces systèmes posent-ils problème pour la prise de décision ?
RUNE NYRUP – Le problème est que l’exactitude ne peut être garantie. La logique du système est de prédire quelles phrases sont les plus similaires à ce qu’elles devraient être : l’ordre des mots le plus probable compte tenu des informations saisies. [a pergunta]. Il s’agit d’un modèle de prévision statistique qui tente de reproduire les modèles largement utilisés sur l’internet public. Cela signifie qu’il n’a pas été conçu pour réfléchir à l’exactitude des informations. Il a été conçu pour rendre la parole de manière convaincante.
L’un des cas était Stack Overflow [site onde programadores trocam informações] Interdiction de répondre avec GPT. Les gens peuvent penser à des solutions pour développer des logiciels critiques. Donc, avoir une solution qui semble très plausible à première vue, mais qui ne l’est pas, est très problématique.
Le fait n’est pas qu’il fasse des erreurs plus souvent que les humains. Le problème est que lorsque cela se produit, cela se produit de manière surprenante. C’est très différent des défauts que vous attendez d’un humain, ce qui les rend plus difficiles à repérer.
Q – En quoi les erreurs ChatGPT peuvent-elles différer des erreurs humaines ?
RN – Il y a un exemple où quelqu’un lui a demandé de décrire une scène effrayante de manière subtile, et la réponse était quelque chose comme : “La scène était subtilement sombre, donc tout semblait effrayant.” C’est-à-dire qu’il parle d’une manière subtile plutôt que décrivant subtilement la scène. C’est une erreur que quelqu’un avec des compétences de communication de niveau ChatGPT ne ferait jamais. Le système recherche des modèles dans le texte, donc si quelque chose de subtil émerge, il ne comprendra pas les concepts. Cela se produit d’une manière étrange et c’est un écart dans la précision du modèle qui est tout simplement trop difficile à prévoir. Comment les gens pourraient-ils anticiper ces échecs ?
Q – Les erreurs LLM peuvent-elles affecter les décisions lors de la recherche d’instructions spécifiques ? Disons que j’ai demandé des instructions sur la façon de faire bouillir un œuf et qu’il m’a dit de le casser avant de le mettre dans l’eau. Cela peut-il conduire à une erreur ?
RN – Oui, car c’est optimisé pour se laisser convaincre. Dans l’exemple de l’œuf, vous n’avez peut-être même pas lu la partie qui explique comment faire bouillir l’œuf car tout le monde sait comment le faire. Vous chercheriez des erreurs dans des choses comme la quantité de sel donnée parce que nous avons un modèle mental orienté vers la recherche des types d’erreurs que les gens feraient.
Ceci n’est qu’un simple exemple de recette, mais imaginez que quelqu’un l’utilise pour prendre une décision importante, comme programmer un code qui contrôle une centrale électrique. Ce sont des processus qui ne reposent pas uniquement sur de faibles taux d’échec. Ils comptent sur la mise en place de systèmes de sécurité pour détecter les défaillances lorsqu’elles se produisent. Par conséquent, même si la précision des réponses générées par ces IA est élevée en moyenne, il est également important de savoir où les erreurs ont été commises.
Q – L’intelligence artificielle qui n’a pas de compétences comme l’empathie peut-elle s’attarder sur les humains ?
RN – Cela dépend du contexte et des besoins. Vous pouvez demander à écrire une critique sur un restaurant disant que la nourriture n’était pas très bonne, ou vous pouvez demander une critique disant que la nourriture n’était pas bonne mais puisque vous êtes le propriétaire du restaurant Comme les locaux, écrivez quand même quelque chose de positif. Peut-être que quelque chose de décent viendra de la réponse. Le problème n’est pas le goût de la machine, c’est la réponse aux instructions explicites. Et cela dépend de la façon dont vous comptez l’utiliser. Vous voulez simplement copier et coller le texte sans le regarder ? Ou au moins lisez-le pour vérifier s’il est dans le bon ton ?
C’est quelque chose à faible risque, mais pensez à quelque chose où la sécurité est la clé. Je pense beaucoup au domaine médical et là ce serait positif d’avoir une sorte de système de sécurité commun.
Q – Les réactions des machines n’affectent-elles pas ce que les humains décident ? N’êtes-vous pas d’accord avec ce que dit le robot ?
RN – Oui, c’est ce qu’on appelle le biais d’automatisation. Notre traitement cognitif est conçu pour conserver l’énergie. Donc, s’il existe un raccourci pour résoudre un problème, nous prenons ce raccourci par défaut. Cela dit, s’il y a un système qui dit “faire X”, nous devrions utiliser cela par défaut. C’est un risque.
Pourtant, il y a des façons de faire où la machine ne produit pas vraiment de contre-expertise. Il peut simplement inclure des informations pertinentes dans le processus de prise de décision. Dans le cas médical, cela rappelle certaines choses, comme suggérer un diagnostic, ce qui est courant lorsqu’une personne présente certains symptômes, mais est généralement rare (ce qui peut amener le professionnel à l’ignorer). Ou proposez une liste de trois tests à effectuer. Une performance qui ne concurrence pas les décideurs mais apporte de nouvelles informations.
Q – Quelles responsabilités devrait-il avoir lors de l’utilisation de ce LLM ? Les entreprises qui le fabriquent, comme OpenAI, devraient-elles être plus transparentes quant à son exactitude, ou les personnes qui l’utilisent devraient-elles être responsables de l’application qu’elles fournissent au système, ou est-ce une responsabilité partagée ?
RN – De toute évidence, l’entreprise qui fabrique ce type d’IA à des fins plus générales a une énorme responsabilité car elle est la mieux placée pour effectuer ces contrôles de qualité. Comment pouvez-vous responsabiliser l’utilisateur final s’il n’a pas la possibilité d’améliorer les choses ? Il est lié au produit qu’il reçoit et ne peut que décider de faire confiance ou non. Donner la responsabilité à l’utilisateur l’enlève aux autres.
OpenAI ou toute autre personne développant LLM à ces fins générales devrait au moins avoir des preuves transparentes de la robustesse de son système. Si quelqu’un achetait le système et le formait pour un usage spécifique, il serait également responsable de vérifier la qualité dans ce domaine. Idéalement, le fournisseur général du système dispose d’outils pour l’aider dans cette tâche.
Q – Messieurs, pensez-vous que nous adoptons trop vite ou trop tôt la technologie de l’intelligence artificielle ?
RN – Jusqu’à présent, je n’ai vu personne l’utiliser dans une pratique très précoce pour quoi que ce soit d’important en matière de sécurité. Mais elles s’appliqueront certainement dans ces contextes, suscitant des inquiétudes pour l’avenir.
Q – Que peut-on faire pour améliorer la technologie de l’intelligence artificielle ?
RN – L’essentiel est de ne pas traiter l’IA différemment des autres choses. Ne présumez pas qu’en utilisant l’IA, vous pouvez contourner les exigences de sécurité de votre secteur. De plus, nous devons faire très attention à tout ce qui repose sur des personnes qui font quelque chose de mal.
En pratique, nous devrions demander aux régulateurs et aux législateurs de ne pas rogner sur les entreprises technologiques simplement parce qu’elles prétendent utiliser une IA sophistiquée. Nous ne devons pas abaisser nos normes de sécurité et ne pouvons pas tolérer que les gens disent quelque chose de trop complexe pour que nous puissions le comprendre. Si vous ne comprenez pas votre technologie, ne l’utilisez pas dans quelque chose qui ne tolère pas les erreurs.
L’essentiel est le suivant : si certaines erreurs ou pratiques sont inacceptables dans un certain domaine sans l’utilisation de l’IA, elles le sont également avec l’utilisation de l’IA. Si utiliser de fausses images pour illustrer un message est inacceptable, les utiliser avec l’IA est également inacceptable. Il utilise la morale que nous avons déjà : les règles de la société ne peuvent pas être jetées par-dessus bord simplement parce que nous utilisons l’IA.
*
roentgen
Rune Nyrup, 36 ans, est un philosophe qui explore les questions éthiques et épistémiques en utilisant des systèmes d’IA pour automatiser les processus de prise de décision. L’accent est mis sur la compréhension de l’importance de la transparence dans la gestion des biais de processus. Il travaille au Leverhulme Center for the Future of Intelligence et au Département d’histoire et de philosophie des sciences de l’Université de Cambridge (Angleterre). Il a précédemment obtenu son doctorat à l’Université de Dunham (Angleterre).
Publié le samedi 20 mai 2023 05:05:00 -0300