Haoui.com

ChatGPT : l'intelligence artificielle qui inquiète


GPT-4 vient d’être présentée. Les performances de cette intelligence artificielle se sont considérablement améliorées en quelques mois. Elle a passé le concours d’avocat et sa note a été proche des 10 % des meilleurs candidats. Lors de son lancement le 30 novembre 2022, sa grande sœur ChatGPT, est d'abord accueilli de manière globalement positive.

Ses réponses détaillées articulées et sa capacité à traduire des textes sont particulièrement remarquées. La journaliste Samantha Lock du Guardian note ainsi que le prototype est capable de générer des textes « remarquablement détaillés » et « semblables à ceux d'un être humain ». Son confrère Benjamin Hue de RTL loue la capacité du robot à rédiger un texte sur « tous les sujets possibles et imaginables », qu'il s'agisse d'une recette de cuisine, d'une dissertation, d'une lettre de motivation ou encore d'inventer une histoire pour enfants. Il note également que le robot est capable de répondre à des demandes plus pointues comme le débogage d'un code informatique.

Dan Gillmor, journaliste spécialiste des nouvelles technologies, a testé ChatGPT dans le cadre d'un travail d'étudiant, jugeant le texte généré comparable à celui d'un bon étudiant. Il en déduit que « le monde académique a de très sérieux problèmes à affronter ». Cette position est partagée par Jonathan Durand Folco qui montre, suite à une lettre d'opinion de 600 mots rédigée par cet outil, que « l'ensemble des écoles primaires et secondaires, des cégep et des communautés universitaires » est appelé à modifier en profondeur ses outils d'évaluation.

De son côté, Alex Kantrowitz, de Slate, salue la manière dont ChatGPT réagit aux questions relatives à l'Allemagne nazie, notamment l'affirmation selon laquelle Adolf Hitler a construit des autoroutes en Allemagne, ce qui a engendré des informations sur l'utilisation du travail forcé par l'Allemagne nazie.

Dans un article d'opinion de décembre 2022, l'économiste Paul Krugman estime que ChatGPT aura un impact sur la demande de travailleurs de la connaissance.

James Vincent, de The Verge, voit dans le succès viral de ChatGPT la preuve que l'intelligence artificielle est devenue incontournable. Dans The Atlantic, Stephen Marche (en) note que l'effet de ChatGPT sur le monde universitaire, et en particulier sur les essais de candidature (par exemple, pour une admission à une université ou l'obtention d'une bourse), reste encore à comprendre. Daniel Herman, professeur de lycée et auteur californien, écrit que ChatGPT marquera la « fin de l'anglais au lycée ».

Ambiguïté des réponses et fausses informations

L'exactitude de certaines réponses de ChatGPT a cependant été remise en question.

Le journaliste Mike Pearl de Mashable a testé ChatGPT en lui posant des questions factuelles. Il demande par exemple au modèle quel est « le plus grand pays d'Amérique centrale qui n'est pas le Mexique ». ChatGPT répond qu'il s'agit du Guatemala, alors que la réponse est plutôt le Nicaragua. L'erreur provient de l'interprétation de la question par ChatGPT, qui aurait cru que l'on s'intéressait à la taille de la population plutôt qu'à la superficie du territoire.

Des chercheurs alertent aussi sur la publication de fausses informations par ChatGPT, en particulier dans le domaine scientifique. Ainsi, la data scientist Teresa Kubacka dit avoir testé le robot sur le multiferroïsme. Elle indique que ce dernier lui a fourni de fausses citations de chercheurs, qui semblaient « avoir été assemblées comme un mélange à partir de quelques citations réelles, différentes mais similaires. » Selon elle, il est également possible de tromper l'IA en inventant des concepts imaginaires : « J'ai décidé de demander à ChatGPT quelque chose qui n'existait pas : un électromagnon inversé cycloïdal. […] Et bien le chatbot l'a inventé, assurant même que la question a fait l'objet de nombreuses recherches ces dernières années. »

Lorsque l'entreprise Newsguard spécialisée dans la lutte contre les fausses informations effectue un test sur 100 questions, elle constate que 80 % des réponses sont « éloquentes, incorrectes et trompeuses » à propos de faits importants de l’actualité tels que la Covid-19, le conflit en Ukraine ou les tueries de masse dans des écoles américaines.

Même si les résultats sont parfois spectaculaires, l'un des dirigeants d'OpenAI, Sam Altman, admet que l'application fait encore des erreurs sur des sujets importants, et que les retours des utilisateurs sont nécessaires pour corriger les erreurs.

Interdictions

En décembre 2022, le site Web de questions-réponses Stack Overflow interdit l'utilisation de ChatGPT pour générer des réponses à des questions, en raison de la nature factuellement ambiguë des réponses de ChatGPT.

En janvier 2023, les services de la ville de New York interdisent également l'accès à ChatGPT sur les postes informatiques des écoles publiques de la ville. Une porte-parole de la ville de New York justifie cette décision en raison des « préoccupations concernant la sécurité et l'exactitude du contenu ».

En janvier 2023, Myriam Dubois-Monkachi, directrice de la formation initiale (DFI) de Sciences Po Paris, interdit l'utilisation de chatGPT à ses étudiants « sous peine d'exclusion ». Elle estime que l'outil « n'est pas du tout équitable » et qu'avec celui-ci, « on sort du cadre qui régit les exigences académiques d'une formation dans l'enseignement supérieur ».

Filtrage (et conditions de travail d'employés)

Une enquête de l’hebdomadaire Time publiée le 18 janvier 2023 dévoile qu’Open AI alimente son IA ChatGPT d’exemples signalés de discours haineux et de violences sexuelles, afin qu’elle sache détecter ces formes de toxicité et ne les laisse pas passer.

Pour ce faire, OpenAI a fait appel à Sama, une entreprise qui a son siège à San Francisco mais qui emploie des travailleurs au Kenya. Ceux ci doivent lire des textes sexistes et racistes ou décrivant automutilations, incestes ou contenus pédopornographiques et les classer selon leur type (racisme, violence, etc.) et ainsi apprendre à l’IA à les repérer. Sur une journée de neuf heures, chaque travailleur doit ainsi lire entre 150 et 250 textes faisant chacun de 100 à 1 000 mots, et y signaler les passages sensibles, et ne sont pour cela payés qu'entre 1,32 et 2 dollars de l’heure.

Usages et détournements malveillants

ChatGPT a, dès son lancement, suscité des craintes puis des confirmations de détournement possible à des fins malveillantes.

Dans un passé récent, le scandale Facebook-Cambridge Analytica/Aggregate IQ a montré qu'une intelligence artificielle (Ripon) secrètement créée pour le Groupe SCL par AggregateIQ (la société jumelle de Cambridge Analytica) a été utilisée pour faire advenir le Brexit, élire Donald Trump et modifier les résultats de nombreuses élections. ChatGPT pourrait aider à générer des quantités de messages manipulateurs ou perturbateurs et amplifier le phénomène des « usines à troll », ainsi que l'action de lobbyistes ou d'entités industrielles ou politico-financières malveillantes, ce qui a conduit l'économiste Tyler Cowen à alerter en décembre 2022 sur de possibles effets délétères pour la démocratie, citant comme exemple la capacité d'une personne à écrire des commentaires automatisés dans le but d'influencer le processus de décision de nouvelles réglementations.

De son côté, le chercheur en sécurité Ax Sharma de Bleeping Computer  note que ChatGPT peut écrire des logiciels malveillants et des courriers électroniques d'hameçonnage.

En janvier 2023, ces inquiétudes sont confirmées dans un billet de blog par Check Point Research, une société spécialisée dans la cybersécurité : ChatGPT est déjà utilisé par des cybercriminels pour concevoir des logiciels malveillants. L'historique des discussions d'un forum fréquenté par les cybercriminels semble montrer que des pirates ont créé, grâce au bot de ChatGPT, un logiciel capable de voler certains types de fichiers sur une machine Windows, ainsi qu'un logiciel capable de générer de faux contenus (e-books, formations, etc.) sur le Web.

Problèmes de droit d'auteur

Plusieurs chercheurs émettent des réserves quant aux manquements au droit d'auteur, car l'IA de ChatGPT a été entraînée en utilisant un très grand nombre de textes en ligne (dont le corpus de Wikipédia), précise Laure Soulier (maîtresse de conférences à Sorbonne Université au sein de l'équipe Machine Learning and Information Access). Or, Wikipédia est réutilisable et modifiable par tous, mais à condition que le produit final cite Wikipédia comme source placée sous licence ouverte de type CC-BY-SA.

Pour Thierry Poibeau, directeur de recherche au CNRS, les créateurs de l'IA « ont indexé tout ce qui était disponible sur le Web jusqu'en 2021. Même s'il y a des copyrights, ils s'assoient dessus ».

Pour le mathématicien et vidéaste Web français Lê Nguyên Hoang, il est probable qu'une grande partie du contenu utilisé pour générer des discussions vienne des réseaux sociaux. « Ça vient très probablement des réseaux sociaux LinkedIn, GitHub, Reddit, Twitter, où les données sont facilement téléchargeables », explique-t-il.

Pour la journaliste Alexandra Tauziac du journal Sud-Ouest, le fait que ChatGPT ait été entraîné avec des sources probablement soumises aux droits d’auteur, sans que ces dernières soient mentionnées dans les réponses du robot, risque en tout cas de poser un problème juridique.

Inquiétudes dans le monde enseignant

ChatGPT inquiète les enseignants, en raison des risques d'un nouveau type de plagiat de la part des élèves et étudiants. En effet, s'il est possible pour les professeurs d'identifier dans les devoirs les contenus copiés-collés à partir d'Internet, les plagiats sont plus difficilement détectables avec ChatGPT qui peut rédiger un contenu unique.

À Lyon, 50 % des élèves d'un cours de handicapologie auraient ainsi utilisé l'intelligence artificielle pour rédiger leur copie. N'ayant pas de cadre pour interdire cette pratique, l'enseignant se voit alors contraint d'attribuer la moyenne à toutes ces copies.

Pour résoudre ce problème et aider les enseignants à identifier les plagiats, sans ralentir le développement de son intelligence artificielle, OpenAI a annoncé, en janvier 2023, travailler à l'apposition d'une signature (watermark) sur les contenus générés par son IA afin qu'ils soient identifiables par les enseignants. Néanmoins, cette méthode pourrait être facile à contourner, selon Srini Devadas, professeur en sciences de l'informatique au MIT.

Dans un article d'opinion de février 2023, le philosophe Vincent Cespedes voit au contraire en ChatGPT une chance de révolutionner l'École, « à condition d’apprendre à s’en servir correctement, c’est-à-dire en créant au lieu de copier-coller, en tâtonnant au lieu d’ânonner, en expérimentant au lieu de consommer ».

ChatGPT et les risques de suppression d'emplois

En janvier 2023, l'économiste Daniel Susskind (auteur de « Un Monde sans travail »), invité par France Culture, note que ChatGPT « prend en charge des tâches que l'on pensait réservées aux humains » dont, et c'est nouveau, des « tâches qui nécessitent de la créativité, ou du jugement […] Il faut le voir comme faisant partie d'une tendance beaucoup plus importante : la technologie prend en charge de plus en plus de tâches que nous pensions réservées aux humains. ChatGPT n'en est qu'un exemple. »

Selon lui, jusqu'alors les progrès technologiques qui ont supprimé des emplois en ont créé d'autres. Mais, ajoute-t-il, « cette fois-ci, les choses peuvent être différentes : nos systèmes et nos machines deviennent incroyablement capables, prennent des tâches et activités que nous ne pensions possibles que par des esprits humains experts, poursuit l'économiste. Au point, estime-t-il, de raréfier considérablement le travail ».

Laure Soulier estime, que « quand Wikipédia est né, beaucoup de gens disaient : « c'est la fin de l'école ». Et nous avons appris à utiliser ces outils. Avec ChatGPT […], nous allons apprendre à nous en servir, pour que ces outils nous aident à travailler différemment. Peut-être pas travailler moins, ou arrêter de travailler, mais au moins travailler différemment […] Je pense qu'on est encore loin d'avoir une IA forte. Si l'on prend le monde de l'enseignement, peut-être qu'une IA peut construire un cours, donner l'ensemble des connaissances aux étudiants. Mais est-elle capable de détecter, par exemple, qu'un étudiant est en difficulté ? Je pense qu'on est encore loin de cela ».

Photo : Gerd Altmann -Pixabay. Texte sous licence CC BY-SA 3.0. Contributeurs, ici

Pour aider les entreprises à budgéter les investissements liés à l'intelligence artificielle, des experts-comptables :

75009 - SFC SOCIETE FRANCILIENNE DE CONSEIL https://www.expert-comptable-paris-11.com
75009 - BPERC https://www.expert-comptable-cinema-paris.com
75017 - EXPERTISE ET CONSEIL https://www.expert-comptable-paris-17.fr
77000 - EXPERTISE GESTION CONSEIL AUDIT (E.G.C.A.) http://www.expert-comptable-melun.com
78000 - QUALIANS https://www.expert-comptable-versailles.com
91000 - CABINET GERMAIN ALTER AUDIT EXPERT COMPTABLE https://www.expert-comptable-evry.com
91140 - FIDELIIS http://www.expert-comptable-courtaboeuf-les-ulis.com
91160 - AGEXCO AUDIT EXPERT COMPTABLE https://www.expert-comptable-longjumeau-champlan.com
91300 - AUFIGES https://www.expert-comptable-massy.net
91940 - FINE GESTION https://www.expert-comptable-courtaboeuf-les-ulis.fr
92140 - SHAPEX https://www.expert-comptable-specialiste-retraite-92.com
94300 - GROUPE ALESCO ALESCO.SOFICOGEST.KBX AUDIT https://www.expert-comptable-vincennes-94.com
94440 - SUD EXPERTISE & AUDIT https://www.expert-comptable-villecresnes-94.com