This website requires JavaScript.

Numérique Ethique vous est utile (ou pas) ? Dites-nous tout en 5 minutes ici

Futur connecté
Usages numériques
Article

ChatGPT va-t-il faire les devoirs de nos enfants ?

07.03.2023

ChatGPT, l’intelligence artificielle conversationnelle développée par OpenAI, défraye la chronique depuis plusieurs mois maintenant. Révolution numérique, multiplicité d’usages, avancée technologique… Les opportunités sont nombreuses, y compris les moins vertueuses. La presse a mis en lumière en début d’année une promotion d’étudiants de l’université de Lyon dont la moitié avait utilisé ChatGPT pour faire leur devoir maison. La supercherie aurait pu fonctionner si tous n’avaient pas rendu des copies similaires…

Nous avons ainsi souhaité tester l’outil en lui soumettant un sujet bien précis : rédiger un plan de dissertation sur la place de l’intelligence artificielle dans le monde contemporain. Voici ce que l’outil d’OpenAI nous a proposé :


Introduction :

  • Définition de l’intelligence artificielle (IA)
  • Importance croissante de l’IA dans le monde contemporain
  • Annonce du plan de la dissertation

I. Les bénéfices de l’IA dans le monde contemporain :

  • L’IA dans l’industrie : augmentation de l’efficacité et de la production
  • L’IA dans la santé : avancées médicales et diagnostics précis
  • L’IA dans les transports : amélioration de la sécurité et de la fluidité du trafic

II. Les limites de l’IA dans le monde contemporain :

  • Le risque de remplacement de l’homme par la machine dans certains domaines d’activité
  • Les limites éthiques de l’IA : prise en compte de la vie privée et de la protection des données
  • Les risques de dérives de l’IA : développement de la surveillance et de la manipulation

III. Les enjeux de l’IA dans le monde contemporain :

  • Les opportunités de développement économique et social liées à l’IA
  • Les questions de régulation et de contrôle de l’IA pour éviter les dérives
  • La nécessité de former les acteurs de la société à l’utilisation de l’IA pour en faire bénéficier le plus grand nombre

Conclusion :

  • Synthèse des arguments développés dans les parties précédentes
  • Affirmation que l’IA est un enjeu majeur du monde contemporain
  • Appel à une utilisation raisonnée et réfléchie de l’IA pour en maximiser les bénéfices et minimiser les risques.

Bluffant ? Oui. Dans l’ensemble, le plan proposé pour une dissertation sur la place de l’intelligence artificielle dans le monde contemporain est bien structuré et présente une analyse assez complète des différents enjeux liés à l’IA. Cependant, quelques éléments peuvent-être améliorés. Et si ChatGPT est capable de nous proposer un plan thématique, peut-être peut-il nous donner son avis sur sa propre production ? Nous lui avons bien entendu posé la question ! Voici son auto-critique :

Tout d’abord, la première partie du plan aborde les bénéfices de l’IA dans le monde contemporain, mais ne présente pas suffisamment les différents domaines d’application de l’IA. Il pourrait être intéressant d’ajouter des sous-parties qui abordent plus en détail les applications de l’IA dans les domaines de l’énergie, de l’agriculture, de l’environnement, etc.
Ensuite, la deuxième partie du plan aborde les limites de l’IA, mais elle pourrait être plus nuancée. Il serait important de rappeler que l’IA peut être bénéfique dans certains cas, mais qu’elle peut aussi poser des risques pour la société et pour les individus. De plus, il serait intéressant d’approfondir la question de la responsabilité de l’IA et de ses créateurs en cas de dérives.
Enfin, la troisième partie du plan aborde les enjeux de l’IA, mais elle pourrait être plus concrète. Il serait important de présenter des exemples concrets de politiques et de régulations en place ou en projet pour encadrer l’utilisation de l’IA, ainsi que des initiatives pour former les acteurs de la société à l’IA.
En conclusion, bien que le plan proposé soit bien structuré et complet, il pourrait être amélioré en ajoutant plus de détails et de nuances dans les différentes parties. En effet, la question de l’IA est complexe et il est important de prendre en compte les différentes dimensions du sujet pour en faire une analyse pertinente et approfondie.

Le constat est le suivant : si ChatGPT peut avoir l’air d’un bon élève, il fait aussi un excellent juge de son propre travail. Alors ChatGPT va-t-il faire les devoirs de nos enfants à leur place ? Mieux, va-t-il pouvoir les corriger ? Voici un petit tour d’horizon non exhaustif des enjeux actuels de l’intelligence artificielle dans le monde de l’éducation en ce début d’année.

ChatGPT, de quoi parle-t-on ?

ChatGPT est une intelligence artificielle qui appartient à la famille des IA génératives. Elle s’appuie sur un réseau de neurones artificiels organisés autour d’une base de données qui compile des informations pour élaborer des réponses construites à des requêtes en imitant la plume humaine. C’est le Deep Neuronal Network.

Finalement, nous avons face à nous, un robot capable d’interagir avec les humains, dans notre propre langage. Les IA peuvent entretenir une conversation en rebondissant sur vos messages précédents et sur l’ensemble de vos réponses.

Rappelons que si cette technologie semble aussi innovante, c’est parce qu’elle alimente un fantasme sur l’entrée dans une nouvelle ère du numérique, une révolution en cours sous nos yeux. Mais, en y regardant de plus près, ChatGPT n’est ni unique ni vraiment révolutionnaire.

Les IA font partie de notre quotidien depuis longtemps. Nous les utilisons tous les jours, la plupart du temps sans même nous en rendre compte. Lorsque vous faites une recherche sur Google ou Bing, quand vous cherchez un film ou une série sur Netflix, ou bien encore quand vous échangez avec un assistant virtuel intelligent comme Alexa, Siri ou Google Assistant…

Yann Le Cun, inventeur du concept d’apprentissage profond (Deep Learning) et spécialiste de l’intelligence artificielle s’est exprimé à ce sujet :

ChatGPT n’est peut-être pas une révolution technologique, mais c’est une révolution d’usage.

Si l’on utilise les IA quotidiennement, ChatGPT est la première à revendiquer un usage vraiment grand public, et c’est à ce titre qu’elle semble plus révolutionnaire que ses cousines.

Pourquoi la vague ChatGPT inquiète la communauté éducative ?

Quelle ne fut pas la surprise générale lorsque la presse titrait que la moitié d’une promotion d’étudiants avait triché pour un devoir en utilisant ChatGPT. Désemparé, l’enseignant a tout de même noté le devoir et accordé la note de 11,75 [à l’intelligence artificielle].

Il aura fallu très peu de temps pour que les étudiants comprennent le potentiel de cet outil. Mais faut-il paniquer ? Finalement, quelle a été la réaction de la communauté éducative à la naissance d’internet ou de Wikipedia ? Nos étudiants seraient-ils devenus médiocres et de vils tricheurs ? Pas vraiment. Alors pourquoi s’intéresser à ChatGPT ?

Le risque de triche

Avec leurs très bonnes capacités de rédaction, ChatGPT et les outils d’intelligence artificielle sont un terrain fertile pour les moins consciencieux d’entre nous. À ce titre et face au risque que les élèves et étudiants s’en remettent entièrement à ces technologies pour leurs productions écrites, la communauté éducative s’interroge.

Certaines universités en France, et même aux Etats-Unis ont tout simplement interdit l’utilisation de ChatGPT à leurs étudiants. Il convient cependant de modérer ces inquiétudes. Si la naissance de Wikipédia et du web en général a provoqué une inquiétude similaire en leur temps, l’intelligence artificielle ne devrait, au final, pas bousculer davantage le paysage scolaire et universitaire.

Des outils existent d’ores et déjà pour détecter l’intervention de ChatGPT dans un texte. Par ailleurs, dans les conditions d’examen actuelles, les tentatives de triche nécessitant le recours à un appareil numérique semblent peu probables. Si, il y a 20 ans, tous nos élèves ne sont pas devenus des tricheurs, ils ont su s’approprier les outils numériques pour gagner en performance et en faire une ressource pertinente.

Avec la bonne approche et en étant accompagnés et formés à utiliser ces technologies à bon escient, parions sur le fait qu’ils sauront faire de même avec l’intelligence artificielle.

La désinformation et les risques de plagiat

Le deuxième risque pourrait être celui de la désinformation. Comme évoqué précédemment, non seulement ChatGPT n’hésite pas à mentir, mais il peut aussi rendre particulièrement crédible une fausse information. Ajoutez à cela une image créée de toute pièce par une IA pour accréditer la thèse et vous obtenez la recette idéale d’une fake news.

Le problème ? La perception sociale de l’intelligence artificielle. Nous avons tendance à y voir un outil neutre et factuel, nourri par une information supposée illimitée. Elle bénéficie donc d’une image positive, associée au progrès et semble, à première vue, extrêmement fiable. Alors si l’intelligence artificielle le dit, c’est sans doute vrai, n’est-ce pas ?

La difficulté réside dans le manque de recul et de sensibilité du public sur le fonctionnement et les limites de ce type d’IA. Au fil des ans, l’intelligence artificielle est passée d’un objet de science-fiction à notre réalité quotidienne. Sauf que le traitement de l’IA dans le cinéma reste encore plutôt éloigné de son stade de développement actuel, chose que les usagers ont encore du mal à percevoir.

Face à ce constat, quels mécanismes utiliser pour garantir la véracité d’une information délivrée par une IA telle que ChatGPT ? Comment former les publics et notamment les plus jeunes à ces enjeux ?

L’arrivée de l’IA dans le paysage pose la question de l’identification des sources dans le milieu scolaire et de la recherche. En effet, en faisant appel à l’IA pour structurer un devoir ou même le rédiger, ChatGPT peut mobiliser des informations sans proposer les sources associées ou pire, relayer des informations obsolètes ou bien encore citer de mauvaises sources.

Le plus important finalement, comme pour toute information qui nous intéresse, c’est de fact checker. Plusieurs solutions s’offrent à vous. Le croisement des sources reste la méthode la plus fiable pour vous forger une opinion. Une autre piste pourrait-être d’interroger ChatGPT sur une source : il est d’ailleurs assez surprenant de constater qu’en la matière, l’IA a de nombreuses choses à dire. Si ChatGPT peut-être une arme redoutable au service des fausses informations, elle est aussi une très bonne défense.

Et pour en apprendre davantage, Numérique Ethique vous propose un parcours pour apprendre à lutter contre les fausses informations !

Usages numériques
Risque et sécurité
Parcours

Comment lutter contre les fake news et adopter de bonnes pratiques ?

60min
11.10.2020
parcours-fake-news.png

Les risques cyber

Les craintes liées à la cybersécurité sont fondées. Quelques semaines après la sortie de ChatGPT, les hackers et pirates informatiques se sont approprié l’outil à des fins malveillantes, ou simplement pour en tester les limites.

Si certains ont réussi à convaincre ChatGPT de contourner ses propres règles de censure en lui faisant croire qu’elle allait mourir, d’autres s’en servent comme d’un outil au service du cybercrime. Créer des campagnes de phishing crédibles dans une langue étrangère, coder des malwares complexes et plus difficiles à déceler… Voici un panorama non exhaustif des usages malveillants potentiels de ce logiciel.

Si les particuliers doivent garder ce risque à l’esprit pour s’en protéger, les institutions, de plus en plus touchées par des cyberattaques, doivent également redoubler de vigilance. Et si l’IA était utilisée pour mettre au point des attaques informatiques destinées à voler les données d’une institution, violer le secret professionnel ou encore s’approprier des travaux de recherche ou encore des brevets ? Ces considérations doivent nous pousser à nous interroger sur les moyens de garantir la propriété intellectuelle.

Enfin, ces outils numériques stockent l’ensemble des données et documents liés à vos requêtes et les mettent à disposition d’une entreprise privée américaine : OpenAI. On ignore toujours dans quelle mesure ChatGPT peut utiliser ces ressources lors de conversations avec d’autres utilisateurs, ou être exploitées par ses propriétés à toute autre fin d’ailleurs.

Quelles sont nos armes de défense face à ces risques ?

Les institutions

S’il est bien un organe compétent et légitime pour identifier les risques et agir pour réguler le secteur du numérique au service de l’intérêt général, c’est l’Etat.

Les pouvoirs publics doivent embrasser l’arrivée de l’Intelligence artificielle et mettre en place des politiques pour garantir la sécurité des données et réguler les usages abusifs et nuisibles de l’IA. Identifier les attaques informatiques créées par des IA, créer des protocoles pour les prévenir et proposer des outils pour déceler les mauvais usages des IA génératives sont des domaines que les pouvoirs publics vont devoir investir rapidement, dans une discipline qui évolue elle-même très vite.

C’est d’ailleurs déjà le cas de la Commission Nationale Informatique et Libertés (CNIL) qui s’est dotée d’une cellule spécialisée dans l’étude du fonctionnement de l’intelligence artificielle. Elle pourra ainsi mieux identifier les risques et les opportunités liés à ces outils.

Les outils numériques

Produits par des utilisateurs ou par les sociétés mères des intelligences artificielles, il existe des outils numériques capables d’identifier les textes ou images produits par les IA. Ils sont déjà disponibles et accessibles au plus grand nombre.

Dans le cas de ChatGPT, l’outil le plus fiable est celui de la société OpenAI : AI Text Classifier. En cas de doute, passez des extraits de texte au crible ! À noter que ces outils ne sont, pour la plupart, pas encore totalement fiables, ils sont d’ailleurs pour certains déjà obsolètes en raison de la vitesse d’évolution de ChatGPT (c’est le cas de Detech GPT). L’outil développé par OpenAI reste toutefois le plus performant grâce à l’ajout d’une clef de chiffrage dans les productions de ChatGPT.

AI Text Classifier devrait évoluer dans les prochains mois pour devenir plus performant pour permettre notamment d’analyser des textes de plus en plus longs. Et si finalement le meilleur outil pour prévenir les risques liés à l’IA, c’était l’IA elle-même ? Au-delà de la détection des textes générés par ChatGPT, elle pourrait être la solution pour développer des outils numériques destinés à lutter contre la cybercriminalité ou encore le plagiat…à condition bien sûr que ces outils restent librement accessibles.

Des usages raisonnés

Pour identifier et prévenir les risques liés à l’usage de ces outils technologiques, la meilleure méthode reste la formation et l’éducation. Il est d’ores et déjà primordial de sensibiliser tous les publics, scolaires, professionnels ou citoyens, à la bonne utilisation de ChatGPT et des IA en général.

Protéger ses données et ne pas révéler son identité sur ChatGPT pour prévenir la circulation de ces informations, recourir à l’IA conversationnelle pour enrichir et confronter ses propres productions, comprendre les limites de ces outils et rationaliser leur perception pour prévenir le plagiat… Voici une liste non exhaustive desujets qui devraient nous occuper tout prochainement.

Un apprentissage dès l’école pour embrasser le progrès

Au même titre que le codage informatique fait aujourd’hui partie des programmes scolaires, l’ONU recommande d’intégrer les grands enjeux et l’usage de l’intelligence artificielle dans les programmes scolaires.

Elle suggère une approche en trois axes :

  1. l’intégration de l’IA dans les outils d’apprentissages
  2. une approche sur les principes éthiques de l’IA
  3. un cadre d’orientation sur les compétences en IA pour les élèves.

Une approche globale de l’intelligence artificielle au service de l’apprentissage et des savoirs de demain. Cette base devrait permettre au plus grand nombre d’être à minima sensibilisé au fonctionnement et aux risques de l’intelligence artificielle.

Le mot de la fin…?

Finalement, après l’émulation liée à l’arrivée de ChatGPT dans nos vies quotidiennes, nous découvrons progressivement ses limites, ses opportunités et ses risques. Les acteurs étatiques, institutionnels, la société civile… Tous devront se saisir de ces enjeux pour s’approprier ces outils et les mettre au service d’une société du progrès. Promis, tout cela, c’est nous qui l’avons écrit !

Pour aller plus loin :

Futur connecté
Article

Intelligence artificielle : histoire et prospectives

07.07.2022
Retour