SenseMaking
 



« L’élève a-t-il dépassé le maître ? » ou quand Chat GPT écrit son propre article


La Rédaction
Lundi 13 Mars 2023



Le 9 mars dernier, nous vous avons proposé dans l’article « Jouer au chat GPT derrière sa souris » : un jeu dangereux ? » quelques considérations sur les risques liés à l’emploi et à la généralisation de solutions d’intelligence artificielle dans le style de Chat GPT. Pour illustrer nos propos, nous nous sommes prêtés au jeu et avons demandé au logiciel de traiter le même sujet, par une suite de questions successives.



« L’intelligence artificielle à la manière de Vinci » réalisée par l’intelligence artificielle Dall-E, créée par OpenIA.
« L’intelligence artificielle à la manière de Vinci » réalisée par l’intelligence artificielle Dall-E, créée par OpenIA.
Première interrogation : « écris un article sur ce qu'est l'intelligence artificielle, et les dangers qu'elle représente ». Voici ce qu’a répondu Chat GPT :

« L'intelligence artificielle (IA) est une branche de l'informatique qui se concentre sur la création de systèmes informatiques qui sont capables de traiter des données et de prendre des décisions en imitant l'intelligence humaine. L'IA utilise des algorithmes, des réseaux de neurones[1] et des techniques de traitement du langage naturel pour traiter les données et fournir des résultats précis.
L'IA est de plus en plus utilisée dans de nombreux domaines, y compris la médecine, la finance, la logistique et même l'agriculture. Les avantages potentiels de l'IA sont énormes, mais elle présente également des dangers qui doivent être pris en compte.
L'un des dangers les plus importants de l'IA est le risque d'automatisation du travail. Les machines intelligentes peuvent remplacer les humains dans de nombreux emplois, ce qui pourrait entraîner un chômage massif et des perturbations économiques majeures. Bien que l'IA puisse également créer de nouveaux emplois, il est important de prendre des mesures pour éviter les perturbations économiques et sociales qui pourraient découler de la perte d'emplois due à l'automatisation.
Un autre danger potentiel de l'IA est le risque de biais et de discrimination. Les algorithmes d'IA peuvent être entraînés sur des ensembles de données qui reflètent les préjugés de leurs concepteurs, ce qui peut entraîner des résultats discriminatoires et injustes. Par exemple, un algorithme utilisé pour sélectionner des candidats pour un emploi peut discriminer[2] les candidats issus de minorités ethniques ou d'autres groupes marginalisés.
De plus, l'IA peut poser des problèmes éthiques complexes, notamment en matière de vie privée et de surveillance. Les systèmes d'IA peuvent collecter et analyser des données personnelles sans le consentement des individus concernés, ce qui peut violer leur vie privée. Les gouvernements et les entreprises peuvent également utiliser l'IA pour surveiller les individus de manière intrusive, ce qui peut menacer les libertés civiles.
Enfin, l'IA peut être utilisée à des fins malveillantes, notamment pour des attaques informatiques sophistiquées. Les cybercriminels peuvent utiliser des algorithmes d'IA pour développer des logiciels malveillants qui sont plus difficiles à détecter et à neutraliser que les logiciels traditionnels. Les gouvernements hostiles peuvent également utiliser l'IA pour mener des campagnes de désinformation sophistiquées ou pour développer des armes autonomes.
Il est clair que l'IA présente des dangers potentiels qui doivent être pris en compte par les gouvernements, les entreprises et les citoyens. Pour éviter ces dangers, il est essentiel de développer des réglementations et des normes éthiques pour l'utilisation de l'IA, ainsi que de mener des recherches pour comprendre les impacts de l'IA sur la société et l'économie. En fin de compte, l'IA peut être une force positive pour la société si elle est utilisée de manière responsable et éthique. »

ChatGPT n’ayant pas couvert toute la thématique que notre intelligence humaine avait traitée, nous avons émis des interrogations complémentaires. Parmi les menaces majeures de l’IA figure le plagiat. Voici que ce que répond le ChatBot à la question « Si Chat GPT fait un exercice à ma place, est-ce du plagiat ? »

« Demander à ChatGPT de faire un exercice à votre place n'est pas techniquement considéré comme du plagiat, car ChatGPT est un programme informatique qui utilise une intelligence artificielle pour générer des réponses basées sur les informations qu'il a apprises à partir de ses données d'entraînement.
Cependant, cela ne serait pas considéré comme une bonne pratique académique, car cela ne vous aiderait pas à apprendre le sujet en question. Les exercices sont souvent utilisés pour renforcer la compréhension et la maîtrise d'un sujet, donc en demandant à ChatGPT de faire l'exercice pour vous, vous pourriez manquer une opportunité d'apprentissage importante.
De plus, si vous soumettez les réponses fournies par ChatGPT comme votre propre travail, cela pourrait être considéré comme de la fraude académique, ce qui est généralement punissable par les règles et les codes d'éthique de votre établissement scolaire ou universitaire. »

À la suite de cela, nous avons interrogé Chat GPT sur les menaces qu’il pouvait représenter vis-à-vis du système éducatif :

« L'intelligence artificielle (IA) présente des avantages potentiels pour le système éducatif, tels que la personnalisation de l'apprentissage, l'analyse des données pour identifier les lacunes dans la compréhension des élèves et l'automatisation de certaines tâches administratives. Cependant, elle peut également présenter certaines menaces, notamment :
  • La substitution de l'enseignant : L'utilisation croissante de l'IA dans l'éducation peut conduire à une substitution des enseignants, ce qui pourrait entraîner une perte de l'interaction humaine et de la motivation des élèves.
  • La réduction de la créativité : L'IA peut être utile pour résoudre des problèmes spécifiques, mais elle peut également limiter la créativité et l'imagination des élèves, qui sont des compétences importantes pour le développement cognitif et émotionnel.
  • La propagation de biais : Les algorithmes utilisés dans l'IA peuvent être biaisés en fonction des données utilisées pour les former. Si ces données sont biaisées, les résultats de l'IA peuvent être également biaisés, ce qui peut conduire à des décisions injustes et discriminatoires dans le système éducatif.
  • L'augmentation de l'inégalité : Si les établissements scolaires les plus riches et les plus équipés sont les seuls à pouvoir se permettre d'adopter des technologies d'IA avancées, cela pourrait creuser l'écart entre les écoles riches et pauvres et accroître les inégalités dans le système éducatif.
En résumé, l'IA peut avoir des implications importantes pour le système éducatif, et il est important de les examiner de manière critique et proactive pour minimiser les menaces et maximiser les avantages. »
 

Enfin, il nous a semblé pertinent de questionner le logiciel pour savoir si avoir recours à l’intelligence artificielle était une limite intellectuelle. Voici sa réponse :

« Non, avoir recours à l'intelligence artificielle (IA) n'est pas une limite intellectuelle, mais plutôt un outil pour améliorer les capacités intellectuelles. L'IA peut être utilisée pour automatiser des tâches répétitives et fastidieuses, ce qui permet de gagner du temps et de se concentrer sur des tâches plus complexes et créatives. Elle peut également aider à analyser et à interpréter de grandes quantités de données, ce qui peut aider à prendre des décisions plus éclairées et à améliorer la précision de certains processus.
Cependant, il est important de noter que l'utilisation de l'IA doit être guidée par une réflexion éthique et responsable. Les décisions prises à l'aide de l'IA doivent être examinées de manière critique et évaluées en termes d'impact sur les individus et la société dans son ensemble. De plus, il est important de ne pas dépendre exclusivement de l'IA, mais de combiner les capacités de l'IA avec celles de l'humain pour obtenir les meilleurs résultats possibles. »
En guise de conclusion temporaire
Chat GPT, et l’IA de manière plus générale sont programmés pour répondre à une demande, s’appuyant sur des données qu’ils ont stockées et qui sont par la suite rediffusées. C’est pour cette raison que les réponses fournies par le ChatBot sont, ou du moins semblent, honnêtes vis-à-vis des menaces que représente l’IA. Néanmoins, le travail réalisé par le logiciel est déconcertant. En quelques secondes seulement, il satisfait une demande. L’article rédigé par Chat GPT sur l’IA et les menaces qui s’y rapportent a nécessité moins d’une minute pour être créé. Bien qu’il n’y ait pas de réflexion ni de style personnels, les informations trouvées par le logiciel apportent sur le fond les mêmes réponses que celles que nous avions repérées dans notre travail de recherche. De quoi s’inquiéter…
 

[1] Selon Chat GPT, un « réseau de neurones » est « un modèle mathématique inspiré du fonctionnement du cerveau humain. Il est utilisé pour résoudre des problèmes complexes de classification, de prédiction, de reconnaissance de formes, d'analyse de données, etc. »
 
[2] Ou avantager ceux qui n’auraient pas eu la capacité d’être recrutés en passant un entretien. Le traitement parfois aléatoire de données recueillies dans l’algorithme peut être favorable à certains individus.










Les articles les plus lus


Inscription à la newsletter
Facebook
Twitter
YouTube