Je n’aime pas les clowns. Ils ne me font jamais rire et me rendent mal à l’aise. Il paraît que je ne suis pas le seul. La crainte des clowns est courante, bien documentée et porte même un nom scientifique : la coulrophobie. Pas cool, les clowns, si vous me pardonnez le mauvais jeu de mots.
Les explications de mon inconfort clownesque sont nombreuses. À cinq ans, j’ai vu un clown tomber raide mort dans une fête de quartier à Pointe-Calumet. Ce n’était pas un gag : crise cardiaque fatale, premiers soins inutiles, parents un peu paniqués qui rapaillent leurs enfants en vitesse et qui se dépêchent de quitter les lieux. Mais l’association clown-mort n’explique pas tout, même si elle est amplement nourrie par la culture populaire des clowns sinistres et menaçants. D’autres facteurs jouent sans doute un rôle.
J’ai fait mes recherches, comme on dit.
Il y a l’ambigüité, d’abord. Les clowns sont censés faire rire, mais quiconque s’en approche risque l’humiliation, un coup de pied au derrière ou l’entartage (si je suis un inconditionnel du Cirque du Soleil, je n’achète jamais de billets dans la première rangée). Ensuite, les clowns sont imprévisibles. Insondables. Le lourd maquillage empêche toute forme d’interaction sécuritaire parce qu’il rend inintelligibles les émotions et les intentions réelles. La psychologie laisse supposer que cette incertitude peut à juste titre être perçue comme un danger ou une menace. Une autre explication, enfin, que je trouve assez convaincante, est que les clowns ont une forme humaine marquée par la distorsion. Ils nous ressemblent beaucoup, mais il y a quelque chose qui cloche, et ce petit quelque chose place les clowns dans un espace intermédiaire (c’est la théorie de la « vallée de l’étrange » ou uncanny valley) qui est une source puissante de malaise. Le même malaise que je ressens devant un ventriloque et sa marionnette, une prothèse qui imite imparfaitement une main ou… un algorithme intelligent qui me répond comme un être humain.
Nous y voilà : le malaise devant l’intelligence artificielle [IA]. Depuis quelques mois, on en parle beaucoup et c’est tout comme pour les clowns. Un zeste d’anthropomorphisme, une pincée d’opacité, un gros bouquet garni d’imprévisibilité : il n’en faut pas plus pour nourrir une grande anxiété. Comme les clowns, l’IA a un côté lumineux et un côté sombre. Mais elle soulève des enjeux beaucoup plus sérieux que les arts circassiens : un potentiel extraordinaire au service du bien commun, certes, mais aussi le risque d’une menace incontrôlable pour la démocratie, pour la vérité, pour l’humanité. Et il semble bien que l’ambivalence qui s’installe soit fondée dans la mesure où elle est exprimée ouvertement par les plus grands experts de cette technologie.
L’intelligence artificielle couvre un très vaste territoire, du traitement de quantités colossales de données à la prise de décision par de puissants algorithmes qui animent des machines autonomes en passant par la production d’images, de sons et de textes qui imitent à s’y méprendre le langage et la créativité humaine. Mais ce sont surtout les agents conversationnels, tels que ChatGPT, qui ont retenu l’attention récemment. Ces robots de clavardage sont à la portée de n’importe quelle personne qui dispose d’un ordinateur et d’un accès à Internet. Ils sont d’un usage extrêmement convivial. Leur performance est parfois catastrophique, lorsque la machine erre ou délire avec aplomb, mais elle demeure époustouflante de rapidité et d’efficacité. Essentiellement gratuit, pour l’instant, l’usage qu’on peut en faire s’inscrit dans une foule d’activités de la vie quotidienne, y compris celle des enseignants, des apprenants et des chercheurs.
Les nouveaux agents conversationnels sont la première grande manifestation des retombées tous azimuts de l’intelligence artificielle, le premier véritable espace de conversation, à grande échelle, entre des humains et des machines intelligentes reconnues comme telles par leur interlocuteur en chair et en os. Les agents conversationnels transforment de manière irrémédiable le rapport entre les humains et le savoir – l’accès au savoir tout autant que la production du savoir – et peuvent même dénaturer le savoir lui-même. Ils altèrent par le fait même les conditions de transmission du savoir, au cœur de l’acte d’apprendre et d’enseigner.
Alors, enseignants et apprenants que nous sommes, que faire de ChatGPT et de ses compères à l’université? Voilà des semaines que je cherche un angle pour aborder cette question qui taraude maintenant tous ceux et celles qui enseignent. Les journées d’étude, colloques et autres tables de concertation sur le sujet s’enchaînent. Je n’ai toujours pas de réponses satisfaisantes à mes interrogations.
Si vous lisez assidûment ce blogue, vous savez qu’il m’arrive souvent de réfléchir à partir de mon expérience de vieux professeur. « À mon époque… », « Quand j’ai commencé ma carrière… », prof papi qui s’épanche. On entend presque le couinement de la chaise berçante. J’en ai connu moi, môssieur, des innovations qui allaient soi-disant changer le cours de l’histoire de l’enseignement : le passage de la craie au rétroprojecteur, « les internets », les ordinateurs portables en classe, les téléphones intelligents, Wikipédia, PowerPoint, les cours en ligne ouverts à tous, l’enseignement bimodal et j’en passe. On a beau dire que l’enseignement supérieur s’est toujours adapté à ces technologies nouvelles, aucune d’entre elles n’avait le pouvoir de se complexifier par elle-même. Aucune n’avait le même potentiel de nuire. L’adoption de l’IA en enseignement supérieur soulève des enjeux qui sont profondément, qualitativement différents.
Pour aborder l’IA en enseignement supérieur, il faut d’abord faire deux constats. Primo : nous ne pourrons pas faire abstraction de l’IA ni en écarter toutes les applications de nos établissements. L’intelligence artificielle est bien implantée. Secundo : il faut rapidement déterminer les usages bénéfiques de l’IA et les risques qu’elle comporte et diffuser cette information aussi largement que possible. À l’échelle individuelle, les professeurs et professeures n’ont ni le temps ni les ressources pour maîtriser toutes les conséquences de l’apparition de cette technologie dans l’environnement pédagogique. Collectivement, le partage des meilleures pratiques, des succès et des erreurs permettra de rassurer bien des anxieux et d’apprivoiser graduellement la bête. Mais il faudra inévitablement baliser l’espace dévolu à l’IA générative sur nos campus. Pour préserver son autonomie, la communauté universitaire porte la responsabilité première d’accorder ses valeurs de liberté avec le principe de précaution qui s’impose aujourd’hui.
À partir de là, on pourra distinguer trois aspects de l’enseignement universitaire qui sont touchés par l’émergence d’agents conversationnels de plus en plus puissants : l’évaluation des apprentissages, les outils pédagogiques (l’IA pour enseigner) et le contenu des cours (enseigner l’IA).
Le potentiel perturbateur des agents conversationnels se mesure d’abord sur le terrain de l’évaluation. On s’inquiète à juste titre que ChatGPT ou ses équivalents soient utilisés pour tricher. Les contenus produits par ces applications sont (ou seront bientôt) suffisamment exacts et cohérents pour être présentés impunément comme le fruit du travail personnel d’un étudiant. Le recours à l’assistance de l’IA pour rédiger une dissertation est déjà à peu près indétectable. Dans la foulée, plusieurs universités, dont l’Université de Montréal, ont adopté des règles qui qualifient de plagiat un tel usage s’il n’est pas explicitement autorisé. Dans les conversations en milieu universitaire, on définit déjà les pratiques d’évaluation qui permettent de réduire le risque que cela se produise : rédaction dans un environnement contrôlé en classe, examens oraux, dépôt de notes méthodologiques ou de versions préliminaires pour accompagner une dissertation finale, etc. Les solutions ne manquent pas, même si elles sont parfois lourdes et susceptibles d’exiger un peu de créativité de la part du corps enseignant et un peu de travail normatif du côté des administrations universitaires. Quant à moi, à l’instar de quelques observateurs, je demeure convaincu qu’il n’y a qu’une poignée de tricheurs dans notre population étudiante et que le risque de tricherie, toujours présent, est significativement diminué quand on parvient à convaincre les étudiants et les étudiantes que la valeur de leur diplôme se trouve dans l’apprentissage (écrire pour apprendre) plutôt que dans la note qui leur est attribuée (écrire pour être évalué).
Si j’enseignais encore, ce n’est donc pas sur l’effet de l’IA sur l’intégrité des examens ou des travaux que je m’interrogerais. Les questions les plus épineuses, pour moi, seraient épistémologiques. Elles tourneraient autour de l’usage opportun et sécuritaire qu’on peut faire des agents conversationnels comme outils pédagogiques, et plus encore sur ce qui devrait être ajouté (ou retranché) du contenu de mes cours pour tenir compte du potentiel de l’IA dans l’accès au savoir.
Ici, les enjeux sont nombreux, et pas seulement parce que la technologie évolue très vite. Si nous parvenons à surmonter les inquiétudes qui viennent de l’usage pédagogique d’applications qui sont élaborées de manière plus ou moins occulte par des acteurs privés, en dehors de l’infrastructure numérique universitaire, il faut encore établir aussi clairement que possible nos intentions pédagogiques. Exemples :
· L’atteinte d’une certaine littératie numérique, voire d'une citoyenneté numérique, qui permette à la population étudiante, toutes disciplines confondues, de garder une perspective critique par rapport aux productions de l’IA.
· La compréhension des biais inhérents liés aux données utilisées dans l’entraînement des algorithmes.
· L’acquisition des habiletés nécessaires pour formuler des requêtes qui permettent de tirer le meilleur parti des agents conversationnels et de limiter leurs hallucinations (#métierdufutur : l’ingénierie de requête – la prompt engineering).
· L’imagination requise pour mobiliser la puissance de cette ressource dans l’accélération et la mise à l’échelle des expérimentations scientifiques.
· La sagesse de désigner les problèmes auxquels nous serions le plus susceptible de trouver une solution éthique et responsable avec l’aide de l’IA.
Et d’autres objectifs que nous ne sommes pas encore en mesure de nommer, mais dont la pertinence se révélera à l’usage de ces premiers outils.
Pour chaque objectif, on peut imaginer un bon nombre de scénarios et d’exercices pédagogiques correspondants, qui commencent d’ailleurs à circuler sur les sites Web universitaires et dont on pourra s’inspirer. Toutes ces intentions pédagogiques ont leur place dans le cursus universitaire parce que ChatGPT n’est pas que la vedette de l’heure et l’IA n’est pas qu’une mode passagère, à l’université comme dans le reste de nos vies. Reste à voir quelles ressources nous pourrons raisonnablement y consacrer, individuellement et collectivement, dans un environnement qui est déjà pas mal exsangue…
Au-delà de ces considérations, l’émergence de l’IA dans la sphère universitaire impose aussi une réflexion institutionnelle et éthique. Veut-on vraiment faire appel à des agents conversationnels pour soutenir la réussite étudiante? configurer des auxiliaires d’enseignement virtuels et aider à la rétroaction? prévenir les problèmes de santé mentale? Veut-on prendre ou appuyer les décisions aux admissions avec l’assistance de l’IA? L’usage de l’IA en classe impose-t-il de nouvelles exigences en termes de taille des groupes-cours ou de nouveaux paramètres dans la configuration des salles et des horaires?
Tout cela donne un peu le vertige. Je propose d’absorber le changement de paradigme pédagogique à petites doses : se familiariser, comprendre, expérimenter, évaluer, recommencer. Ça vaut pour le personnel enseignant tout autant que pour la population étudiante.
Alors, répétez après moi : « Je n’ai pas peur de l’IA, je n’ai pas peur de l’IA, je n’ai pas peur de l’IA… mais l’IA sinistre et malveillante, ça existe!» C’est comme les clowns, au fond…
P.-S. ‒ Après la rédaction de ce billet, et par acquit de conscience, j’ai demandé à ChatGPT de rédiger une analogie entre la crainte de l’IA et la peur des clowns. Et savez-vous quoi? Mon texte est bien meilleur!
Daniel Jutras
Vous voulez poursuivre la discussion? Écrivez-moi.