Mettre les outils à l’épreuve
L’IA générative (IAg) occupe une place importante dans l’enseignement et l’apprentissage des langues. Pour explorer ses possibilités et ses limites, j’ai choisi six outils d’IA auxquels j’avais accès :
- Perplexity
- Canva AI
- Mistral
- NotebookLM
- ChatGPT
- Copilot
J’ai testé six requêtes :
- Résumé de texte
- Création d’un plan
- Explication d’un terme (IAg) avec un exemple concret
- Écriture créative pour une personne apprenante niveau A2/B1
- Création d’images
- Création d’une présentation (PPT)
Puisque j’avais accès à certains outils payant, celui-ci s’est montré efficace pour certaines tâches.
Lors de la première requête (résumé de texte), il a bien résumé le contenu et proposé des suggestions pour aller plus loin. Pour la création d’un plan, la réponse était concise et incluait des termes clés, mais sans fournir de sources. L’un des points forts de cet outil est évident dans sa capacité à offrir une explication bien définie de l’IAg, accompagnée de sources valides. Pour la création d’une histoire adaptée aux niveaux A2/B1, le texte était simple et court, convenant aux deux niveaux, mais il aurait été préférable de séparer les contenus pour chaque niveau, ce qui aurait nécessité une précision dans la requête. Concernant la génération d’images, c’est là où j’étais assez coincée. Il fallait modifier ma requête à plusieurs occasions afin que l’outil puisse créer plus qu’une image pour les deux descriptions (au lieu de les combiner). Avec plus de précision et de clarification ainsi que la séparation des requêtes en deux, chaque image était plus réaliste et mieux adaptée. Enfin, pour la présentation, l’information fournie était simple, sans références et la séparation entre les langues manquait de clarté.
Pour moi, le plus grand avantage de cet outil a été la clarté avec laquelle il a expliqué la terminologie, en l’accompagnant de sources valides, ce qui s’est vraiment démarqué pendant mon test.
Le prochain outil est utile sans IA, surtout pour la préparation de présentations intéractives y compris un éventail d’images. Je voulais savoir ce que la version avec l’IA pouvait faire que la version de base ne pouvait pas.
Malheureusement, commencer avec la première requête s’est avéré problématique. Il n’a pas pu être complété en raison d’une limite de mots de 4000 (alors que l’article que j’avais choisi atteignait environ 4200 mots). Le système me donne la possibilité d’ajouter des images, des documents, du code ou des clips vidéo (uniquement dans la version payante), mais pas des liens ni des textes longs dans la requête. Cela a limité ce que je pouvais faire pour cette première comparaison. Pour la deuxième requête, la réponse ressemblait à celle de Perplexity, mais avec des questions plutôt que des points clés, et une intégration bilingue intéressante. L’explication simple était correcte, mais sans sources. La création d’une histoire a donné un texte et un dialogue faciles à suivre et à incorporer pour les niveaux proposés. Pour les images, Canva AI a généré une série d’images combinées, sans distinction claire entre les deux descriptions. Suite à une clarification et changement de la requête, l’image 1 était meilleure que celle de Perplexity, et l’image 2 encore plus spécifique, bien que certains détails comme la diversité des personnages soient perfectibles. Pour la présentation, Canva AI n’a pas été très utile avec la requête seule. Cependant, lorsque j’ai utilisé l’application et sélectionné un modèle de conception, le résultat final du document était très coloré et visuel, avec des informations simplifiées et des éléments graphiques qui clarifiaient les points clés.
Je vois la valeur de l’utiliser pour la conception de présentations et la création d’images, mais j’aurais tendance à utiliser d’autres outils pour des conversations, des analyses et des travaux liés à l’écriture et la rédaction des textes.
Cet outil a pu répondu correctement à la première requête sans ajouter d’éléments supplémentaires. Pour la deuxième, il a séparé les deux langues et ajouté une section pour les références, ce qui n’était pas le cas avec Perplexity (ou même possible avec Canva AI). L’information était plus détaillée. L’explication simple était similaire à celle de Canva, sans sources. Pour la création d’une histoire, le format était un paragraphe plutôt qu’un dialogue, ce qui rendait difficile l’identification des interlocuteurs et interlocutrices.
Je n’ai pas pu compléter les prochaines requêtes à cause de ces limites pour la génération d’images et la création d’une présentation. J’étais simplement curieuse de voir comment Mistral fonctionne, mais il est peu probable que je l’utilise ou l’incorpore dans l’enseignement.
J’avais vraiment hâte d’intégrer cet outil dans ma pratique pédagogique pour créer des vidéos sous forme de balados qui résumeraient certains contenus du cours, y compris le plan de cours, de manière dynamique et moderne afin de capter l’intérêt de nos étudiant.e.s. J’ai décidé de le tester en parallèle avec ces autres outils pour voir ce qu’il pouvait faire. Il a beaucoup de potentiel que je n’ai pas encore exploré, mais voici un bref aperçu de son fonctionnement.
Pour la première requête, l’outil a commencé par demander un lien ou des documents avant que je puisse continuer. Ensuite, j’ai pu ajouter ma requête, mais pas le texte complet en raison d’une limite de mots. Pour contourner ce problème, j’en ai inclus une avec une question de traduction. On m’a ensuite proposé une série de questions de suivi dans le clavardage, où je pouvais insérer les miennes — par exemple, affiner le résumé ou demander des détails supplémentaires. Cette approche a rendu le processus plus interactif, mais elle a nécessité des étapes supplémentaires par rapport aux autres outils.
Les deux prochaines requêtes ont nécessité l’ajout de sources externes pour bien fonctionner. Les réponses étaient très détaillées grâce au matériel fourni, mais il n’y avait pas de section de références. Pour les requêtes créatives et visuelles (#4 à #6), l’outil n’a pas pu compléter les tâches sans matériel supplémentaire. Puisque je voulais suivre le même format de comparaison entre les outils, je ne suis pas allée plus loin avec cet outil.
J’ai tout de même hâte de voir ce qui arrive lorsque je télécharge un plan de cours et demande à l’outil de préparer une vidéo pour mes apprenant.e.s. Information à suivre !!!
Je n’ai pas tendance à utiliser des outils que tout le monde préfère comme ChatGPT (même si j’utilise Copilot puisqu’il est approuvé par mon institution et me donne un sentiment de sécurité quant aux données fournies et partagées avec l’outil). Pourtant, je voulais quand même l’ajouter à la liste de comparaison, sachant qu’il pouvait facilement compléter et répondre à ces six requêtes. Il faut garder en tête que j’utilisais une version gratuite et qu’une version payante (y compris celle au sein de notre institution) peuvent offrir de meilleures réponses.
L’outil a bien résumé le texte pour la première requête et proposé des suggestions pour la suite. Le plan était similaire à ceux de Perplexity et Canva AI, sans références. L’explication du terme était correcte, mais comme on le voit avec la plupart des outils, il y a rarement des sources incluses lors de la définition ou l’explication des termes, sauf si on le précise. Pour la création d’une histoire, c’était étonnamment le seul outil à ne pas utiliser les noms SOPHIE et MARC (des noms que je n’avais pas ajoutés ni demandés dans la requête, mais que la plupart des autres outils ont inclus sans savoir que je les comparais), et il a proposé un dialogue avec un vocabulaire plus riche, ce qui est intéressant. Pour la génération d’images, il a créé une seule image par requête, avec des termes clairs, mais le processus était lent. Les images obtenues étaient presque identiques à celles générées par Copilot. Pour la présentation, le résultat était basique, en noir et blanc, sans images, et peu utile pour un usage pédagogique.
Enfin, ce dernier outil a bien résumé le texte et proposé des suggestions pour la première requête. Pour le plan, la réponse était très concise, avec moins de sections que les autres (y compris ChatGPT), ce qui peut être utile comme point de départ mais insuffisant pour un plan complet. L’explication de l’IA était similaire aux autres outils, sans sources. La création d’une histoire a suivi un format proche de celui de ChatGPT. Pour les images, Copilot a généré deux visuels séparés, avec des termes clairs et compréhensibles, mais dans la deuxième image, les apprenant.e.s semblaient ne pas prêter attention à la professeure ou au tableau, ce qui est un détail étrange et qu’on ne devrait pas avoir besoin de précision. Pour la présentation, Copilot a été le plus performant : il a d’abord vérifié mes attentes avant de créer le contenu, puis a généré une présentation claire et développée, en mentionnant les sources sans le lui demandé.
Alors qu’est-ce que j’essaie de vous dire …
c’est que chaque outil a des forces et des limites et les déterminer commence par les tester côte à côte en utilisant le même prompt et pour différents types de productions que nous recherchons (qu’il s’agisse de texte, d’audio, de code et plus encore). Pour des tâches textuelles simples comme le résumé ou l’explication, Perplexity Pro, ChatGPT et Copilot sont efficaces. Pour la création visuelle, Canva AI se démarque, suivi de Copilot. Mistral AI et NotebookLM sont utiles pour des tâches analytiques ou basées sur des sources, mais limitées en créativité et en visuels.
Putting the Tools to the Test
Generative AI (GenAI) plays an important role in language teaching and learning. To explore its possibilities and limitations, I chose six AI tools that I had access to:
- Perplexity
- Canva AI
- Mistral
- NotebookLM
- ChatGPT
- Copilot
I tested six prompts :
- Text summarization
- Outline creation
- Explanation of a term (GenAI) with a concrete example
- Creative writing for an A2/B1 learner
- Image creation
- Presentation creation (PPT)
Since I had access to some paid tools, this one proved effective for certain tasks.
For the first prompt (text summarization), it summarized the content well and offered suggestions for next steps. For the outline, the response was concise and included key terms but lacked sources. One of this tool’s strengths is evident in its ability to provide a well-defined explanation of generative AI, accompanied by valid sources. For the story creation task, the text was simple and suitable for A2/B1 learners, but it would have been better to separate the levels, which would require specifying this in the prompt. Regarding image generation, this is where I felt quite stuck. I had to modify my request several times so that the tool could create more than one image for the two descriptions (instead of combining them). With more precision and clarification, as well as by splitting the requests into two, each image became more realistic and better suited. Finally, for the presentation, the information was basic, without references, and the language separation was unclear.
For me, the biggest advantage of this tool was how clearly it explained the terminology and even backed it up with valid sources, which really stood out during my testing.
The next tool is useful even without AI, especially for preparing interactive presentations including a range of images. I wanted to see what the AI-powered version could do that the basic version could not.
Unfortunately, starting with the first prompt proved problematic. It could not be completed due to a word limit of 4000 (whereas the article I chose went up to approximately 4200 words). The system does give me the option to add images, documents, codes or video clips (only the paid version does), but not links or long texts into the prompt. That limited what I could do for this first comparison. For the second prompt, the response was similar to Perplexity but used questions instead of bullet points, with an interesting bilingual integration. The simple explanation was correct but lacked sources. The story creation produced a good text and dialogue that was easy to follow and incorporate pour the proposed levels. Canva AI generated a series of combined images, without a clear distinction between the two descriptions. After clarification and changing the request, Image 1 was better than Perplexity’s, and Image 2 even more specific, although some details such as character diversity could still be improved. For the presentation, Canva AI was not very helpful with the prompt alone. However, when I used the app and selected a template design, the final result of the document was very colouful and visual, with simplified information and graphics that clarified key points.
I see the value of using it for presentation design and image creation, but I would tend to use other tools for conversations, analysis, and tasks related to writing and text composition.
This tool was able to correctly repond to the first prompt correctly without adding extra elements. For the second, it separated the languages and added a reference section, which was not the case with Perplexity (or even possible with Canva AI). The information was more detailed. The simple explanation was similar to Canva’s, without sources. For the story, the format was a paragraph rather than a dialogue, making it hard to identify speakers.
I couldn’t complete the next requests because of these limitations for image generation and presentation creation. I was simply curious to see how Mistral works, but I’m unlikely to use it or incorporate it into teaching.
I was really looking forward to implementing this tool in my teaching practice to create videos in the form of podcasts that would summarize certain course contents, including the syllabus, in a dynamic, modern way that would appeal to our students. I decided to test it out alongside these other tools to see what it could do. It has a lot of potential that I have yet to explore, but here’s a brief overview of how it worked out.
For the first prompt, the tool started by asking for a link or documents before I could proceed. After that, I was able to add my prompt, but not the full text because of a word limit. To work around this, I included the prompt along with a translation question. The tool then offered a series of follow-up questions in the chat, where I could insert my own—for example, refining the summary or requesting additional details. This approach made the process more interactive, but it required extra steps compared to other tools.
The next two types of prompts I wanted to test out required adding external sources to work properly. The responses were very detailed thanks to the material provided, but there was no reference section. For the creative and visual requests (#4 to #6), the tool could not complete the tasks without additional material. Since I wanted to follow the same comparison format between tools, I didn’t go further with this one.
I’m still excited to see what happens when I upload a syllabus and ask the tool to prepare a video for my learners. Stay tuned!!!
I don’t usually use tools that everyone prefers, like ChatGPT (although I do use Copilot since it’s institutionally approved and gives me a sense of security regarding the data provided and shared with the tool). Yet, I still wanted to include it in the comparison list, knowing it could easily complete and respond to these six requests. Keep in mind that I was using a free version, and a paid version (including the one within our institution) may offer better responses.
This tool summarized the text well for the first prompt and offered suggestions for next steps. The outline was similar to Perplexity and Canva AI, without references. The explanation of the term was correct, but as we see with most tools, sources are rarely included when defining or explaining terms, unless we specify it. For the story, it was surprisingly the only tool not to use the names SOPHIE and MARK (names I did not add or prompt the tools to even include in the dialogue, but most of them did so not knowing I was comparing them alongside each other), and it provided a dialogue with richer vocabulary, which is interesting. For image generation, it created one image per prompt with clear terms, but the process was slow. The images were almost identical to those generated by Copilot. For the presentation, the result was basic, black and white, without images, and not very useful for teaching purposes.
Finally, this last tool summarized the text well and offered suggestions for the first prompt. For the outline, the response was very concise, with fewer sections than the others (including ChatGPT), which can be useful as a starting point but insufficient for a complete outline. The AI explanation was similar to other tools, without sources. The story creation followed a format close to ChatGPT’s. For images, Copilot generated two separate visuals with clear terms, but in the second image, learners seemed not to pay attention to the teacher or the board, which is an odd detail that we should not need to specify. For the presentation, Copilot was the most effective: it first checked my expectations before creating the content, then generated a clear and well-developed presentation, mentioning sources without me having to ask for them.
So what am I trying to say…
is that each tool has strengths and limitations and determining what they are starts by testing them out side by side using the same prompt and for diverse types of outputs we seek (be it text, audio, code and more). For simple text tasks like summarization or explanation, Perplexity Pro, ChatGPT, and Copilot are effective. For visual creation, Canva AI stands out, followed by Copilot. Mistral AI and NotebookLM are useful for analytical or source-based tasks but limited in creativity and visuals.





