Si heu fet servir algun cop sistemes de bots de conversa (ChatGPT, DeepSeek, Gemini, Copilot, etc.) o us n’han mostrat resultats, us haureu adonat de dues coses: el que no saben, s’ho inventen; i cometen errors que sovint són surrealistes, com posar cola o pedres en una recepta de cuina o explicar que les cols mengen cabres.
Aquest tipus d’errors, sovint divertits per a qui coneix el tema sobre el qual va el text, poden portar a situacions de risc si la persona que llegeix el text no els detecta i aplica al peu de la lletra el que se li diu a la resposta del bot.
En un article a la revista IEEE Spectrum, Bruce Schneier i Nathan E. Sanders analitzen el problema i proposen dues solucions, la primera consistiria en aconseguir que les errades que fan els bots siguin més similars als dels humans i la segona treballar per evitar aquest tipus d’errades, millorant la forma d’aprenentatge dels sistemes d’intel·ligència artificial. En qualsevol cas, aquestes mesures dificultarien al professorat la tasca de detectar quan l’alumnat fa servir aquestes eines sense aplicar un sentit crític a les respostes.