Le Résumé de la rédac
L'étude News Integrity in AI Assistants, réalisée par la BBC et l'EBU, a analysé plus de 3 000 réponses d'assistants numériques tels que ChatGPT et Google Gemini, révélant que 45 % des réponses contiennent des erreurs significatives et que 81 % présentent des distorsions de l'information. Ce constat pose un véritable défi pour les responsables de formation et de ressources humaines, car la propagation d'erreurs dans les contenus pédagogiques peut compromettre la fiabilité des informations diffusées, notamment dans les cours et les modules d'apprentissage.
Les résultats soulignent trois angles morts dans la formation automatisée : la vérification, où des informations erronées peuvent affaiblir la formation ; la contextualisation, essentielle pour distinguer faits et opinions ; et la responsabilité, qui questionne qui est responsable en cas d'erreur dans les contenus générés. Dans un contexte de conformité accru, les enjeux deviennent cruciaux.
Pour affronter ces défis, il est impératif de maîtriser l'automatisation plutôt que de l'éviter. Les responsables doivent instaurer des procédures de validation et promouvoir une culture d'esprit critique au sein des équipes. Ainsi, il devient essentiel de former les collaborateurs non seulement à leur métier, mais aussi à la critique des savoirs automatisés, favorisant un environnement d'apprentissage réflexif.
Prenez des notes en toute simplicité !
Cliquez sur Prendre une note sur la droite ou sur le bouton ci-dessous de votre écran pour vous conformer à Qualiopi et justifier vos actions suite à la lecture d'un article. C'est simple et pratique !