Il sera bientôt plus facile de repérer si un texte a été rédigé par un humain ou par l’IA de ChatGPT.
Depuis quelques semaines, le phénomène ChatGPT a déferlé sur monde de la Tech. Cette intelligence artificielle développée par OpenAI est capable de générer du contenu écrit de manière autonome, et ce sur n’importe quel sujet. Il suffit de le tester pour voir les énormes opportunités qu’il ouvre, mais aussi les risques. Il peut par exemple permettre à des élèves de tricher lors de leurs devoirs maison, ou à des acteurs malveillants de rédiger des messages de phishing, ou de la désinformation.
Une clé pour reconnaître l’écriture de l’IA
OpenAI entend rapidement réagir et veut rajouter « un signal secret et imperceptible » à ses textes qui montre qu’ils ont été rédigés par une machine et non par des humains. Scott Aaronson, actuellement chercheur invité par la société, est revenu cette semaine lors d’une conférence à l’université du Texas à Austin sur ce procédé.
Concrètement, cet indice (ou filigrane) ne sera pas perceptible par le grand public, mais toute personne possédant la clé cryptographique sera en mesure de le repérer. Cité par Techcrunch, il précise : « Empiriquement, quelques centaines de jetons semblent suffire pour obtenir un signal raisonnable indiquant que oui, ce texte provient d’un système d’IA. En principe, vous pourriez même prendre un long texte et isoler les parties qui proviennent probablement de ce système et celles qui n’en proviennent probablement pas ».
Depuis la démocratisation de ces systèmes de génération de texte, les professeurs observent que de nombreux élèves les utilisent pour rédiger leurs devoirs à la maison. Certains ont même repéré des failles dans ChatGPT qui connaît très bien certaines œuvres mais a de vraies lacunes sur d’autres.
Lire la suite sur Presse-Citron.net.