ChatGPT : entre innovation, mode et usages à prendre avec recul
Impossible de commencer l’année 2023 sans vous entendre parler de « Chat GPT ». Avec plus de 100 millions d’utilisateurs en deux mois (Siècle digital), la solution développée par la compagnie OpenAI, association à but non lucratif fondée en 2015 par Elon Musk et Sam Altman l’incubateur d’Y Combinator (entreprise qui finance les start-up) est devenu un buzz word. Pour autant, si les étudiants s’en emparent, les créateurs de contenus sur les réseaux y voient une alternative pour créer du contenu, quel avis porte le veilleur sur cet outil ? Voici le nôtre.
ChatGPT vient des termes « chat » qui peut se traduire par « conversation » et de « GPT » (Generative Pre-trained Transformer) qui signifie « modèle de transduction de langage prédictif « . Pour faire simple , ChatGPT peut produire des contenus et répondre à nos questions grâce à une super intelligence artificielle.
En utilisant ce qu’il a appris d’un « grand modèle de langage » (large langage model, LMM), entraîné avec 175 milliards de paramètres, à partir de plus de 500 milliards de textes provenant du Web, d’encyclopédies et de livres, ChatGPT peut générer du texte de manière autonome et aider les utilisateurs à trouver des réponses à leurs questions. (source : CNET)
ChatGPT n’est pas une source !
ChatGPT soulève son lot d’interrogations éthiques comme toutes les solutions développées sur une base d’Intelligence artificielle. Au-delà de l’outil, des ses usages, l’un des attraits majeurs de ChatGPT est la prise de conscience qui semble se généraliser sur la place des sources dans l’accès à l’information. Les échanges entendus sur la solution d’OpenAI sont animés d’enthousiasme quant au champ des possibles ouverts par une telle solution, que par les doutes sérieux sur la qualité des informations exposées.
En effet, lorsque vous utilisez ChatGPT, les sources qui ont permis au robot de répondre à votre question ne sont pas citées, impactant de fait la crédibilité et de la forme des informations. L’enjeu des droits d’auteurs se pose évidement mais la grande question est : comment pouvons nous vérifier une source, s’assurer de la qualité des propos, avoir l’assurance d’un enseignement fiable si l’origine des informations n’est pas donnée.
En veille, il est essentiel que lorsqu’on avance des faits il faut les démontrer, croiser les sources que ce soit pour la rédaction d’une newsletter, d’un rapport d’analyse concurrentielle ou une étude de marché. Le problème de cet outil n’est pas tant qu’il est un concurrent à l’intelligence de l’homme, mais qu’il apparait difficile pour un robot d’avoir un regard distancié et critique sur ses productions. Or c’est le propre de notre métier.
ChatGPT a été formé pour répondre à des questions, c’est maintenant à nous d’être formés pour en interpréter les réponses.
La question du plagiat et des droits d’auteur est également au cœur des débats. A qui appartient le texte généré ? A l’utilisateur qui pose la question ? Aux ingénieurs qui ont conçu le modèle ? Aux différents auteurs dont les contenus ont inspiré l’IA ? Pour tenter de lutter contre les potentiels plagiats, Open AI développe actuellement un outil gratuit nommé AI Text Classifier permettant de détecter automatiquement les textes générés par le chat (source : le blog du modérateur).
Si nous avions un seul conseil à vous donner, ce serait le même avec ChatGPT ou sans lui, prenez du recul sur les informations qu’on voit sur le Net. Prenez le temps de valider vos sources (notre article du mois dernier sur Internet plus sûr).
Vous valez plus qu’un robot, le monde a besoin de votre analyse, de votre point de vue objectif (à bon entendeur 🙂 )