Ce prototype d'agent conversationnel, utilisant des techniques d'apprentissage supervisé, a été lancé en novembre 2022, l'actuel Chat GPT-4 a ensuite été dévoilé et une nouvelle version qui pourrait devenir une intelligence artificielle générale, impossible à distinguer d’un humain, est annoncée pour la fin de l'année.
D’abord, pouvez-vous nous éclairer sur les fonctionnalités de ChatGPT ?
ChatGPT est l'interface conversationnelle pour échanger avec le module GPT, un modèle de langage de grande envergure. ChatGPT offre des services avec différents niveaux de complexité. Il est très difficile de lister toutes ses fonctionnalités, mais je vais me concentrer sur les plus importantes : Le Noyau GPT a été entraîné sur d'énormes quantités de données textuelles. Il a ainsi acquis d'excellentes compétences linguistiques, qui lui permettent de comprendre du langage naturel et d'y répondre. ChatGPT peut, notamment, répondre à des questions sur divers sujets tels que les sciences, l'histoire, la géographie, les arts, la culture, les sports, la technologie, etc... Mais il peut aussi générer du texte (rédiger des essais, résumés, poèmes, lettres, ou encore inventer des histoires).
A mon humble avis, la plus importante des aptitudes de ChatGPT est celle qui lui permet d'apprendre de nouvelles informations à partir de textes que l'utilisateur lui donnerait directement. Le développement de Chat-bot spécifique à certains contextes devient alors d'une extrême facilité. En gros, ChatGPT est un moulin à parole capable d'une grande capacité de bavardage.
Les journalistes doivent-ils s'inquiéter pour leur profession ?
Comme beaucoup de métiers, le journalisme est hautement concerné par les avancées de l'intelligence artificielle et des modèles de langage tels que ChatGPT. Ce type de technologies permettrait potentiellement d'automatiser certaines tâches journalistiques telles que la rédaction d'articles d'actualité, la génération de résumés et la traduction. La partie optimiste est que cela ne peut pas remplacer complètement les compétences et l'expertise des journalistes humains qui, grâce à leur compréhension approfondie des sujets qu'ils couvrent, ainsi qu'une capacité à évaluer et à vérifier les sources d'information de manière critique, les journalistes pourront rester compétitifs et préserver leur savoir-faire.
Il n'est pas certain que tous les journalistes puissent s'adapter aux évolutions technologiques tout en développant leurs compétences et leur expertise pour rester pertinents et compétitifs sur le marché du travail. Il est probable que certains journalistes ne pourront pas suivre l'évolution technologique.
ChatGPT risque-t-il d'impacter négativement le monde académique ?
Le monde académique a pour mission à la fois de développer de nouvelles connaissances grâce à la recherche académique, mais également de former de nouveaux talents pour en faire des citoyens compatibles avec les grandes valeurs de la société.
Je ne peux pas donner de jugement de valeur en affirmant l'impact négatif sur le monde académique, mais une chose est sûre, ChatGPT et les avancées dans le domaine des IA génératives de la famille de ChatGPT, vont influencer de façon inévitable le monde académique dans ses deux missions Recherche et Enseignement.
Les chercheurs et enseignants pourront, ainsi, l'utiliser pour gagner en efficacité et en productivité dans la rédaction et la synthèse de leurs travaux de recherche et de leurs écrits pédagogiques. Ils pourront ainsi faire leur travail différemment.
Les étudiants et les jeunes chercheurs aussi ! Le grand risque ici c'est de converger collectivement vers une production de documents avec une originalité et une créativité en baisse. Il est important de veiller à ces deux aspects si on veut maintenir une recherche et un enseignement de qualité. Faut-il l'interdire ? non puisque de toute façon cela fera de nous les nouveaux Don Quichottes, menant un combat perdu d'avance contre des moulins à paroles.
Quels sont les risques en termes de données personnelles ?
Les modèles de langage tels que ChatGPT nécessitent des données massives pour être entraînés. Mais ils ne le font pas au moment où vous les utilisez, mais au moment où ils sont entraînés. Cependant, ces données ne sont probablement pas d'ordre personnel, puisque pour entraîner un Modèle de langage, il est surtout question de connaissances massives comme on en trouve, dans les articles de Wikipedia, des bibliothèques scientifiques, les plateformes de communications et d'échanges entre utilisateurs (StackOverflow, Redit, ...). Le vrai risque ici, c'est celui du biais ! Internet est un univers paradoxal, on peut y trouver la chose et son opposé, il faut faire attention aux déductions que pourrait tirer un système s'appuyant sur ce contenu.
L'utilisation de l'Intelligence artificielle se fera-t-elle sans danger ? Se dirige-t-on vers une alliance intelligente humaine/artificielle ? Pour cette dernière question, j'ai trouvé intéressant de partager avec vous la réponse de ChatGPT lui-même !
Selon ChatGPT, l'utilisation de l'Intelligence artificielle peut offrir de nombreux avantages, mais elle comporte également des risques et des défis. Il est important de noter que l'IA n'est pas intrinsèquement dangereuse ou bénéfique - cela dépend de la façon dont elle est utilisée.
Les risques potentiels de l'IA comprennent la sécurité et la protection des données, la prise de décision opaque et biaisée, la perte d'emplois et la polarisation sociale. Il est donc important que l'IA soit développée de manière responsable, éthique et transparente.
En ce qui concerne l'alliance entre l'intelligence humaine et artificielle, il est possible d'envisager une collaboration qui permettrait de combiner les forces de l'homme et de la machine. Par exemple, l'IA pourrait être utilisée pour traiter des données massives et automatiser des tâches répétitives, tandis que les humains pourraient être impliqués dans la prise de décision finale, la résolution de problèmes complexes et la créativité.
Cependant, une telle collaboration nécessiterait des systèmes d'IA transparents et responsables, des normes éthiques claires et une éducation pour les utilisateurs humains et les développeurs d'IA. Il est important que les décisions finales soient prises par les humains, qui sont capables de jugement moral et de flexibilité, plutôt que de se fier entièrement à l'IA."
Vous pouvez apprécier la qualité linguistique de la réponse et la structure du schéma argumentaire proposé.
En fin de compte, je rajouterai que l'IA est un outil dans la main de l'humain et que son libre arbitre devrait l'orienter dans ses choix et comment il souhaite l'utiliser : Augmenter un humain, ou le remplacer ! C'est à nous que reviendra un jour ou l'autre ce choix. Ce jour venu, faisons attention à faire le bon choix. Car un jour où l'autre, nous serons nous-même au cœur de ce remplacement !
En poursuivant votre navigation sur notre site internet, vous acceptez que des cookies soient placés sur votre terminal. Ces cookies sont utilisés pour faciliter votre navigation, vous proposer des offres adaptées et permettre l'élaboration de statistiques. Pour obtenir plus d'informations sur les cookies, vous pouvez consulter notre Notice légale
Restez informé. Acceptez-vous de recevoir nos notifications ?