Les modèles d’IA peuvent-ils exprimer des émotions ?

modèle IA
crédits Pexels

Les progrès rapides des modèles d’IA génératifs, en particulier les grands modèles de langage, comme ChatGPT, Bard, ont mis en évidence la nécessité d’une culture de l’IA. La formation aux modèles d’IA permettra de comprendre leurs fonctionnalités, leurs fondements mathématiques et linguistiques, leurs limites et, surtout, de faire la distinction entre le battage médiatique et la réalité.

Modèles d’IA vers une éternelle quête de connaissance

Depuis toujours, la quête de la connaissance a été une caractéristique intrinsèque de l’humanité. La brève existence de la bibliothèque d’Alexandrie témoigne des efforts considérables déployés par l’humanité pour regrouper tout le savoir en un endroit unique, bien au-delà des capacités du cerveau humain à comprendre et à retenir. Avec l’avènement de l’internet et des moteurs de recherche à la fin du siècle précédent, l’accès à l’information a été largement ouvert à tous. Désormais, toute personne ayant un ordinateur avait la possibilité d’effectuer des recherches en utilisant des mots-clés. Certains moteurs allaient même jusqu’à proposer une auto-complétion des requêtes, anticipant ainsi ce que vous étiez sur le point de chercher avant même que vous ne commenciez à saisir vos mots.

Cependant, cette dynamique a radicalement évolué avec l’émergence du concept de « Grand modèle de langage » (Large Language Model – LLM) comme ChatGPT, Bard. Les « connaissances humaines » sont désormais encodées sous forme de vecteurs mathématiques en haute dimension, ayant la capacité non seulement de représenter des informations complexes, mais aussi de refléter aisément les relations qui les lient. Ces modèles, capables de répondre à des requêtes humaines sophistiquées dans diverses formes, s’adaptant à tous les publics et à toutes les nuances de style, ont véritablement étonné la sphère de l’internet.

La longueur d’avance des humains : les émotions ?

La compréhension et l’acquisition des concepts mathématiques sous-jacents à ces modèles linguistiques dévoilent progressivement leur potentiel, ainsi que leurs limites. Ainsi se pose la question : ces vastes modèles sont-ils véritablement aussi puissants qu’on le pense ? Ont-ils la capacité de se substituer à l’homme ? Quelle trajectoire notre avenir prendra-t-il ? Est-il nécessaire de céder à la panique ? Ces modèles constituent-ils une nouvelle forme d’intelligence artificielle générale ? L’auto-complétion sophistiquée pour les textes étendus continue de susciter l’étonnement à l’échelle mondiale.

Lorsque j’ai sollicité ChatGPT pour qu’il me décrive ma visite à Carcassonne, sa réponse était la suivante : Lors de ma récente visite à Carcassonne, j’ai été émerveillé par la majesté médiévale de la cité fortifiée, avec ses imposantes tours, ses remparts chargés d’histoire et ses ruelles pittoresques.

Une telle réponse générique ne capture pas fidèlement mes émotions authentiques. Les modèles d’IA actuels ne possèdent pas une compréhension intrinsèque de leurs propres écrits. Ils se contentent d’appliquer des modèles préalablement appris à partir de vastes volumes de données, utilisant les structures linguistiques existantes pour générer une réponse. Cependant, une certaine inquiétude se fait ressentir parmi les individus. Et si ChatGPT avait accès à l’intégralité de mon historique et pouvait consulter toutes les données de mon passé ? Serait-il en mesure de rédiger un article parfait décrivant ce voyage récent ? Cette perspective peut sembler à la fois inquiétante et troublante. La question de l’éthique et des valeurs morales suscite des perplexités non seulement chez les scientifiques, mais aussi parmi les décideurs. Le Parlement européen souhaite établir différentes catégories d’utilisation de l’IA, incluant celles à risque élevé ainsi que les usages interdits.

Maitres mots : ouverture et transparence…

Nous sommes toujours en train de déchiffrer les capacités de ces modèles, mais nous sommes encore loin d’intégrer mathématiquement les dimensions émotionnelles, éthiques et morales humaines à ces systèmes. Cette entreprise est complexe, et ne sera peut-être jamais réalisable, néanmoins, il est essentiel que nous commencions à cultiver une compréhension de l’intelligence artificielle. Afin de façonner des citoyens responsables pour l’avenir, il est impératif que l’IA soit sécurisée, responsable, écologique et transparente, et que la collecte ainsi que l’analyse des données soient menées avec ouverture et transparence.

modèle IA

L’auteur est John Samuel, Enseignant-chercheur à CPE Lyon en informatique – intelligence artificielle au sein du département Sciences et technologies du numérique / Laboratoire de recherche : LIRIS, équipe « Bases de données ».

Imprimer

Articles qui pourraient vous intéresser également

Inscrivez-vous à notre newsletter !

Vous pouvez vous inscrire à notre newsletter en cliquant sur le lien suivant :

inscription à la newsletter