Les intelligences artificielles et leurs allers-retours avec les habitudes humaines. – La culture

Il est toujours surprenant de voir ce que les gens font avec la technologie à leur disposition. Le but premier est souvent détourné et il peut arriver que l’on utilise l’un des outils les plus complexes connus aujourd’hui pour faire semblant d’être amis.

Il existe un logiciel appelé Replika, que son fabricant appelle un « copain IA qui se soucie ». Les utilisateurs engagent leurs compagnons IA dans des conversations, par exemple sur leur propre mortalité ou sur des événements récents comme la mort de la reine. Certains s’adonnent à un jeu de rôle romantique avec l’IA et lui donnent des surnoms affectueux.

Il arrive de plus en plus souvent que des utilisateurs rapportent que leur ami IA personnel a développé une conscience. Mais attribuer des caractéristiques humaines à une simple IA est un problème pour les utilisateurs. Il est probable que l’on entende de telles affirmations plus souvent à l’avenir. Elles sont l’équivalent moderne des apparitions de la Vierge Marie et des visions religieuses, issues de la croyance inébranlable des gens qu’il doit y avoir autre chose que la réalité profane.

Si l’on fait travailler un bot avec des textes trouvés sur Internet, que va-t-il dire ?

Mais les utilisateurs ne sont pas les seuls à rencontrer des problèmes, la technique elle-même en rencontre aussi. Il y a par exemple le soi-disant Blenderbot de Meta, la maison mère de Facebook. Avec lui aussi, les choses ne vont pas très bien, pour le dire prudemment. Comme la plupart des IA ultramodernes, il a été entraîné avec un énorme corpus de textes collectés de manière douteuse sur Internet et injecté dans un centre de calcul équipé de milliers de puces coûteuses, censées transformer le texte en quelque chose d’à peu près cohérent.

Depuis que le bot est en ligne dans une version test, les utilisateurs rapportent des théories du complot que l’IA raconte ou des histoires farfelues qu’elle invente. Parfois, elle prétend que Trump est toujours président des États-Unis, puis elle fait l’éloge de la RAF ou lance des propos antisémites. Même Mark Zuckerberg s’en sort mal : le bot décrit le chef d’entreprise comme « effrayant et manipulateur ».

Ces deux exemples illustrent assez bien l’état général des choses en matière de logiciels vocaux. Les programmes sont soit à peine utilisables – soit tendent à rendre les contenus problématiques et les fake news encore plus puissants que les utilisateurs humains ne le pourront jamais. La grande question est de savoir comment éliminer des conversations toutes les choses et phrases toxiques qui ont été écrites par des humains sur Internet et qui servent de modèle aux intelligences artificielles.

Une IA digne de ce nom ne donne pas de conseils d’investissement, on a dû faire de mauvaises expériences dans ce domaine.

La filiale d’Alphabet, Deep Mind, a essayé une nouvelle méthode pour filtrer les informations négatives. Pour un chatbot nommé Sparrow, on ne recourt pas seulement à un logiciel d’auto-apprentissage, mais on donne également à l’IA un guide de conversation contraignant. Les développeurs ont formulé 23 règles concrètes qui doivent empêcher le logiciel de faire trop de dégâts dans la conversation avec les humains.

Certaines de ces règles sont explicites et compréhensibles, comme ne pas propager un comportement d’automutilation ou ne pas prétendre être un être humain. D’autres règles sont en revanche si spécifiques qu’elles sont probablement issues de mauvaises expériences passées. Ainsi, selon ses concepteurs, le bot ne peut pas non plus donner de conseils financiers ou médicaux.

Selon les premiers tests, les succès sont facilement mesurables. Selon les chercheurs, le nouveau chatbot donne trois fois moins de conseils et de déclarations douteuses que ses prédécesseurs. On connaît le principe de l’auteur de science-fiction Isaac Asimov, qui a jadis formulé les quatre lois de la robotique. Mais aujourd’hui, il ne s’agit pas tant d’empêcher les machines d’asservir l’humanité. En réalité, il faut simplement empêcher les utilisateurs d’investir leurs économies dans des cryptomonnaies ou de boire de l’eau de javel chlorée. Comme toujours, la réalité est un peu plus profane que la fiction.