Des ouvrages théoriques sur l’IA, il en existe pléthore ! Pourtant, Laura Sibony aborde cette révolution technologique sous un angle différent avec son dernier roman Fantasia, paru aux éditions Grasset en 2024. Au lieu de s’appuyer sur un discours théorique, c’est à travers des dizaines d’histoires qu’elle nous permet de saisir au mieux ce qu’est l’intelligence artificielle – et ce qu’elle n’est pas, ce qu’elle peut changer – et ce qu’elle ne pourra jamais changer, ce qu’elle promet – et les promesses qu’elle n’arrivera pas à tenir. Une partie d’échecs entre Napoléon et le Turc mécanique, un algorithme pour reconnaître les fromages, la voix artificielle des patients atteints de la maladie de Charcot ou encore Poutine en décolleté : le machine learning, les deepfakes ou le tagging se pensent en images.
CaféLitté a rencontré Laura Sibony et a exploré les coulisses de Fantasia.
Fantasia se distingue par son approche littéraire et sa diversité de genres pour explorer l’intelligence artificielle. Quelles ont été vos motivations pour choisir cette méthode narrative plutôt qu’une approche plus traditionnelle ou théorique ?
– Merci pour cette question, qui souligne si bien le projet au cœur de Fantasia ! Je ne voulais ni expliquer, ni juger l’intelligence artificielle, mais la raconter. On trouve dans Fantasia des chapitres d’enquête, des récits à la première personne, quelques nouvelles, un ou deux poèmes, des fables, des dialogues, des brèves et même une critique littéraire de Chat-GPT. J’ai voulu écrire un livre varié et amusant, comme l’a été ma découverte de l’intelligence artificielle.
Je dis souvent que je l’ai découverte grâce à Chagall et Botticelli, parce que j’y ai été initiée, par la pratique, au Lab de Google Arts & Culture. C’est un département de Google qui a numérisé huit millions d’œuvres auprès des plus grands musées du monde, et qui cherche à rendre ce trésor artistique « plus accessible et utile » grâce à la technologie, et notamment grâce aux technologies d’IA. Par exemple, Google Arts & Culture a développé ArtSelfie, l’application qui permet de prendre son selfie et de trouver son sosie parmi les 300 ou 400.000 portraits numérisés, dont je parle dans le chapitre Sans filtre et sans reproche. J’ai compris ce qu’est et ce que n’est pas l’I.A., ses enjeux, ses promesses, par la pratique : en expérimentant, avec une base de plusieurs millions de chefs-d’œuvre. Puis je l’ai enseigné, dans des cours d’initiation à l’I.A., qui m’ont prouvé la nécessité d’un discours sur l’I.A. qui dépasse la technique, et évoque ses usages, ce que ces technologies changent dans le monde.
J’ai voulu incarner l’I.A., la raconter, montrer ses différents visages à tous, plutôt que de m’enfermer dans un discours théorique, qui ne se serait adressé qu’aux ingénieurs ou aux philosophes.
C’est que l’I.A. a beaucoup de facettes ! Lorsque le mot apparaît, en 1956, il désigne un champ de recherche scientifique qui vise à comprendre les capacités cognitives de l’homme (capacité à classer l’information, à faire du lien, à générer du texte ou des images…) en les simulant sur des machines. Mais rapidement le champ de recherche scientifique trouve des applications technologiques, de plus en plus variées à mesure que la production et le stockage de la donnée s’améliorent. L’I.A. est aujourd’hui omniprésente dans l’imagerie médicale, dans le trading, sur les réseaux sociaux… Mais un médecin n’a ni la même vision ni le même usage de l’I.A. qu’un trader ou un influenceur. Pour faire miroiter toutes ces facettes de l’I.A., pour montrer la diversité de ses effets en termes d’écologie, de détournements d’image, de démocratie, d’art… des formes littéraires variées s’imposaient.
Mais enfin, surtout, les lecteurs ont déterminé la forme choisie. En 2024, la moitié du monde, près de trois milliards de personnes, ont voté. Il est donc essentiel de savoir comment se construit notre opinion, et en particulier comment on reçoit l’information en ligne. Or l’I.A. joue un grand rôle dans la sélection et la diffusion des contenus en ligne. Lorsqu’elle est utilisée par des groupes comme Meta ou ByteDance, qui ont un intérêt économique à nous retenir sur leurs plateformes (Facebook, Instagram, Whatsapp, TikTok), elle encourage la radicalisation du discours, les clivages, l’enfermement dans des bulles de filtre, et favorise donc le complotisme. Certains en ont peut-être déjà fait la malheureuse expérience, rien ne sert de disséquer devant un complotiste les rouages de la manipulation, ou de dénoncer l’usage de l’IA par les réseaux sociaux. Quand Molière s’est attaqué à l’hypocrisie religieuse, il n’a pas rédigé un traité, il a créé le Tartuffe. J’ai voulu incarner l’I.A., la raconter, montrer ses différents visages à tous, plutôt que de m’enfermer dans un discours théorique, qui ne se serait adressé qu’aux ingénieurs ou aux philosophes.
Dans votre livre, vous comparez l’intelligence artificielle à des concepts humains fondamentaux tels que la vie, l’amour et la mort, en mettant en avant le fait que l’IA, tout comme ces concepts, ne peut être pleinement définie ou fixée. Pouvez-vous expliquer pourquoi vous avez choisi cette comparaison ? Comment cette idée d’une IA indéfinissable enrichit-elle votre exploration du sujet dans Fantasia ?
– Dès son apparition, le terme « artificial intelligence » a une valeur marketing : il sert à obtenir des fonds de la Fondation Rockfeller pour financer la conférence de Darmouth (pour l’anecdote : une des plus chères de tous les temps, lorsqu’on la rapporte au nombre de participants). En 1956, cette conférence fondatrice réunit neuroscientifiques, mathématiciens, statisticiens, informaticiens pour comprendre la manière dont fonctionne le cerveau, et en particulier dont il apprend, en simulant ses capacités sur des ordinateurs – qui en sont encore à leurs balbutiements. Intelligence est donc à prendre dans son sens anglais, celui qu’on retrouve dans l’Intelligence Service : c’est une capacité à classer l’information et à lui donner du sens.
Mais Gary écrivait, dans Charge d’âme : « la technologie est le trou du cul de la science »… et de fait, l’I.A. champ de recherche scientifique n’a pas tardé à trouver des applications pratiques et rentables. Aujourd’hui, elle prend des formes dites faibles, spécialisées sur une tâche donnée, ou plus fortes, et donc versatiles. On la retrouve presqu’en synonyme d’ « informatique » : en 2024, on parle d’I.A. pour tous ce qui consiste à chercher une logique dans une base de données, pour classer, reconnaître, prédire ou générer du sens.
Science, technologies… et imaginaire. Depuis la sortie de Chat-GPT (200 millions d’utilisateurs en un mois !), l’I.A. est aussi devenue un grand spectacle à échelle mondiale, occultant ses usages moins impressionnants mais plus quotidiens : détection de spam, sécurisation des comptes bancaires, optimisation des batteries… Lorsqu’on parle d’I.A., il faut d’abord définir de quoi on parle : de ce qu’elle a été, le champ scientifique ; de ce qu’elle est, un ensemble de technologies qui touchent à des secteurs très variés ; ou de ce qu’elle pourrait devenir, la source de menaces et d’opportunités pour l’écologie, le monde du travail et autres.
De même pour tous ces grands mots, qui recouvrent des idées trop vastes et trop subjectives pour qu’on puisse les saisir dans leur ensemble, qu’on ne voit jamais que par facettes, incarnées dans des histoires individuelles. Je serais pour une définition de l’amour par des histoires, pour un tableau de la vie par petites touches, ou un roman de la mort en scènes évidemment insuffisantes, dont l’ensemble serait plus vrai qu’une définition abstraite et générale.
Laura Sibony © Archives personnelles
Quel type de réaction espériez-vous susciter chez vos lecteurs après avoir terminé Fantasia ? Y a-t-il une prise de conscience ou un changement de perspective que vous espérez voir émerger ?
– Je suis surprise par la réaction des lecteurs. J’espérais surtout faire une œuvre littéraire, c’est-à-dire émouvoir, donner du sens à cet objet inconnu de Balzac ou de Proust qu’est l’intelligence artificielle. Et sans doute aussi secouer cette distinction si rigide qui sépare injustement les lettres des sciences. Or, je crois qu’on me lit surtout pour l’aspect technique de l’I.A., pour trouver des réponses face aux angoisses que suscite un concept souvent mal défini, mal compris, et d’autant plus menaçant.
De toute façon, je n’espérais rien d’autre qu’un changement de point de vue, au mieux ! Si Fantasia a permis de rappeler que l’intelligence artificielle a une histoire, que ses enjeux sont variés (et je n’en illustre qu’une partie : j’assume de ne pas pouvoir être exhaustive !), mais que nous utilisons au quotidien des technologies d’I.A. le plus souvent invisibles et inoffensives, ce sera déjà beaucoup, dans un débat devenu hystérique autour de la menace existentielle que représenterait l’I.A. Et j’espère l’avoir fait sans naïveté, et sans occulter des méfaits qui, s’ils existaient déjà avant l’I.A., sont aujourd’hui plus accessibles et plus viraux. La propagande, la manipulation, l’enfermement communautaire, la radicalisation du discours… existaient bien avant l’I.A. Mais la facilité à générer des deepfakes, les systèmes de curation de l’information sur les réseaux sociaux, les mettent aujourd’hui dans toutes les mains, même -et surtout !- les moins bien intentionnées. Cela, c’est un danger, mais la solution ne peut pas y être que technique.
Dans l’introduction du livre vous vous décrivez comme appartenant à une génération qui a vécu la transition entre l’ère pré-IA et l’ère numérique actuelle. Comment cette perspective influence-t-elle la manière dont vous interprétez l’intelligence artificielle ?
– Difficile de dater la naissance de l’I.A. ! Certains la situent avec l’invention de la pascaline, la machine à calculer de Blaise Pascal, première externalisation d’une faculté cognitive humaine ; d’autres en 1956, lorsque le terme est figé à la conférence de Darmouth ; pour beaucoup elle va de pair avec le développement des réseaux sociaux et leur adoption massive en France, vers la fin des années 2000. De plus, on oublie que même aujourd’hui, en 2024, près de deux milliards de personnes n’ont pas un accès stable à l’internet ! Je ne parlerais donc pas d’ère pré-IA, mais plutôt d’une génération qui a appris à chercher un DVD par sa cote avant de connaître les recommandations Netflix ou le scroll TikTok, qui a forgé des amitiés réelles avant de rencontrer des gens en ligne, et qui a désormais le rôle de témoin, entre des parents qui ne comprennent pas qu’on envoie des mails quand on peut se téléphoner, et des jeunes enfants ou cousins qui ne comprennent pas qu’on envoie des mails quand on peut envoyer des snaps.
Je pense en tous cas que cette position de témoin est un observatoire idéal pour raconter l’I.A., sans la rejeter puisqu’elle fait partie du quotidien et apporte d’incroyables bénéfices à l’imagerie médicale, à la recherche pharmaceutique, aux transports, à l’éducation et bien d’autres secteurs ; sans naïveté non plus, et sans oublier surtout ses effets négatifs : addiction, encouragement d’une forme de paresse intellectuelle, radicalisation du discours, enfermement dans des bulles de filtre, propagande, risque écologique… Dangers bien réels, qui existaient avant l’I.A., mais qu’elle amplifie. Raconter l’I.A. ne suffira pas, et c’est pourtant déjà essentiel.
Fantasia fait régulièrement allusion à l’IA créant de nouveaux mythes et peurs. Quelles sont, selon vous, les peurs les plus courantes associées à l’IA et comment pourraient-elles être adressées ?
– Je ne donne pas une conférence sans que quelqu’un, à un moment, ne me demande : « vous parlez d’intelligence artificielle, vous niez donc l’intelligence humaine ? » ou « Puisque l’I.A. va détruire la planète et nous voler nos emplois…? » (dans cet ordre !) Je trouve stérile l’opposition frontale entre intelligence artificielle et humaine. Elle vient le plus souvent d’une mauvaise traduction de l’« intelligence » britannique, qui n’est pas la « smartness » ou le « wit », mais simplement la capacité à classer l’information. Et bien sûr d’un traitement médiatique qui a tendance à jouer le duel de l’homme contre la machine. Lorsque Kasparov affronte Deep Blue, IBM n’a pas cherché à remplacer les joueurs d’échecs. Ça n’aurait aucun sens de remplacer des humains dans un jeu, dans ce qu’ils savent et aiment faire. Non, le but pour IBM est de mieux comprendre comment l’homme apprend à jouer, à créer des stratégies, à prévoir des coups, pour mieux le simuler sur des machines. La victoire de Deep Blue est un succès humain : ce sont des hommes qui ont réussi à suffisamment bien reproduire les mécanismes de l’apprentissage pour battre un Grand Maître aux échecs. Donc les peurs existentielles ne sont pas infondées, et c’est aussi la grandeur de l’homme de craindre son inutilité dans une création domptée, mais elles viennent surtout d’une incompréhension sur le rôle de l’I.A.
En revanche, on devrait avoir plus peur des usages, bien humains, qu’on fait de l’I.A. ! Et en particulier de ses usages dans la curation de contenus sur les réseaux sociaux, qu’on laisse, en tant que société, au pouvoir de grandes entreprises de la Silicon Valley qui ont un intérêt économique à retenir leurs utilisateurs sur les plateformes, quitte à valoriser du contenu mensonger, clivant, ou tellement personnalisé qu’il nous enferme dans notre propre vision du monde, nous rendant sourds et aveugles à toute opinion étrangère.
Comment la littérature et les récits culturels contribuent-ils à façonner notre perception de l’IA et de ses risques ?
– Savez-vous comment Sam Altman, directeur d’OpenAI, a annoncé la sortie de GPT-4o ? Il s’est contenté d’un tweet de trois lettres : HER. Mais le succès de ce film (Her, Spike Jonze, 2013) a été si grand, il pose une question si juste sur l’authenticité de la rencontre et du rapport amoureux, que tout le monde savait à quoi Sam Altman faisait référence. Voilà la force des récits : il font tenir en trois petites lettres un univers d’angoisses, de questionnements, d’espoirs qu’on ne saurait formuler autrement que par des histoires et des personnages.
La littérature, en particulier, a beaucoup d’avantages : et l’un, de taille, c’est qu’en 350 pages, contrairement à un post Facebook, il y a peu de chances, statistiquement, que vous soyez entièrement d’accord avec tout, du début à la fin. Un livre est une pensée qui se développe sur plusieurs centaines de pages, ce qui pousse presqu’à tous les coups à réfléchir, à changer de point de vue, à s’interroger. Même un plongeur distrait ne peut pas revenir d’une telle aventure avec seulement un like. Et c’est une aventure exigeante, qui force à créer nos propres images à l’heure où on peut en générer de toutes pièces. Un livre est une création, tandis que Chat-GPT ne pourra jamais produire que de la génération de textes.
Votre approche dans Fantasia semble éviter de prendre une position claire sur l’intelligence artificielle. Est-ce parce que vous avez voulu éviter de transformer l’œuvre en un essai d’opinion, ou avez-vous plutôt cherché à présenter une vision ouverte et nuancée ? Peut-être êtes-vous vous-même encore indécise sur ce sujet ?
– La vie, pour ou contre ? L’amour, c’est oui ou c’est non ? Il y a des concepts trop vastes et trop mal définis, qu’on saisit uniquement par facettes, et sur lesquels il serait absurde de porter un jugement unique et définitif. Je peux juger de l’usage que Cambridge Analytica fait de l’I.A., et en l’occurrence le rejeter très nettement : cette entreprise utilisait l’intelligence artificielle pour cibler les personnes les plus à même de s’abstenir, et les types d’arguments qui les feraient changer d’opinion, afin d’influer sur les votes du Brexit ou de l’élection présidentielle américaine. Je peux aussi m’émerveiller de son usage en endoscopie médicale, et des formidables progrès de ces dernières années, qui lui permettent de guider le médecin dans l’opération des polypes, au bénéfice de tous. Mais l’I.A. en soi, sans précision… je ne peux ni la rejeter en bloc, ni applaudir tous ses effets.
Par ailleurs, le format « livre papier » se serait mal prêté à un sujet aussi protéiforme, et en évolution aussi rapide que l’I.A. J’aurais craint de porter des jugements définitifs sur un ensemble de technologies dont le propre est justement d’apprendre sur des bases de données qui évoluent.
Je dirais que je n’ai, en effet, pas une position claire sur l’I.A…. J’en ai plusieurs !
Laura Sibony est écrivaine, enseignante à HEC, Sciences Po et à l’Université de Strasbourg, et conférencière. Ancienne senior writer au BCG, Lab Coordinator à Google Arts & Culture, elle combine une expérience variée dans les domaines de l’écriture, de l’enseignement et des cultures numériques, en particulier l’intelligence artificielle.