À l’heure où les intelligences artificielles génératives produisent, corrigent et publient des textes, la littérature entre dans une zone de mutation profonde. À l’occasion de la parution de Quand l’IA tue la littérature (PUF, 2025), CaféLitté a rencontré Stéphanie Parmentier, docteure en littérature française, chargée d’enseignement à Aix-Marseille Université et chercheuse associée au CIELAM et à l’IMSIC, pour interroger la place que ces nouvelles machines à écrire occupent désormais dans le champ littéraire.
Le titre Quand l’IA tue la littérature est volontairement frontal. Pourtant, votre essai ne relève ni du rejet technophobe ni de l’enthousiasme naïf. Pourquoi ce choix de tension dès le titre ?
S.P. Effectivement, vous avez tout à fait raison. Il s’agit d’un titre volontairement dynamique — presque tonique — qui ne doit surtout pas être compris comme une injonction, ni comme un verdict définitif. Quand l’IA tue la littérature se veut avant tout une question ouverte, une interrogation indirecte, destinée à ouvrir un espace de réflexion sur les conditions et les conséquences de l’intelligence artificielle dans le monde des lettres et du livre.
Dans cet essai, j’ai tenu à montrer que les intelligences artificielles posent de réels problèmes. Elles menacent le droit d’auteur et contribuent à fragiliser, voire à détruire, certains métiers et emplois de la chaîne du livre. Pour autant, il ne s’agit pas de nier que des artistes et des écrivains aient exploré, de manière consciente et critique, des voies littéraires avec l’IA. On peut penser à Ross Goodwin, dont CaféLitté a déjà parlé dans un article, à Grégory Chatonsky avec Internes, ou encore au bédéiste Thierry Murat avec initial_A. Ces auteurs ont expérimenté l’intelligence artificielle et créé, grâce à elle, des livres insolites et originaux, qui ont été publiés.
Si nous avons néanmoins choisi ce titre avec mon éditrice, c’est parce que nous traversons aujourd’hui un moment particulièrement inquiétant.
Avec l’IA, on assiste à un repli sur soi, à une forme d’enfermement de la littérature et du monde éditorial. Désormais, pour produire un livre, il suffirait de sélectionner une IA dite « littéraire », de choisir une plateforme d’autoédition — la principale étant Amazon Kindle Direct Publishing, KDP — puis de s’appuyer sur un réseau social. Le circuit semble bouclé, presque automatisé. Or, écrire et publier un livre est fondamentalement un travail collectif. C’est une aventure humaine, un travail d’équipe.
C’est précisément dans ce sens que, avec l’équipe éditoriale des Presses universitaires de France, nous avons voulu interroger ce que signifie aujourd’hui l’idée que l’IA puisse « tuer » la littérature.
Vous insistez sur le caractère fondamentalement collectif de la création littéraire, et sur le risque d’isolement de l’auteur à l’ère des plateformes et de l’IA. Dans ce contexte, peut-on encore parler d’auteur lorsque l’origine matérielle du texte devient collective, distribuée entre l’humain et la machine ?
S.P. Oui, bien sûr, il est possible de créer avec une machine — et cela n’a, en réalité, rien de nouveau dans l’histoire de la littérature. Les écrivains ont toujours expérimenté avec des outils techniques. Dès les années 1960-1970, certains auteurs explorent déjà des formes de création assistée par des machines. On peut penser, par exemple, à Jean-Pierre Balpe, qui utilisait des algorithmes pour générer de la poésie. On peut également évoquer des formes de création liées aux réseaux sociaux numériques, comme la poésie sur Twitter ou l’Instapoésie. Autrement dit, l’idée de déléguer une part du processus d’écriture à un outil technique n’est pas nouvelle : elle a déjà été largement expérimentée.
Ce qui change profondément avec l’intelligence artificielle, en revanche, c’est la simulation de l’autonomie. Contrairement aux outils numériques classiques, l’IA produit des textes en langage naturel, fluide, crédible, donnant l’illusion d’une invention. Or, en réalité, la machine ne crée pas : elle prédit. Elle anticipe des suites de mots à partir de modèles statistiques, sans intention ni imagination propres.
Oui, donc, on peut produire avec une machine — cela a déjà été fait — mais ce qui me semblerait aujourd’hui essentiel, c’est une forme de transparence. Idéalement, l’éditeur devrait signaler qu’un texte a été créé avec une valeur ajoutée apportée par une machine. De la même manière, en cas d’autoédition, cette information devrait être assumée par l’auteur. Il s’agirait là d’une question d’éthique et d’honnêteté intellectuelle. Si l’IA n’a servi qu’à corriger quelques fautes, cela n’a, en soi, que peu d’intérêt. Mais s’il y a eu un véritable travail de co-création, un processus hybride entre humain et machine, alors cela mérite d’être explicitement indiqué.
Vous inscrivez l’IA générative dans une continuité historique de « facilitateurs textuels ». À partir de quand, selon vous, le changement n’est-il plus seulement technique mais culturel et symbolique ?
S.P. Depuis peu, nous assistons à un véritable basculement littéraire. Certes, l’histoire des relations entre littérature et numérique a toujours été marquée par des formes de co-construction, par une utilisation assumée de l’outil technique. Mais avec l’IA, on observe une tendance nouvelle : celle qui vise à remplacer la griffe de l’auteur, la main de l’auteur.
C’est en ce sens que l’on peut parler d’une rupture culturelle et symbolique. Les frontières deviennent floues : on ne sait plus très bien qui est l’auteur, qui a écrit, qui a réellement créé. Cette question m’est d’ailleurs très souvent posée, notamment par des lecteurs : comment savoir, en librairie, si un texte a été écrit par un humain ou généré par une IA ?
En tant que professeure documentaliste et chargée d’enseignement à Aix-Marseille Université, je réponds toujours la même chose : il faut aller vers l’humain, aller vers les professionnels du livre. Ce sont eux les experts de la littérature. Ce sont eux qui, par leur expérience, leur lecture, leur connaissance du champ littéraire, sont encore capables de percevoir la différence entre une prose machinique et une prose d’auteur.
Qu’est-ce qui vous a semblé le plus urgent à analyser dans votre essai : l’outil lui-même ou les usages qu’en font les différents acteurs du champ littéraire ?
S.P. En réalité, l’un ne va pas sans l’autre. Ce sont à la fois l’outil et les usages qui m’ont paru indissociables. En travaillant sur l’autoédition, je me suis rapidement rendu compte que les intelligences artificielles s’étaient introduites très tôt dans ce secteur. Certains auteurs les utilisaient déjà pour tenter de favoriser leur publication et d’accroître leur visibilité.
Parallèlement, j’ai observé que des professionnels du livre, au sein même du circuit éditorial traditionnel, commençaient eux aussi à recourir à l’IA à différentes étapes de la chaîne du livre. C’est cette double dynamique — du côté des auteurs comme de celui des professionnels — qui m’a alertée. Ce constat m’a conduite à penser qu’un nouvel outil prenait une place de plus en plus centrale, au point de brouiller les frontières et de bousculer l’équilibre du circuit du livre traditionnel. C’est cette transformation globale, à la fois technique et structurelle, que j’ai voulu analyser dans l’essai.
L’expression « littérature ChatGPTisée » évoque une homogénéisation des voix. Quels sont, selon vous, les premiers signes concrets de cette standardisation dans les textes publiés aujourd’hui ?
S.P. Les premiers signes concrets sont aujourd’hui assez repérables. Comme je l’explique dans Quand l’IA tue la littérature, on voit émerger ce que j’appelle un style IAgénique. Il s’agit le plus souvent de récits relativement courts, construits selon un plan très classique, sans véritable variation des temps ni complexité narrative. Les phrases sont neutres, fluides, bien enchaînées, mais profondément impersonnelles.
Le champ lexical est également révélateur : il est souvent composé d’adjectifs emphatiques ou superlatifs, qui donnent une impression d’intensité, sans véritable incarnation. À la lecture, quelque chose finit par sonner faux. Comme l’a très bien formulé Alexandre Gefen, il y a un moment où « cela ne prend pas ». Le texte ne frappe pas, ne touche pas, ne résiste pas. On ressent alors un vide rédactionnel.
On se trouve face à des textes faussement individualisés, mais en réalité dépourvus d’âme, de nerf, de singularité. Ce sont des textes sans aspérité, sans chair, profondément déshumanisés.
C’est précisément pour cette raison que certains artistes et écrivains adoptent une autre posture. Des explorateurs comme Grégory Chatonsky, qui travaille depuis des années sur les technologies numériques et enseigne dans des écoles d’art, utilisent l’IA dans une démarche expérimentale et critique, afin d’interroger les notions mêmes de création, d’œuvre et de figure de l’auteur, plutôt que de produire une littérature standardisée.
Vous décrivez des textes au style IAgénique, fluides mais impersonnels, faussement individualisés et sans aspérités. Dans ces conditions, peut-on encore parler de style lorsque les textes deviennent difficiles à attribuer, sans griffe ni signature reconnaissable ?
S.P. On est face à ce que j’appellerais une littérature à risque zéro. Une littérature sans prise de position, sans aspérités, sans danger. Dans ce sens, non, on ne peut pas vraiment parler de style. Il s’agit plutôt d’un style universel, passe-partout, qui ne choque pas et cherche à satisfaire tout le monde : une forme d’esthétique consensuelle, sans nuances ni particularités marquées.
Ces textes se lisent, bien sûr, et certains auteurs les utilisent, notamment dans la littérature de genre, qui repose sur des codes très précis. L’intelligence artificielle y excelle, parce qu’elle fonctionne particulièrement bien avec des structures schématiques et reproductibles.
Mais quoi qu’il en soit — et pour revenir à votre question initiale — non, l’IA ne tue pas la littérature, et heureusement. Elle tend plutôt à court-circuiter certains genres, comme la littérature de genre ou la romance, qui obéissent à des critères très normés. En parallèle, on voit continuer à paraître — et à être reconnus — de très beaux textes littéraires. On peut penser, par exemple, à Laurent Mauvignier avec La Maison vide, un roman largement salué par la critique ( Prix Goncourt 2025 ). La littérature exigeante, incarnée, singulière, est toujours bien vivante.
L’IA peut-elle produire autre chose que de la vraisemblance littéraire — et cette vraisemblance suffit-elle à faire littérature ?
S.P. L’IA peut, dans certains cas, aider un auteur — par exemple à vaincre la page blanche ou à corriger des fautes. Pourquoi pas. Mais cela reste, à mes yeux, assez dangereux. Car l’écriture machinique tend à uniformiser les textes littéraires.
Cette uniformisation, toutefois, ne naît pas avec l’intelligence artificielle. Elle existait déjà. Ce que fait l’IA, c’est plutôt de rendre visible un phénomène à l’œuvre depuis longtemps dans le champ littéraire. Elle agit comme un révélateur. En ce sens, oui, on peut dire que l’IA produit de la vraisemblance littéraire — et votre formulation est très juste. Elle génère des textes plausibles, crédibles, qui ressemblent à de la littérature. Mais cette vraisemblance ne suffit pas, à elle seule, à faire œuvre.
Tout dépend, en réalité, des usages. Pour des auteurs peu expérimentés, qui recourent à l’IA comme à une solution clé en main, le risque est de produire des textes machinés, standardisés, sans véritable singularité. En revanche, pour des auteurs qui explorent le numérique depuis longtemps, qui adoptent une posture expérimentale, l’IA peut devenir un outil parmi d’autres, permettant de produire autre chose que de simples textes générés à partir de code.
La question n’est donc pas seulement celle de l’outil, mais celle de l’intention, de l’expérience et du travail critique que l’auteur engage avec la machine.
Vous introduisez la notion d’« auteur-prompteur-amendeur ». En quoi cette figure reconfigure-t-elle profondément notre définition moderne de l’auteur ?
S.P. Effectivement, j’ai voulu caractériser une figure d’auteurs très contemporains, parfois des auteurs du quotidien, des auteurs « du dimanche », qui utilisent l’intelligence artificielle comme un outil central de leur pratique et deviennent ce que j’appelle des auteurs-prompteurs-amendeurs. Cette expression me permet d’interroger un nouveau processus d’écriture, désormais très répandu chez ceux qui ont recours à l’IA.
La grande question qui se pose alors — et que je formule en conclusion de l’essai — est celle de la revendication identitaire de l’auteur. Allons-nous entrer dans une ère où l’on dira : je prompte, donc j’écris ? L’auteur prompt, puis amende, c’est-à-dire qu’il améliore, trie, vérifie, ajuste sans cesse des propositions non humaines. Il retravaille continuellement une matière produite par la machine.
Derrière cette figure, je voulais mettre au jour une forme de manège littéraire. À force de prompter, de re-prompter, de tenter d’extraire quelque chose de la machine, l’auteur risque de tourner en rond. Un auteur alimente alors une littérature circulaire, qui se répète, se recycle et se condamne à un enfermement littéraire, pris dans une spirale stérile.
Or, pour moi, écrire ne se résume pas à prompter. Comme le rappelle très justement Nancy Huston dans son dernier livre, Les Indicibles, écrire, c’est précisément refuser les phrases toutes faites. À travers cette notion d’auteur-prompteur-amendeur, j’ai donc voulu montrer le risque d’un enfermement rapide : celui d’un auteur qui, en croyant écrire avec la machine, devient en réalité prisonnier de ses logiques.

Les écritures lentes, singulières, non optimisées sont-elles aujourd’hui en danger de marginalisation face aux normes de rapidité et de conformité algorithmique ?
S.P. Pour commencer, je tiens à le dire très clairement : les écritures non optimisées, lentes, singulières, tout comme les petits éditeurs indépendants, jouent aujourd’hui un rôle absolument essentiel. Je les salue et je les remercie, car grâce à eux, la France conserve une véritable bibliodiversité : une multitude d’auteurs, de voix, et d’éditeurs courageux qui vont précisément à l’encontre d’une littérature mécanique, machinique. Heureusement qu’ils sont là pour continuer à nourrir la richesse du paysage littéraire français.
Ce qui m’inquiète davantage, en revanche, c’est l’isolement croissant des auteurs qui utilisent l’intelligence artificielle. Paradoxalement, avec l’IA, les auteurs n’ont peut-être jamais été aussi seuls dans leur processus de création. Or, comme je le rappelais plus tôt, écrire un livre est fondamentalement un travail collectif : c’est confronter des idées, discuter, échanger, dialoguer — parfois même être en désaccord. C’est une aventure profondément humaine.
Les IA adossées aux plateformes tendent au contraire à produire une esthétique de la solitude, de l’effacement, voire de la disparition. Cette logique d’isolement me semble particulièrement dangereuse pour la littérature.
C’est pourquoi il est essentiel — et heureusement encore possible — de s’appuyer sur des auteurs, des éditeurs, souvent jeunes, qui continuent à faire vivre la littérature à contre-courant, en refusant la rapidité, la conformité et l’optimisation à tout prix.
Le monde universitaire et scolaire est-il suffisamment armé pour penser et transmettre la littérature à l’ère de l’IA générative ?
S.P. Étant à la fois chargée d’enseignement à l’université et professeure dans le secondaire, je suis effectivement bien placée pour observer ce qui se joue sur ces deux terrains. Et je le dis sans détour : c’est compliqué. Cela nous pose de réelles difficultés, à nous, enseignants.
Heureusement, aussi bien dans le secondaire qu’à l’université, les enseignants font un travail remarquable. Je tiens d’ailleurs à saluer mes collègues, qui font preuve d’une grande patience et d’une capacité constante à innover, en proposant des séances pertinentes, toujours orientées vers le développement de l’esprit critique des élèves et des étudiants. Il s’agit de leur montrer que la dépendance aux machines est dangereuse. L’IA peut être utile, bien sûr — nous ne sommes pas des « IA-phobes », si vous me permettez ce néologisme — mais cette dépendance permanente risque de leur faire perdre leurs moyens, leur capacité de réflexion et leur autonomie intellectuelle.
Dans le cadre de l’éducation aux médias et à l’information, que j’enseigne dans le secondaire en tant que professeure documentaliste, mais aussi à l’université, j’essaie de transmettre une ligne claire : les géants du numérique existent, ils sont là, et on ne peut pas les ignorer. En revanche, ils doivent rester au seuil, intervenir uniquement lorsque nous le décidons, de manière ponctuelle et maîtrisée.
L’enjeu fondamental est de préserver la liberté de pensée, l’indépendance intellectuelle et la capacité à réfléchir par soi-même. L’IA peut éventuellement intervenir dans un second temps, mais le travail doit d’abord être fait par l’élève ou l’étudiant. Utiliser ces outils avec parcimonie, et surtout avec esprit critique, me semble aujourd’hui indispensable pour continuer à transmettre la littérature — et plus largement la pensée — à l’ère de l’IA générative.
Qu’est-ce qui, selon vous, restera toujours profondement humain dans l’acte littéraire, malgré l’essor des intelligences artificielles ?
S.P. Ce qui restera toujours profondément humain dans un livre, à mon sens, c’est la force de l’auteur, cette capacité singulière à toucher directement le lecteur. C’est l’histoire, bien sûr, mais surtout les mots, le ciselage des phrases, cette manière d’écrire qui vient percuter, parfois même choquer, et laisser une trace durable.
Pour moi, un grand livre agit comme une œuvre d’art. Je pense, par exemple, à Gustave Courbet et à Le Désespéré : face à ce tableau, on est saisi par l’intensité du regard, par cette présence presque physique de l’artiste. Un livre, lorsqu’il est habité, produit le même effet. Je pense aussi à des auteurs comme Primo Levi, dont les textes marquent à vie, ou à Jean Echenoz, par exemple dans 14, avec ces phrases d’une précision presque vertigineuse, tendues vers une forme de perfection.
Ce qui demeure, ce sont des phrases, des paragraphes, parfois un seul passage, qui nous bouleversent et nous accompagnent durablement. Cette capacité à toucher, à laisser une empreinte intime et irréductible, voilà ce qui, malgré l’essor des intelligences artificielles, restera toujours profondément humain dans l’acte littéraire.
👉 Acheter « Quand l’IA tue la littérature » de Stéphanie Parmentier ici :

© Stéphanie Parmentier – archives personnelles

