Littérature et culture numérique

Introduction et informations générales

Introduction et informations générales

Descriptif du séminaire

L’objectif principal du séminaire est de développer une analyse théorique sur la manière dont le numérique – en tant que phénomène culturel et non en tant qu’ensemble d’outils techniques – change le statut de la littérature. Notre culture est en effet profondément bouleversée par le numérique qui modifie notre façon de percevoir l’espace, le temps, le rapport entre le domaine privé et le domaine public, notre identité et notre intimité. Nous voulons interroger les pratiques numériques comme des révélateurs de ce qu’est la littérature, non seulement à notre époque, mais dans une dimension plus générale. En ce sens, le fait numérique ne sera pas analysé comme porteur de changements, mais comme un phénomène révélant de manière plus claire des aspects ontologiques qui, en tant que tels, ont une valeur atemporelle. Le séminaire a donc l’ambition de construire une théorie de la littérature à l’époque du numérique.

Cette année le séminaire se concentrera sur les modèles textuels. En effet, l’avènement et la diffusion très rapides d’algorithmes probabilistes dits d’“intelligence artificielle” – comme les Large Language Models (LLM) – sont en train d’imposer une vision du texte unique et uniforme, basée sur des présupposés théoriques qui considèrent le texte comme une série de caractères dont le sens peut être induit, de façon statistique, en analysant leurs relations dans de larges corpus. Si ce modèle, dérivant des avancées des théories linguistiques structuralistes, en particulier de l’application de l’hypothèse distributionnelle de Firth, a sans doute un grand intérêt commercial – et en partie scientifique –, il produit une idée du texte très éloignée des modèles interprétatifs caractérisant les sciences humaines, qui pensent le texte comme une structure complexe, faite d’éléments au sens et à la hiérarchie très spécifiques, et non de simples chaînes de caractères. Le séminaire proposera une analyse des enjeux épistémologiques, culturels et politiques de différents modèles textuels en retraçant aussi l’histoire de multiples formes de modélisation textuelle.

Un peu de méta

Ce cours porte sur les modèles textuels et sur le rapport entre théories textuelles et matérialité des modèles physiques. Il était donc nécessaire de se demander ce qu’est une forme particulière de texte : le support de cours.

Ce support est produit avec Le pressoir, une application réalisée par l’équipe du laboratoire sur les écritures numériques. Le pressoir a été pensé pour faire des livres augmentés, mais dans ce contexte, il me semblait intéressant de le tester pour faire un support de cours.

Calendrier

  • 2 septembre: Introduction
  • 9 septembre: Qu’est-ce qu’un texte?
  • 16 septembre: Qu’est-ce qu’un texte numérique?
  • 23 septembre: Qu’est-ce qu’un modèle?
  • 30 septembre: Attention: jour férié
  • 7 octobre: Un modèle de texte
  • 14 octobre: OHCO, XML et XSLT et des exemples d’édition en XML
  • 21 octobre: Semaine de lecture – premier rendu
  • 28 octobre: TeX et LaTeX
  • 4 novembre: Exemples d’édition en LaTeX : séance assurée par Mathilde Verstraete
  • 11 novembre: Markdown et pandoc
  • 18 novembre: APIs
  • 25 novembre: Matérialismes
  • 2 décembre: Material text
  • 9 décembre: Rendu final

Objectifs du séminaire

  • S’interroger sur le numérique
  • S’interroger sur la culture numérique
  • S’interroger sur la littérature numérique
  • S’interroger sur la littérature à l’époque du numérique
  • Proposer une réflexion théorique sur la littérature en général
  • Proposer une réflexion théorique plus générale sur le monde actuel

Le séminaire depuis 2015

Il y a une continuité entre ces thématiques: l’idée est qu’il faut interpréter les environnements numériques en tant qu’espaces matériels dont les matériaux sont l’écriture et le texte.

Les objectifs de cette année

  • Comprendre ce qu’est la modélisation et ses enjeux
  • S’interroger sur ce qu’est le texte
  • S’interroger sur l’impact du numérique sur notre compréhension du texte
  • S’interroger sur l’impact des LLM sur notre compréhension du texte
  • S’interroger sur la matérialité du texte et de la littérature

Pourquoi les modèles textuels ?

Le discours médiatique voudrait nous faire croire qu’il n’y a plus besoin de modéliser. Le texte semble pouvoir être pris en compte par des “machines”.

Ce séminaire va montrer que cette idée n’est pas seulement fausse, mais, surtout, elle est très dangereuse.

Il faut, en effet, prendre en compte plusieurs points:

  • Le discours médiatique présente une notion très vague d’IA
  • L’IA est souvent confondue avec une poignée d’applications – propriétaires
  • Il faut connaître les spécificités des LLMs et des LxMs pour comprendre ce que ces approches font du texte
  • Il faut s’intérroger sur la place d’une tradition textuelle ancienne : y a-t-il des compétences à préserver ?
  • Les algorithmes changent, mais ils ont toujours besoin de données. Les données restent probablement la chose la plus importante.
  • Qu’est-ce que le texte numérique ?
  • Comprendre le code : quelle est la place des humanistes dans l’interprétation du monde numérique ?
Archibald, Samuel. 2009. Le texte et la technique : La lecture à l’heure des médias numériques. Le Quartanier.
Knuth, Donald E. 1974. « Computer programming as an art ». Commun. ACM 17 (12): 667‑73. https://doi.org/10.1145/361604.361612.
McCarty, Willard. 2005. Humanities Computing. Paperback edition. Palgrave Macmillan.
Meunier, Jean-Guy. 2014. « Humanités numériques ou computationnelles : Enjeux herméneutiques ». Sens Public, décembre. http://www.sens-public.org/article1121.html.
Meunier, Jean-Guy. 2017. « Humanités numériques et modélisation scientifique ». Questions de communication, nᵒ 31 (septembre): 19‑48. https://doi.org/10.4000/questionsdecommunication.11040.
Russell, Bertrand. 1986. The Philosophy of logical atomism: and other essays 1914-19. Édité par John Greer Slater. The collected papers of Bertrand Russell 8. G. Allen; Unwin.