Hyper-Interprétation et savoirs à l’ère du digital : concepts et méthodes
Maison Suger – 18 et 19 mars 2024 – 16 rue Suger, 75006 Paris
Journées organisées par Franck Cormerais et Armen Khatchatourov
Argument
A l’heure du dernier stade de la grammatisation, celui des algorithmes et des données, – après les stades de l’alphabet et de l’imprimerie -, il convient de repenser la hiérarchisation et la circulation du savoir scientifique au regard des « technologies de la connaissance » et de l’analyse du langage. La transformation simultanée des régimes du document et des régimes de vérité implique l’expérimentation de nouvelles formes de recherche relatives aux formes de lecture et d’écriture.
En proposant le concept d’hyper-interprétation, l’objectif de ce colloque consiste à dégager les perspectives ouvertes par une approche organologique du savoir, basée sur la relation entre dispositifs techniques et formes de réflexivité qui allient les littératies et les numératies.
L’hyper-interprétation pose la question de la synthèse de plusieurs instruments de connaissance complémentaires qui sont nécessaires à l’évolution de l’activité des chercheurs. Le premier système, dit primaire, regroupe l’ensemble des publications scientifiques éditées qui concourent à la construction des heuristiques de la découverte et de l’expérimentation. Le système secondaire développé durant le XXème siècle favorise l’accès aux contenus primaires par le biais de catalogues des bibliothèques, des archives ouvertes de corpus et de bases de données d’enquêtes. Enfin, le troisième système regroupe l’ensemble des données et des hyperdocuments qui font l’objet d’un traitement spécifique de la part du chercheur et qui concourent à de nouvelles formes de signifiance. Il peut s’agir de graphes, de cartes, de réseaux, d’algorithmes de clusterisation ou de classification, de modèles de langages qui sont soumis à un traitement qualitatif ou quantitatif par le biais d’outillages dédiés.
L’hyper-interprétation renouvelle les conditions du travail interprétatif à travers le triptyque (traces, empreintes, langages) et superpose plusieurs systèmes documentaires qui traduisent l’évolution de l’action de la recherche dans toutes les disciplines en redistribuant les formes du dicible et du visible dans la perspective des Etudes Digitales. Après le concept de Digital Humanities, où les sciences de l’homme et de la société rencontrent les technologies, les Digital Studies, qui concernent toutes les formes de savoir, est une épistémogenèse des savoirs à l’heure des collectifs de connaissances ouvertes (open science).
L’hyper-interprétation repose la question de la configuration des savoirs comprise, non pas comme des traitements de données, mais plutôt comme le renouveau d’une culture de l’argumentation et de la délibération mettant en jeu, autour des textes et des corpus, un dialogue interscience qui couple compréhension et explication pour aborder un « faire sens ».
En partenariat avec :
PROGRAMME
LUNDI MATIN
9H-9H30 Accueil (café et viennoiseries)
9H30-9H45 Présentation des journées
9H45-10H15 Du sémantème au Web herméneutique : vers une nouvelle écologie de l’industrie documentaire ?
Vincent Puig, Institut de Recherche et d’Innovation, Centre Pompidou
10H15-10H45 Machines à interpréter, écriture numérique et capitalisme
Éric Guichard, ENSSIB, Laboratoire Triangle ENS-Lyon – CNRS
Pause 15’
11h-11H30 Etudes digitales, hyper-interprétation et (trans)-formation des savoirs
Franck Cormerais, Université Bordeaux-Montaigne, laboratoire MICA
11H30-12H00 Pour une compréhension ou une interprétation écologique de l’information
Anne Lefebvre, ENS Paris-Saclay.fr, Centre de recherche en Design
12H00-12H30 Autorité documentaire transmédiatique en régime de numérisation intensive et de systèmes d’organisation des connaissances connexionnistes
Manuel Zacklad, Laboratoire Dicen-IdF, CNAM
LUNDI APRÈS-MIDI
14H30-15H00 Hyperinterprétation des images
Alberto Romele, Université Sorbonne Nouvelle.
15H00-15H30 Enjeux socio-philosophiques et herméneutiques de l’ère hypermoderne
Pierre-Antoine Chardel, IMT-BS – LAP, CNRS / EHESS.
Pause 15’
15H45-16H15 Entre prévisibilité algorithmique et prudence, un espace d’interprétation
Jacques A. Gilbert, Université de Nantes, Laboratoire LAMO
16H15-16H45 Grammatisation des images et interprétation.
Sophie Pène, DICEN – IdF
MARDI MATIN
9H-9H30 Accueil
9h30-10H L’herméneutique Digitale et l’idiomatique.
Noel Fitzpatrick, Université de Dublin, laboratoire GradCom.
10H-10H30 L’annotation numérique comme hyper-interprétation de documents audiovisuels.
Michaël Bourgatte, Université Catholique de Paris.
Pause 15’
10H45-11h15 L’à-venir de l’hypertexte comme différance encyclopédique ?
Victor Chaix, Association Épokhè, Paris
11H15-11h45 Interprétation et subjectivité : la Scène de la recherche arts/sciences à l’ENS
Audrey Gosset, ENS Paris Saclay, Laboratoire MICA
11h45-12h15 Heuristique des protocoles d’écriture collective et interprétation.
Nicolas Sauret, Université Paris 8, Laboratoire Paragraphe
MARDI APRÈS-MIDI
14h-14h30 Des cartographies de controverses à la génération d’arguments en contexte numérique
Orélie Desfriches, Université, Paris 8, Laboratoire Paragraphe.
14h30-15H La « raison » des machines et interprétation : l’efficacité a-t-elle un sens ?
Daphné Vignon, Université de Nantes, Laboratoire LAMO.
Pause 15’
15h15-15h45 Les contextes de l’interprétation à l’heure de l’IA ubiquitaire
Armen Khatchatourov, Université Gustave Eiffel, Laboratoire Dicen-IdF.
15h45- 16H15 LLM et IA générative : impacts sur les pratiques interprétatives de recherche en sciences humaines et sociales
Amar Lakel, Université de Nantes, Laboratoire MICA
Résumé des interventions
Du sémantème au Web herméneutique : vers une nouvelle écologie de l’industrie documentaire ?
Vincent Puig, Institut de Recherche et d’Innovation du Centre Pompidou.
Si l’Organon d’Aristote est un fondement de l’interprétation (Peri Hermeneias), et donc l’organologie de Bernard Stiegler une forme technique de l’herméneutique, il est possible de tisser un lien du concept de sémantème chez Ruyer jusqu’au « web herméneutique », les objets-fonctions et les réseaux sociaux fondés sur le groupe. Une forme de raison organologique articulée aux prétentions synthétiques des IAG pour fonder une nouvelle écologie de l’industrie documentaire.
Machines à interpréter, écriture numérique et capitalisme
Éric Guichard, ENSSIB, laboratoire Triangle ENS-Lyon, CNRS.
Nos soucis d’interprétation proviennent plus que nous le croyons des limites techniques de l’écriture. La culture de l’écrit, dont la dimension collective est évidente, se déploie pour réduire ces soucis d’interprétation. Il s’ensuit que l’écriture influe fortement sur le cadre de l’interprétation. Mais elle la rend aussi potentiellement mécanisable.
Dans un contexte où les catégories «social», «technique» et «intellectuel» sont difficilement dissociables, la confiscation de l’écriture numérique par des multinationales normalise par le bas l’interprétation et nos représentations du monde. La possibilité d’une autonomie de la culture de l’argumentation s’en trouve menacée si elle ne s’explicite pas en tant que projet politique. Ce qui reste possible, si celles et ceux qui savent écrire décident de fonder une culture de l’écrit stable et partageable.
Etudes digitales, hyper-interprétation et (trans)-formation des savoirs.
Franck Cormerais, Université Bordeaux-Montaigne, laboratoire MICA
Nous chercherons à montrer comment les méthodes liées à la grammatisation contemporaine rendent possible un travail interprétatif à partir des données (hyper-interprétation) qui fait dialoguer les savoirs dans une interscience, renouvelant par là même l’herméneutique et sa tradition.
Pour une compréhension ou une interprétation écologique de l’information
Anne Lefebvre, ENS Paris-Saclay, Centre de Recherche en Design.
Le concept d’information est souvent soupçonné d’être porteur d’une approche quantitative de la donnée, peu propice à une compréhension de la production du sens ou de la signification. Nous voudrions éprouver la pertinence de la compréhension alternative, foncièrement relationnelle, qu’en donne Gilbert Simondon (en toute son œuvre et plus particulièrement dans les deux premiers cours qui composent le recueil Information et communication, paru en 2010 aux éditions de La Transparence), pour l’appréhension sinon l’évaluation de cette production, à l’heure des échanges ou communications digitales. La critique de l’approche quantitative de la donnée qui y émerge, n’est redevable ni d’une pensée du langage ni d’une pensée de l’interprétation du signe. Attentive aux conditions matérielles des systèmes d’information, elle ouvre pourtant la voie d’une analyse écologique des trajectoires ou modalités de transduction de l’information qui, de notre point de vue, constitue une sérieuse piste de réflexion pour la conception réfléchie de ces systèmes par le designer et l’évaluation de la valeur des connaissances ainsi partagées. C’est du moins ce que nous tenterons de montrer en nous intéressant au cas singulier de la fake news.
Autorité documentaire transmédiatique en régime de numérisation intensive et de systèmes d’organisation des connaissances connexionnistes
Manuel Zacklad, CNAM, laboratoire Dicen-IdF
Dans cette présentation, où nous nous inscrivons en faux par rapport à l’idée d’une prétendue « révolution des données », nous analyserons les nouveaux régimes de documentalité associés à la numérisation intensive, à l’industrialisation de la production de contenus à faible valeur sémiotique et au détournement des supports et des chaînes éditoriales. Si le document est toujours au cœur de la possibilité de faire institution, notamment dans la sphère scientifique, il est nécessaire de repenser les modalités de la documentarisation dans une logique transmédiatique.
Hyperinterprétation des images
Alberto Romele, Université Sorbonne Nouvelle.
Dans cette présentation, nous tenterons d’expliquer le concept d’hyperinterprétation à la lumière de la production et de l’utilisation d’images. Nous distinguerons trois phases : (1) une première phase de production mécanique d’images ; (2) une deuxième phase qui est celle des systèmes de catalogage d’images, allant des archives Bettmann aux images de stock ; (3) enfin, une troisième phase dans laquelle ces archives servent de base d’entraînement pour l’IA générative.
Enjeux socio-philosophiques et herméneutiques de l’ère hypermoderne
Pierre-Antoine Chardel, Laboratoire d’Anthropologie Politique, CNRS / EHESS.
On constate encore un écart entre nos modes de vie ordinaires et les possibilités ouvertes par des technologies numériques qui sont trop généralement appréhendées sous l’angle de l’hyper-consumérisme. Les médiations technologiques ne sont pas bien sûr seules en question. C’est plutôt un mode dominant de relation au monde (et son économie des affects) qui doit nous interroger, celui qui s’organise autour d’un zapping cognitif permanent, non sans créer des régimes d’attention devenant littéralement insoutenables. Telle est la situation paradoxale où nous nous trouvons massivement dans nos sociétés hypermodernes. Afin de pouvoir envisager de surmonter cette situation, il semble impératif d’apprendre à considérer les milieux numériques comme un champ de possibles devant appeler des efforts d’interprétation – voire d’hyper-interprétation – renouvelés.
Entre prévisibilité algorithmique et prudence, un espace d’interprétation
Jacques A. Gilbert, Université de Nantes, Laboratoire LAMO
Aristote oppose la logique à la dialectique. La première repose sur des prémices certaines et peut aboutir à une conclusion certaine alors que la seconde repose sur des prémices incertaines et appelle à la prudence, notamment en matière politique. Pourtant la « raison » (logos) des machines, celle qui leur permet de parler, comme les robots conversationnels, est essentiellement d’ordre probabilitaire. Dans ce contexte, quel type de prudence faut-il développer ?
Grammatisation des images et interprétation
Sophie Pène, Laboratoire DICEN-IdF
La génération d’images par des IA en modifie la réception et développe une acribie (attention à la morphologie de l’image, interrogation sur le composite de l’image, reconnaissance des sources). Peut-on parler de grammatisation, au sens où une pratique d’observation granulaire introduirait une meta- sémiotique ? Peut-on parler d’hyper-interprétation au sens où la réception sensible se déploie en une perception de l’infrastructure, d’hypothèses sur la fabrique et, créant des compétences d’interprétation stratifiées, se répercute secondairement sur la réception des images en général ?
L’herméneutique digitale et l’idiomatique
Noel Fitzpatrick, Université de Dublin, laboratoire GradCAM
Le processus d’interprétation ou d’hyper-interprétation (avec l’ingénierie linguistique) peut être toujours ouvert : là où il reste une poétique du possible, cette ouverture du sens se joue à la limite de l’incalculable et calculable. Dans cette intervention je propose de revenir vers « l’idiome » comme exemple de la possibilité d’interprétation qui est toujours ouvert, une ouverture du sens qui échappe au processus computationnel. L’idiome fonctionne comme un exemple de renouvellement du langage qui est en dehors du système computationnel. Pour Bernard Stiegler l’idiome n’est pas retreint au langage mais fait partie de ce qu’il conçoit comme différence idiomatique.
L’annotation numérique comme hyper-interprétation de documents audiovisuels
Michaël Bourgatte, Université Catholique de Paris
Jusqu’à une période récente, l’interprétation scientifique de documents audiovisuels (films, reportages, émissions télévisées, publicités, vidéos, etc.) nécessitait une prise de notes manuelle ou l’utilisation d’un traitement de texte. L’interprétation était ainsi uniforme et linéaire, tandis que le retour au document audiovisuel était souvent complexe, voire impossible, pour le lecteur confronté à cette interprétation textuelle. L’apparition de logiciels ou de plateformes d’annotation audiovisuelle au tournant des années 2010 a fait entrer le travail d’interprétation du texte filmique dans une ère de l’hyper-interprétation. Désormais, le texte d’interprétation prend la forme d’annotations temporelles ou contextuelles qui sont liées au texte filmique dans l’interface. L’hyper-interprétation est donc fragmentée et délinéarisée, tandis que lecteur confronté à cette hyper-interprétation peut désormais consulter le document audiovisuel en même temps.
L’à-venir de l’hypertexte comme différance encyclopédique ?
Victor Chaix, Association Épokhè, Paris
Pour Umberto Eco, « l’Encyclopédie » est avant tout un concept, désignant selon son expression « l’ensemble du déjà-dit » – c’est-à-dire, aussi, une forme de « bibliothèque des bibliothèques ». D’une certaine manière, ce puit virtuel de stéréotypes discursifs et d’explications normatives est pleinement exploité par les modèles computationnels de langage tels Chat-GPT, qui ne font qu’automatiser et reproduire par réagencement probabiliste leur large corpus, soutiré du web. Face à ce modèle relativement fermé du « déjà-dit » sur lui-même, il s’agira de défendre une idée de l’interprétation comme « addition de soustraction » opérés sur les clichés virtuels de l’Encyclopédie, dans le sens de l’expression de Claudio Paolucci reprenant le concept d’Umberto Eco : c’est-à-dire aussi comme processus de différance, d’individuation et de bifurcation de ce qui est probable. Eco et Paolucci rejoignent ici Jacques Derrida et Bernard Stiegler, où l’enjeu de la lecture et de l’écriture est celui d’une co-individuation du texte et de l’interprétant, capables de se réaliser au travers de cette désautomatisation du corpus et de la pensée. Cette conception nous permettra d’envisager un alter-espace en ligne, au bord-même des tendances de plus en plus prolétarisantes du web (par son automatisation et sa fermeture algorithmique), où hypertexte et hyperinterprétation se lieraient dans un même mouvement de réécriture et relecture permanente, démultipliant de manière ouverte les perspectives, et ce par une différenciation improbable du corpus encyclopédique donné. Les encyclopédistes encore à venir du web ne seraient pas de nouveaux Diderot et d’Alembert, mais plutôt des communautés d’amateurs de savoirs, œuvrant à une réappropriation voir un renversement des stéréotypes encyclopédiques, déconstruisant les modèles traditionnels de l’autorité attaché au livre, et sachant naviguer – sans trop dériver – dans la fragmentation hypertextuelle de l’interprétation.
Interprétation et subjectivité : la Scène de la recherche arts/sciences à l’ENS
Audrey Gosset, ENS Paris Saclay et Laboratoire MICA
Nous assistons à une transformation profonde des pratiques scientifiques en contexte numérique, pratiques marquées par une perte grandissante des gestes et des savoir-faire. Or, le constat d’un malaise généralisé dans la pratique scientifique, apparaît comme le premier pas vers une thérapeutique. La mise en place de nouveaux lieux d’expérimentation me semble en être un second. La Scène de Recherche de l’ENS Paris-Saclay, créée à l’origine comme une simple vitrine destinée à mettre en lumière les pratiques dominantes d’innovation produites au sein de l’institution qui l’a créée — selon une vision classique de la relation entre arts et sciences — a rapidement évolué d’un espace théâtral à un lieu permettant de vastes possibilités d’expérimentations. A travers des ateliers participatifs et une année diplômante (ARRC), la Scène de Recherche permet à présent la création d’agencements artistes-chercheurs-scientifiques (avec une dimension inter-science) dans cet espace théâtral. Les pratiques de recherche alternatives permettent à différents régimes de vérité de se confronter.
Heuristique des protocoles d’écriture collective et interprétation
Nicolas Sauret, Université Paris 8, Laboratoire Paragraphe
En tant qu’espace de lecture et d’écriture, le milieu numérique se révèle être intrinsèquement un lieu de savoir, de pensée et d’interprétation dont le régime épistémique suppose une littératie particulière.
Cette intervention proposera une conceptualisation de la littératie numérique fondée sur la maîtrise des protocoles à l’œuvre dans les situations d’écriture collective. Nous reviendrons pour cela sur deux expérimentations d’écriture et d’édition dans l’environnement git/Gitlab, dont les modalités et les registres différents viendront chacune éclairer les conditions d’émergence d’une pensée collective. Entre la réécriture collective d’Une saison en enfer d’Arthur Rimbault à l’initiative d’un éditeur numérique (Abrüpt), et l’écriture conversationnelle d’un article scientifique, nous verrons comment la littératie numérique peut être envisagée comme la capacité à co-concevoir les protocoles humains qui organisent le collectif (communication, validation, décision), et à les implémenter dans l’environnement numérique. En considérant que la pensée est indissociable de la matérialité de ses manifestations, notre hypothèse suggère que l’émergence de la pensée critique et sa formalisation se jouent davantage dans la maîtrise des protocoles humains et informatiques qui les sous-tendent que dans les outils de lecture et d’écriture.
Des cartographies de controverses à la génération d’arguments en contexte numérique
Orélie Desfriches, Université, Paris 8, Laboratoire Paragraphe
Nous présenterons notre travail de recherche selon une trajectoire qui part des cartographies de controverses dans une visée d’Education aux Médias et à l’Information, en abordant par la suite une modélisation de l’argumentation, qui donnera lieu à l’exposition d’un prototype de générateur automatique d’arguments, réalisé avec des étudiants.
La « raison » des machines et interprétation : l’efficacité a-t-elle un sens ?
Daphné Vignon, Université de Nantes, Laboratoire LAMO
La présente contribution explore les modalités de traitement du langage par les machines. Fondé sur un mode algorithmique, ce langage, sans être une mathématisation au sens classique, est fondamentalement asyntaxique et ne traite de la sémantique que par des leviers statistiques qui ne tiennent jamais compte du sens en tant que tel. La promesse de la « littératie digitale » a été d’accroître les échanges et de développer une intelligence collective, le travail du chercheur consistant, dans ce paysage, à définir plus ou moins finement ce qu’on comme un vecteur interprétatif inédit.
L’irruption dans le débat des robots générateurs de texte permet de réinterroger ce projet, non pas qu’elle le renouvelle entièrement, mais elle en surligne les apories formelles initiales. Les robots, conformément à l’ambition cybernétique, sont ainsi devenus non seulement des agents informationnels comme les autres, mais aussi des métalocuteurs d’un nouveau genre : entièrement automatisés sans être autonomes, les robots propagent des contenus sémantiques produits par échantillonnage et auto-renforcement qui relèguent de facto la question de la grammatisation. La grammaire, qu’on tenait pour constitutive de la langue, est en fait maintenant seconde : elle consiste à adresser des requêtes à un formalisme machinique ananthropique mais parfaitement efficace. Toute la difficulté est de savoir à quoi l’efficacité correspond dans le champ du langage, celui-ci étant entendu dans ses différentes dimensions – y compris comme fonction politique à travers l’interlocution. On peut alors se demander dans quelle mesure cette efficacité a un sens. Et même, si le sens est encore nécessaire – s’il n’est pas efficace.
Les contextes de l’interprétation à l’heure de l’IA ubiquitaire
Armen Khatchatourov, Laboratoire Dicen-IdF
Nous essayerons d’établir un parallèle entre d’un côté notre faculté ou capacité d’interprétation et, de l’autre côté, les différents rôles que le concept de « contexte » joue en intelligence artificielle.
LLM et IA Générative : impacts sur les pratiques interprétatives de recherche en SHS
Amar Lakel, Université de Nantes, Laboratoire MICA.
Dans le cadre du virage numérique que connaissent les humanités numériques, l’avènement des Modèles de Langage à Grande Échelle (LLM) et de l’Intelligence Artificielle Générative représente une révolution potentielle pour la pratique de la recherche en sciences humaines et sociales (SHS). Cette intervention vise à explorer l’impact profond de ces technologies sur les méthodologies, les outils analytiques et les approches épistémologiques traditionnellement adoptés dans ces disciplines. Nous nous attacherons d’abord à démystifier l’IA générative, en évitant les hyperboles souvent véhiculées par les médias et certains chercheurs en quête de sensationnel, pour ensuite évaluer de manière critique son influence sur la chaîne de valeur de la recherche en SHS. L’objectif est de déterminer comment ces avancées technologiques peuvent non seulement transformer les méthodes de collecte et d’analyse des données mais aussi favoriser l’émergence d’un véritable programme d’ingénierie de la recherche, propice à l’innovation méthodologique et à l’interdisciplinarité. Enfin, cette contribution se propose de jeter les bases d’une discussion plus large, impliquant diverses disciplines, sur les possibilités et les défis que présentent les LLM et l’IA générative pour enrichir et étendre les horizons de la recherche en SHS à l’ère du numérique.