ENMI 2017

4, septembre 2017  |  Publié : Actualités, Events  | 

 

LES ENTRETIENS DU NOUVEAU MONDE INDUSTRIEL 2017 

La « bêtise artificielle »

19-20 décembre 2017, Grande salle du Centre Pompidou

Dans le cadre du projet européen NextLeap, du projet ANR Epistémè et de la Chaire de Recherche Contributive Plaine Commune

 

 

Dans le cadre d’une réflexion globale sur une nouvelle articulation des processus de traitement de données dans la data economy (intelligence artificielle réticulée, deep learning, machine learning en général et calcul intensif), d’une part, et de l’interprétation de ces données et de ces traitements, d’autre part, et dans le contexte scientifique aussi bien que dans l’exercice de la citoyenneté et plus généralement de la responsabilité, cette dixième édition des Entretiens du Nouveau Monde Industriel se propose d’analyser l’impact des instruments scientifiques sur la constitution des savoirs académiques au moment où les technologies issues des mathématiques appliquées à l’informatique en réseau tendent à s’imposer au monde scientifique à partir des critères d’efficience prescrits par les marchés.

 

Il en résulte une menace extrême et hautement paradoxale quant aux possibilités d’exercer, de cultiver et de développer les savoirs scientifiques s’il est vrai que ceux-ci ne sauraient se soumettre aux processus de prolétarisation qui sont induits par les « boîtes noires » que les instruments et appareils deviennent pour les scientifiques désormais tout autant que pour le commun des mortels.

 

Il s’agira cette année d’analyser les problèmes posés par les instruments scientifiques numériques dont le fonctionnement et les processus de catégorisation afférents deviennent inaccessibles, aveugles et non formalisables du point de vue théorique. À l’encontre d’Ian Hacking déclarant « inutile » la « connaissance du microscope », comme à l’encontre de Chris Anderson annonçant en 2008 « la fin de la théorie » à l’époque des « big data », il s’agit ici d’analyser, de questionner et de critiquer les phénomènes de boîtes noires dans le champ instrumental et appareillé en général et dans le cas des instruments scientifiques en particulier afin d’évaluer leur coût épistémologique aussi bien que les bénéfices à attendre d’un dépassement de cet état de fait incompatible avec l’état de droit sans lequel aucun science n’est possible, et de prescrire autant que possible, dans les champs scientifiques concernés, des modèles instrumentaux et des pratiques instrumentales permettant de les surmonter.

 

Ces travaux qui seront menés en référence à l’analyse phénoménotechnique de Gaston Bachelard et à la mécanologie de Gilbert Simondon aussi bien qu’en mobilisant les questionnements et concepts d’Edmund Husserl, d’Alfred Whitehead, de Karl Popper et de Jack Goody, parmi bien d’autres, ont une valeur générique quant aux questions que pose l’expansion de l’intelligence artificielle réticulée dans toutes les dimensions de l’activité humaine. C’est pourquoi ils seront conduits dans la perspective d’une réflexion plus générale sur les enjeux de ce qui est appelé intelligence artificielle.

Dans le cas plus spécifique des sciences sociales, la question interfère directement avec les pratiques de la vie quotidienne : le calcul intensif mis en œuvre à travers la data economy et le capitalisme des plateformes généralise ces questions tout en mettant en évidence les processus performatifs induits par la vitesse de traitement des informations par les algorithmes prenant de vitesse tous les processus délibératifs, individuels ou collectifs. Ces évolutions factuelles encore très peu théorisées qui ont pénétré les marchés à travers le « capitalisme linguistique » (tel que l’a décrit Frédéric Kaplan) et la logistique de la vente en ligne atteignent désormais aussi bien la médecine dite 3.0, également appelée infomédecine, la gestion urbaine, et bien sûr la conception et la production robotisée.

La question qui se pose à travers tous ces niveaux, si hétérogènes qu’ils puissent paraître, est la fonction du calcul, les bénéfices qui peuvent en être attendus, les conditions dans lesquelles il peut être mis au service d’une délibération, qu’elle soit scientifique ou citoyenne, ou les deux, ou au service d’une inventivité sociale, et les surdéterminations induites par les formats et architectures de données.

 

Programme provisoire 

Mardi 19 décembre 2017

10h-13h

Intelligence artificielle, bêtise artificielle et fonction du calcul

-        Bernard Stiegler, philosophie (IRI)

-        David Bates, histoire des sciences (Berkeley)

-        Giuseppe Longo, mathématiques et biologie (ENS)

-        Yuk Hui, informatique et philosophie (Leuphana Un).

 

14h30-18h

Architectures de données et production des savoirs

-        André Spicer et Mats Alvesson

-        Benjamin Bratton (université de San Diego)

-        Christian Fauré, Octo Technologiqy

-        Bruno Bachimont (UTC) (sous réserve)

-        Aurélien Galateau (sous réserve)

 

Mercredi 20 décembre 2017

10h – 13h

 Opacité des instruments scientifiques et conséquences épistémologiques

-        Vincent Bontems, épistémologie (CEA)

-        Cédric Mattews, biologie, CNRS

-        Peter Lemmens, philosophie, ISIS

-        Laurence Devillers, robotique, Limsi/CNRS

-        Maël Montévil, biologie (ENS)

-        Laurent Alexandre (sous réserve)

 

14h30 – 18h

Traitement de données et contribution citoyenne

-        Paul-Emile Geoffroy (IRI)

-        Jean-Pierre Girard, archéologie (MOM)

-        Thibaut d’Orso, société Spideo

-        Johan Mathé, société Bay Labs (skype)

-        Warren Sack, artiste, software studies, UC Santa Cruz (skype)

 

capdigitaliri

  • Jamespot
  • Twitter
  • Facebook
  • Digg
  • Delicious
  • LinkedIn
  • FriendFeed
  • Tumblr
  • Netvibes Share
  • MySpace
  • Share