LES ENTRETIENS DU NOUVEAU MONDE INDUSTRIEL 2017 

La « bêtise artificielle »

19-20 décembre 2017, Grande salle du Centre Pompidou

Dans le cadre du projet européen NextLeap, du projet ANR Epistémè et de la Chaire de Recherche Contributive Plaine Commune

Programme et inscriptions sur : https://enmi-conf.org/wp/enmi17/

 

Dans le cadre d’une réflexion globale sur une nouvelle articulation des processus de traitement de données dans la data economy (intelligence artificielle réticulée, deep learning, machine learning en général et calcul intensif), d’une part, et de l’interprétation de ces données et de ces traitements, d’autre part, et dans le contexte scientifique aussi bien que dans l’exercice de la citoyenneté et plus généralement de la responsabilité, cette dixième édition des Entretiens du Nouveau Monde Industriel se propose d’analyser l’impact des instruments scientifiques sur la constitution des savoirs académiques au moment où les technologies issues des mathématiques appliquées à l’informatique en réseau tendent à s’imposer au monde scientifique à partir des critères d’efficience prescrits par les marchés.

 

Il en résulte une menace extrême et hautement paradoxale quant aux possibilités d’exercer, de cultiver et de développer les savoirs scientifiques s’il est vrai que ceux-ci ne sauraient se soumettre aux processus de prolétarisation qui sont induits par les « boîtes noires » que les instruments et appareils deviennent pour les scientifiques désormais tout autant que pour le commun des mortels.

 

Il s’agira cette année d’analyser les problèmes posés par les instruments scientifiques numériques dont le fonctionnement et les processus de catégorisation afférents deviennent inaccessibles, aveugles et non formalisables du point de vue théorique. À l’encontre d’Ian Hacking déclarant « inutile » la « connaissance du microscope », comme à l’encontre de Chris Anderson annonçant en 2008 « la fin de la théorie » à l’époque des « big data », il s’agit ici d’analyser, de questionner et de critiquer les phénomènes de boîtes noires dans le champ instrumental et appareillé en général et dans le cas des instruments scientifiques en particulier afin d’évaluer leur coût épistémologique aussi bien que les bénéfices à attendre d’un dépassement de cet état de fait incompatible avec l’état de droit sans lequel aucun science n’est possible, et de prescrire autant que possible, dans les champs scientifiques concernés, des modèles instrumentaux et des pratiques instrumentales permettant de les surmonter.

 

Ces travaux qui seront menés en référence à l’analyse phénoménotechnique de Gaston Bachelard et à la mécanologie de Gilbert Simondon aussi bien qu’en mobilisant les questionnements et concepts d’Edmund Husserl, d’Alfred Whitehead, de Karl Popper et de Jack Goody, parmi bien d’autres, ont une valeur générique quant aux questions que pose l’expansion de l’intelligence artificielle réticulée dans toutes les dimensions de l’activité humaine. C’est pourquoi ils seront conduits dans la perspective d’une réflexion plus générale sur les enjeux de ce qui est appelé intelligence artificielle.

Dans le cas plus spécifique des sciences sociales, la question interfère directement avec les pratiques de la vie quotidienne : le calcul intensif mis en œuvre à travers la data economy et le capitalisme des plateformes généralise ces questions tout en mettant en évidence les processus performatifs induits par la vitesse de traitement des informations par les algorithmes prenant de vitesse tous les processus délibératifs, individuels ou collectifs. Ces évolutions factuelles encore très peu théorisées qui ont pénétré les marchés à travers le « capitalisme linguistique » (tel que l’a décrit Frédéric Kaplan) et la logistique de la vente en ligne atteignent désormais aussi bien la médecine dite 3.0, également appelée infomédecine, la gestion urbaine, et bien sûr la conception et la production robotisée.

La question qui se pose à travers tous ces niveaux, si hétérogènes qu’ils puissent paraître, est la fonction du calcul, les bénéfices qui peuvent en être attendus, les conditions dans lesquelles il peut être mis au service d’une délibération, qu’elle soit scientifique ou citoyenne, ou les deux, ou au service d’une inventivité sociale, et les surdéterminations induites par les formats et architectures de données.

 

 

capdigitaliri

THE NEW INDUSTRIAL WORLD FORUM 2017

 « Artificial stupidity »

 19-20 december 2017, Grande salle du Centre Pompidou

In the frame of European project NextLeap, ANR project Epistémè and Plaine Commune’s Chaire de Recherche Contributive

 

 

Within the scope of a global reflection on a new articulation of data processing within the data economy (reticulate artificial intelligence, deep learning, machine learning in general and intensive calculus), on one hand, and of the interpretation of this data and these processes, on the other hand, and within the present scientific context as well as within the exercising of citizenship and more generally of responsibility, this tenth edition of the New Industrial World Forum intends to analyse the impact of scientific instruments on the constitution of academic knowledge in a time when the technologies stemming from mathematics as applied to computer science and networks tend to establish themselves in the scientific world on the basis of efficiency criteria prescribed by the markets.

 

The result of this is an extreme and highly paradoxical threat as to the possibilities to practising, developing and cultivating scientific knowledge, if it is true that these shall not submit to the proletarianization processes emerging from the “black boxes” which the instruments and apparatuses are now becoming for the scientists as well as for the common people.

 

This year’s edition will be about analysing the problems arising from the use of digital scientific instruments in the sense that their functioning and the categorization processes they involve are becoming inaccessible, blind and impossible to formalize from a theoretical point of view. In opposition to Ian Hacking’s proposition that “a knowledge of the microscope” is “useless”, and in opposition to Chris Anderson who, in 2008, announced “the end of theory” in the age of big data, the point is to analyse, question and criticize the phenomenon of black boxes in the field of instruments and apparatuses in general and in the case of scientific instruments in particular in order to evaluate their epistemological cost as well as the benefits that can be expected from replacing this state of fact that is incompatible with the state of law without which science is impossible, and to prescribe, as much as it is possible, in the scientific fields concerned, instrumental models and practices allowing this replacement to happen.

 

These enquiries will be conducted by reference to Gaston Bachelard’s phenomenotechnics analyses and Gilbert Simondon’s mecanology, as well as through Edmund Husserl, Alfred Whitehead, Karl Popper and Jack Goody’s questionings and concepts, among other references. They have a generic value as to the questions asked by the expansion of reticulate artificial intelligence in all dimensions of human activity. This is why they will be conducted in the prospect of a more general reflection on the stakes of what is called artificial intelligence.

 

In the more specific case of social sciences, the question interferes directly with the practises of daily life: intensive calculus is implemented through the data economy and the platform capitalism generalizes these questions while highlighting the performative processes stemming from the speed of the information processing as the algorithms overtake all deliberative processes, both individual and collective. These factual evolutions  still lack theorization but they have penetrated the markets through the “linguistic capitalism” (as it was described by Frédéric Kaplan) and the logistics of online sales and they now reached the boundaries of the so-called “medicine 3.0”, also called infomedicine, as well as urban management and of course robotised conception and production.

The main question asked by all these problematic layers, although they may seem heterogeneous, is that of the function of calculus. What benefits can be expected from it? Under what conditions can it serve deliberation (scientific, civic or both) and social inventiveness? What overdeterminations emerge from the data formats and architectures?


Provisional program

 

Tuesday 19 december 2017

10h-13h

Artifical Intelligence, Artificial Stupidity and the Function of Calculus

-        Bernard Stiegler, philosophy (IRI)

-        David Bates, history of science (Berkeley)

-        Giuseppe Longo, mathematics and biology (ENS)

-        Yuk Hui, computer science and philosophy (Leuphana Un).

 

14h30-18h

Data Architectures and the Production of Knowledge

-        André Spicer et Mats Alvesson

-        Bruno Bachimont (UTC)

-        Benjamin Bratton (San Diego University)

-        Christian Fauré, Octo Technology

-       Bruno Bachimont (UTC)

-        Aurélien Galateau (Besançon University)

 

Wednesday 20 december 2017

10h – 13h

Opacity of Scientific Instruments and its Epistemological Consequences

-        Vincent Bontems, epistemology (CEA)

-        Cédric Mattews, biology, CNRS

-        Peter Lemmens, philosophy, ISIS

-        Laurence Devillers, robotics, Limsi/CNRS

-        Maël Montevil, biology (ENS)

-        Laurent Alexandre

 

14h30 – 18h

Data Processing and Civic Contribution

-        Paul-Emile Geoffroy, philosophy and social sciences (IRI)

-        Jean-Pierre Girard, archeology (MOM)

-        Thibaut d’Orso, Spideo company

-        Johan Mathé, Bay Labs company (skype)

-        Warren Sack, artist, software studies, UC Santa Cruz (skype)

 

Atelier Les écrits du numérique 3 organisé par Colette Tron (Alphabetville et Ars Industrialis) le 2 mars 2017 à la Friche de la Belle de Mai. Intervention de Vincent Puig sur  Ecriture contributive et coopératives de savoir avec une présentation du projet Plaine Commune (45:30).

A consulter sur : https://vimeo.com/channels/1216184

  • 26 avril à l’ICP, 19 rue d’Assas, Paris 6ème
  • 27 avril à l’IRI, Salle Triangle, piazza Beaubourg, Paris 4ème

Après un travail sur l’invisibilité sociale donnant lieu à un colloque international, trois nouvelles années de recherche ont permis de croiser différents regards sur la socialité contemporaine dans le contexte de l’anthropocène.

fotolia_philosophie_colloque philosophie_avril17

 Les innovations technologiques bouleversent les usages sociaux

La période actuelle de l’anthropocène se caractérise par un bouleversement des équilibres systémiques et par la désorganisation des structures sociales existantes du fait de l’innovation technologique radicale et permanente.

Cette situation nouvelle, analysée notamment à partir des travaux de Bernard Stiegler, fait apparaître des questions nouvelles : réseaux sociaux, architecture du Web, gouvernementalité algorithmique, contribution comme question politique, technologique et économique.

La socialité contemporaine au regard de la philosophie et de l’anthropologie

Ces analyses croisent celles élaborées pendant trois ans au sein du groupe PHILOPRAT concernant notamment l’identité collective dans une société d’individus, le statut des émotions et des peurs, l’enjeu des normes, le posthumanisme et le transhumanisme confrontés aux visions de l’anthropologie chrétienne, le Buen vivir et la capacitation, les Biens communs et les commons.

Un colloque de la Faculté de Philosophie de l’ICP en collaboration avec l’Institut de Recherche et d’Innovation du Centre Pompidou.

Programme sur : http://www.icp.fr/medias/fichier/philo-socialite-prog-20160721_1489423153514-pdf

Inscription sur https://www.eventbrite.fr/e/billets-socialite-contemporaine-a-lere-de-lanthropocene-32728671337

Développée par la société SopinSpace avec une contribution au code Open source de la part de l’IRI, cette plateforme à présent administrée par la société Abilian est destinée à l’annotation de textes et particulièrement pour des communautés de lecteurs ou pour préparer l’édition critique d’un nouveau texte.

https://github.com/co-ment

http://www.co-ment.com/

 

 

Développé dans le cadre du projet ANR Epistémè, CatEdit est un éditeur permettant la catégorisation contributive c’est à dire la définition de catégories, leur discussion en contexte et leur mise en relation avec des exemples, ressources et illustrations et également leur liens avec des catégories apparentées ou des sous-catégories. Développé dans l’environnement GitHub afin de bénéficier d’un traçage complet dans le temps et d’outils de discussion, l’outil CatEdit développé en Opensource a été testé dans le champ de l’astrophysique. Il est prévu de le connecter à un outil de synthèse et de visualisation sous forme de graphe tel que RENKAN et de pouvoir l’ouvrir lors d’une séance d’annotation dans Lignes de temps, dans IconoLab ou dans Hypothes.is, outil d’annotation de pages Web au format W3C Web annotation.

http://labs.iri-research.org/catedit/

IconoLab est une plateforme d’annotation d’images fixes qui permet d’attacher les annotations à des fragments de l’image de la même manière que dans Lignes de temps on associe des annotations à des segments de la vidéo. Suite à une première expérimentation de tagging d’image assisté sémantiquement par alignement sur DBPedia dans JocondeLab, la plateforme IconoLab est en cours d’expérimentation avec des communautés de contributeurs associées au Musée de Saint Dié (cartes postales anciennes, médailles) et au Musée Ingres de Montauban (planches inédites du fonds Ingres). Cette plateforme de tagging a vocation à être étendue à d’autres communautés et projets participatifs dans le champ du patrimoine culturel. Le projet vise particulièrement à mesurer la qualité de la contribution par autoévaluation et correction par les pairs.

https://iconolab.iri-research.org/home

Partenaires : MCC/DGLFLF, MCC/DGP/BDNC, MCC/DIN, MCC/SDSI, Musée de Saint Dié, Musée Ingres


Tutoriel de RENKAN, un outil d’appropriation… par culture-gouv

Renkan (連環, « link » in Japanese) is a tool for creating collaborative heuristics maps.

Capture d'écran de Renkan

Enabling real-time editing by multiple users, like an Etherpad or a Google Drive document, Renkan is a powerful tool for aggregating, editorializing and linking resources: text, images, videos, web pages.

With drag and drop functionality, all web pages opened in a browser become potential data sources, including the Ligne de Temps platform, which can be embedded on a scale of one Video or annotation.

Inspired by the semantic web, Renkan makes it possible to describe the links between resources, based on the vocabularies defined by the most common ontologies. Each resource can be associated with a URI (web address), the metadata generated by Renkan are easily interconnected.

 

 

 

 

Crew:
The design of RENKAN is the work of Samuel Huron (IRI / INRIA), Takuya ABE (III) and Raphael Velt (IRI). He was supported by the IRI teams: Raphaël Velt, Yves-Marie Haussonne, and Nicolas Sauret.

A Hashcut is both a hypervideo (clickable video) and a Mashup (mix of media).

A Hashcut is a collection of video quotes, put together end-to-end, without altering the original media, and allows everyone to propose a new look, a gateway editorialized on these media.

The Hashcut platform, set up by IRI in the « View, Annotate, Mount » workshops at the Public Information Library, offered workshop participants the opportunity to create Hashcuts from a selection of Documentaries, and view those made by other participants.

Hcut

The creators of Hashcuts, when editing from one end to the other, are invited to delimit segments of videos and annotate them before assembling them. The metadata generated by this selection process (title, description and keywords of fragments of videos) enrich the source videos, enabling an enrichment and a fine indexing of them.

Finally, all segments created by a Hashcut author are visible to other users of the platform and can be recycled into other mashups.
The accumulation of these choices of pieces, reported and visualized on the chronological frieze of a film, gives a global vision of the parts of the media that the users have deemed interesting.

Penser l’exosomatisation pour défendre la société

13-14 décembre 2016, Grande salle du Centre Pompidou

 

Partenaires : CNRS-MSH Paris Nord,

Strate école de design, Orange, Dassault Systèmes, Plaine Commune, UTC

Partenaires média : Médiapart, France Culture

Basée sur la data economy, la médecine dite « 3.0″ en est à ses premières avancées, et déjà des groupes pharmaceutiques tissent des alliances avec Google pour le développement de traitements bioélectroniques (GlaxoSmithKline) ou d’objets communicants (Sanofi), cependant que Generali repense le modèle assurantiel dans ce nouveau contexte. Or ce secteur en pleine évolution, évidemment porteur d’espoirs, est aussi la base de développement du discours transhumaniste – ce dont il s’agira ici d’appréhender les véritables enjeux.

Depuis 1993, avec l’avènement du world wide web, la connectivité généralisée a provoqué dans ce que l’on appelle désormais l’Anthropocène sa période actuelle qui est dite aussi « disruptive » : une série de transformations majeures s’est enclenchée, telle une « réaction en chaîne » au sens qu’à cette expression en physique nucléaire. Dans ce contexte, tel qu’il se combine avec l’avènement des biotechnologies, et plus généralement avec ce que Jean-Pierre Dupuy a appelé les « technologies transformationnelles », il est devenu courant de parler de « rupture anthropologique » – c’est à dire d’une bifurcation majeure dans le destin de l’humanité.

C’est aussi dans ce contexte que l’idéologie transhumaniste s’est récemment imposée dans le débat public – largement promue par l’université de la Singularité avec les soutiens de l’entreprise Google (devenue Alphabet) et de la Nasa. Il s’agit cependant d’idéologie : ce discours est profondément irrationnel.

*

À travers les Entretiens du nouveau monde industriel de cette année 2016, il s’agira de considérer l’ensemble de ces questions du point de vue de ce qu’Alfred Lotka et à sa suite Nicholas Georgescu Rœgen (tous deux mathématiciens) ont appelé l’exosomatisation . Ce concept, qui fournit une nouvelle intelligibilité du devenir humain, pourrait aussi contribuer à la formation d’un nouvel âge de la raison – face à la déraison transhumaniste.

L’exosomatisation est le processus par lequel il y a plusieurs millions d’années, la vie, dont l’évolution consiste en une morphogenèse d’organes toujours plus complexes et différenciés, également appelée organogenèse, a engendré ce que l’anthropologue André Leroi-Gourhan décrivit comme un processus d’extériorisation, et Alfred Lotka comme un processus d’exosomatisation – au cours duquel l’organique se dote d’organes inorganiques, poursuivant sa différenciation par d’autres moyens que la vie, c’est à dire à travers des organes qui ne sont donc plus endosomatiques, mais exosomatiques.

Nicholas Georgescu Rœgen a montré que c’est à partir de ce fait majeur, qui est la condition d’apparition de ce que l’on appelle l’humanité, qu’il est possible et indispensable de refonder de nos jours l’économie – comme l’a rappelé récemment Antoine Missemer – : l’exosomatisation est ce qui induit dans l’histoire du vivant un nouveau rapport entre l’augmentation de l’entropie – qui constitue le second principe de la thermodynamique – et le maintien local et temporaire de l’entropie à un niveau bas, qui caractérise le vivant – tel que l’a décrit Erwin Schrödinger dans Qu’est-ce que la vie ? . C’est ainsi à une refondation de l’économie qu’invitent les travaux fondamentaux de Georgescu Rœgen.

La période actuelle de l’exosomatisation se caractérise par une accélération extrême de ce processus constant de sélection de nouveaux organes artificiels en quoi consiste l’histoire de l’humanité, et qui se produit désormais exclusivement selon les critères du marché, ce qui est insoutenable aussi bien d’un point de vue environnemental que d’un point de vue économique, social, somatique, psychique et intellectuel.

Là où l’on nous parle de destin transhumaniste – à travers un discours massivement irrationnel qui promet l’avènement d’une hyper-oligarchie dominant une immense masse de sous-hommes – , la question s’impose de la reconstitution d’une rationalité capable de fournit les critères de sélection requis par le nouvel âge de l’organogenèse exosomatique, dont les technologies transformationnelles sont les résultats, et dont l’évolution ne saurait être prescrite par le marché à lui seul : nous savons combien celui-ci est court-termiste, spéculatif, et en cela ruineux.

Ces questions constituent un enjeu majeur pour le monde en général, et pour l’Europe en particulier. Au moment où Barak Obama discourt sur les investissements fédéraux dans la nouvelle intelligence artificielle qui est à la base de ces évolutions – mais l’intelligence noétique, constitutive de ce que les Grecs anciens appelaient le νοῦς, telle qu’elle procède précisément de l’exosomatisation dès son origine, a toujours été artificielle – , il est temps que l’Europe déploie sa propre stratégie en offrant au monde la vision et le projet d’un avenir soutenable qui s’approprie la transformation en cours en y affirmant et en y cultivant une nouvelle rationalité au moment où tous les secteurs industriels sont affectés par ce devenir, et en particulier celui de la santé.

Sessions et intervenants

 Mardi 13 décembre

 Ouverture

Serge Lasvignes, président du Centre Pompidou

 10h-13h

Session 1 – Exosomatisation et avenir de la société

L’ »augmentation » des organes organiques de l’homme par des organes artificiels – organologiques en cela – est définitoire de l’hominisation dès l’origine. Présenter l’augmentation de l’homme comme une radicale nouveauté est à cet égard une imposture. Il n’en reste pas moins que l’organogenèse exosomatique contemporaine présente des caractères tout à fait inédits.

- Bernard Stiegler, philosophe, Institut de Recherche et d’Innovation

- Dominique Lecourt, philosophe, Institut Diderot

- Jean-Michel Besnier, philosophe, université Paris Sorbonne

- Antoine Missemer, économiste, ENS de Lyon

 

14h30-18h

Session 2 – Exosomatisation, calculabilité et traitement de données

Au-delà de l’extraction corrélationniste de patterns qui caractérise les big data et les data sciences telles que les présente par exemple Chris Anderson, la vie et la santé sont irréductibles à une approche purement et simplement computationnelle. Telle que Georges Canguilhem l’a pensée dans Le normal et le pathologique, la santé, en contexte exosomatique, est toujours l’invention d’un nouvel art de vivre par un être qui « se rend malade » par ses techniques mêmes (l’être humain). Cette invention constitue ce que Canguilhem appelle une normativité qui est foncièrement ancrée dans une modalité spécifique de l’anti-entropie telle que, productrice de « bifurcations », elle échappe précisément à la calculabilité.

- David Berry, digital humanities, Sussex university

- Wendy Chun, informaticienne et media studies, Brown university

- Giuseppe Longo, mathématicien, école normale supérieure de Paris

- Johan Mathé, ingénieur, Bay labs Inc.

 

Mercredi 14 décembre

10h-13h Session 3 – Corps augmenté, intelligence artificielle et société

Fondées sur les technologies de l’information, les nouvelles industries de la santé sont une facette particulièrement sensible de ce que l’on doit appréhender comme un nouvel âge de l’intelligence artificielle que rend possible l’informatique réticulaire. Il importe cependant ici de revenir à la fois sur les réflexions de Bergson sur le vivant au début du XXe siècle, sur les références qu’y fait Georgesu Rœgen dans ses considérations sur l’exosomatisation et l’entropie, sur les conceptions et les questions des premiers penseurs de l’intelligence artificielle fondée sur les agencements homme-machine computationnelle, et sur les limites, apories et perspectives de la théorie de l’entropie dans le champ de l’humain – au moment où l’ »extropianisme », qui est l’une des sources de la pensée transhumaniste, prétend « dépasser l’entropie », au moment où les neurotechnologies « endosomatisent » les artifices exosomatiques en réaménageant le cerveau.

- Hélène Mialet, anthropologue, Toronto university

- Pieter Lemmens, philosophe, Radboud university

- Dominique Bourg, philosophe, université de Lausanne

- David Bates, historien des sciences, université de Berkeley

 

14h30-18h – Session 4 – Technologies du vivant, médecine 3.0 et transhumanisme

La médecine 3.0 est aujourd’hui un des premiers marchés de développement des services médicaux en ligne basés sur des objets communicants, sur lesquels se greffe le marketing transhumaniste des fantasmes en tout genre – cependant que le vivant et l’artificiel computationnel s’agencent de façons inédites à travers le quantified-self et la recherche de nouvelles formes de techniques de soi et de soin, souvent dans des contextes communautaires inédits et prometteurs. Qu’en est-il cependant des limites – du vivant, de la technique, de l’économie, de la terre, etc. ? Et quelles politiques de recherche et de développement industriel originales la France et le continent européen peuvent-elles promouvoir ?

- Dorothée Benoit Browaeys, journaliste scientifique, UP Magazine

- Jean-François Toussaint, médecin, physiologiste, Insep

- Gerald Moore, Durham university

- Paolo Vignola, Yachai university

 

Next Events


Calendar iCalendar

November 2017
Mon Tue Wed Thu Fri Sat Sun
 12345
6789101112
13141516171819
20212223242526
27282930EC

Plateformes ressources


Actualités



Networks   :
  • Twitter
  • Facebook
  • Delicous
  • FlickR
  • FlickR