Ateliers THD

10, juin 2010  |  Publié : Ateliers  | 

Les synthèses de chacun des ateliers sont accessibles en cliquant sur l’onglet correspondant ci-dessus. A titre expérimental dans le cadre du projet THD, les textes portent des liens hypertextes permettant de pointer directement vers les séquences concernées dans les enregistrements vidéos des ateliers.

Afin d’éclairer les professionnels et le grand public sur les évolutions techniques, sociales et économiques induites par le déploiement des réseaux à très haut débit, la plate-forme d’expérimentations THD, pilotée par le pôle de compétitivité Cap Digital, a mis en place avec ses partenaires, la Cité des sciences et de l’industrie, le Centre Pompidou et l’Institut de Recherche en Innovation (IRI), un cycle d’une quinzaine de conférences et d’ateliers sur la durée du projet.

Les réseaux Très Haut Débit en fibre optique bouleversent les modèles techniques et économiques des services en ligne. Par leurs caractéristiques de débit élevé symétrique et de délai de latence réduit, ces réseaux THD permettent aujourd’hui le développement de nouvelles applications, irréalisables sur des réseaux ADSL, et simultanément suscitent de nouveaux usages, et ouvrent de nouveaux marchés pour les entreprises des secteurs des services et contenus numériques.

L’accès à Internet à très haut débit par fibre optique devrait compter plus de cinq millions d’abonnés en France en 2012, croissance qui devrait se faire aux dépens de l’ADSL dès 2010 (LeMonde.fr). Ces technologies de télécommunication de type FTTx (raccordement direct des abonnés en fibre optique) recouvrent un enjeu économique important lié au développement de nouveaux services numériques et contenus multimédias s’appuyant sur la très grande vitesse des réseaux télécoms, la simultanéité d’usage et les temps de réponse très courts qui favorisent les applications fortement interactives.

Les enjeux portent sur le développement, dans le secteur des services grand public (B2C), de services cartographiques 2D ou 3D de type globe virtuel, d’univers 3D persistants, de jeux vidéo multi joueurs en réseau (MMOG), de la vidéo à la demande (VOD) Haute Définition, de la téléformation et des Environnements Numériques de Travail (ENT), de la télésanté (hospitalisation à domicile) ; et dans le secteur des services professionnels (B2C), de la visioconférence HD, de la téléprésence et des environnements collaboratifs, de l’infogérance de ressources informatiques, de l’externalisation et du partage de contenus ou d’applications (ASP), de la téléformation, de la télésanté notamment autour de l’imagerie médicale, etc.

Prochains ateliers (cf. agenda à droite):

  • 15 novembre 2010: atelier THD et webcasting de conférence
  • 24 novembre 2010: atelier THD et audionumérique

Vendredi 19 juin 2009: « Réseaux optiques : Un aperçu scientifique et technique. »
Par le Professeur Ken Chen, Directeur du Laboratoire L2TI de l’Université Paris 13.

Accéder à l’enregistrement de l’atelier indexé sous Lignes de temps

Mardi 6 avril 2010: « THD et IPv6, une combinaison gagnante pour un Internet durable »
De 9h à 12h30, en salle Piazza (Centre Pompidou)

Accéder à l’enregistrement de l’atelier indexé sous Lignes de temps

Contexte et objectifs
L’arrivée progressive d’IPv6 rend le déploiement de réseaux et de services (surtout les nouveaux) nettement plus facile et plus adapté aux besoins actuels et à venir. C’est tout particulièrement le cas lorsqu’il s’agit de comparer la capacité d’adressage IPv4 vs IPv6, l’espace d’adressage d’IPv6 étant infiniment plus grand que celui d’IPv4 : 232 vs 2128 !

Parallèlement, s’oppose à cette facilité croissante de déployer IPv6, une difficulté croissante (voire inquiétante dans certains contextes) pour déployer des réseaux et services IPv4. La pénurie d’adresses IPv4 et leur épuisement prévu à l’horizon de 2012 est l’un des facteurs aggravants les plus cités aujourd’hui, mais il y en a d’autres, tels que la prolifération de boîtiers de traduction (NAT), rendant très difficiles (voire impossibles) les communications de bout en bout entre équipements ;

Dans le cadre du projet de plate-forme THD collaborent des participants représentant le profil de la quasi-totalité des acteurs de l’Internet : de l’utilisateur final (abonnés THD) au FAI/opérateur (accès Internet et transport des données) en passant par le fabriquant de l’équipement, le développeur de l’application (porteurs de projet proposant des application réseau à expérimenter par des bêta-testeurs) et l’opérateur d’infrastructures d’hébergement (banc de test et datacenter).

Cet atelier vise essentiellement à :

* informer les acteurs de l’Internet présents des apports d’IPv6 et de l’état des lieux de son adoption/déploiement ;
* sensibiliser tout particulièrement les professionnels du THD parmi eux, à l’importance d’intégrer IPv6 sans délai à tous les niveaux du déploiement : équipements, systèmes d’exploitation, infrastructure de routage et d’hébergement, applications réseau (usages) à expérimenter aujourd’hui, mais qui seront en production demain.

Format et contenu
Cet atelier d’une demi-journée comprendra des témoignages d’intervenants au profil varié, mais ayant tous une expérience très riche. Les participants pourront interagir avec les intervenants, notamment sur les aspects suivants :

* Pourquoi IPv6 ? Qu’apporte-t-il ?
* Quel rôle jouent les différents acteurs dans le déploiement d’IPv6 ? Où en est-on ?
* Quelles approches et actions concrètes à recommander en matière de d’intégration d’IPv6, afin de bénéficier pleinement des capacités de l’infrastructure THD mise à disposition ?
* En quoi la combinaison « THD+IPv6 » participerait-elle d’un « Internet durable » ?

Intervenants
Patrick Cocquet*, Cap Digital (discours d’ouverture)
Mohsen Souissi, AFNIC (animateur)

Panel :
- Rémi Després, RD-IPtech
- Thierry Ernst, INRIA
- Christian Jacquenet, France Telecom
- Jean-Michel Planche*, Witbe
- Karine Perset, OCDE
- Luc Imbert, Cisco

* à confirmer

Inscription à l’atelier sur le portail THD
Télécharger le flyer du séminaire

Synthèse de l’atelier:

L’atelier fera un état des lieux du taux de pénétration de l’internet, en France et dans le monde. Puis on comparera les points de vue des participants sur l’intérêt de l’IPv6, sa progression en France selon les acteurs : utilisateurs, développeurs, FAI, constructeurs, etc. Enfin on réfléchira sur les développements futurs de l’internet, facilités par l’IPv6 et le THD.

Patrick Cocquet, ancien animateur de la communauté Ipv6 notamment chez Dassault et au sein de sa société, Six Wind (1e constructeur français de routeur IPv6), est le délégué général de Cap Digital le pôle de compétitivité des contenus numériques de la région Île de France. Il vient faire un rappel des enjeux du projet THD et de l’intérêt de la recherche sur l’IPv6. Cap Digital propose une plateforme qui permet aux entreprises candidates de tester leurs projets. Un banc-test est disponible à Paris 13 où les porteurs de projets peuvent travailler avec des panels d’utilisateurs sur les nouveaux usages. Beaucoup des PME participantes reçoivent l’aide d’Oseo. Quelles unes vont présenter leur projet dans cet atelier. La plateforme prévue jusqu’à avril 2011 deviendra peut-être une structure pérenne.

Mohsen Souissi de l’AFNIC (centre d’information et de gestion des noms de domaine internet en France) présente l’atelier. Plusieurs partenaires vont tenter de répondre à la question: Comment développer l’internet pour les générations à venir ? Pour illustrer son propos, le présentateur projette un documentaire américain de 15mn en vidéo sur l’évolution d’internet dans le monde depuis le début. Il met en évidence un problème d’adressage croissant. L’IPv6 peut-il être la solution ?

Ensuite, Mohsen Souissi montre sur un exemple de 3 utilisateurs les usages les plus fréquents et les conséquences de la multiplication des abonnés a l’internet pour ensuite présenter les prochains intervenants.
Le premier intervenant, Luc Imbert de la société Cisco. Pour lui, les mobiles sont le moteur de l’IPv6, en raison du nombre de terminaux. La connectivité IPv6 a réellement commencé en 2004. Pour l’heure, il constate que le nombre des nouveaux usages est encore anecdotique chez les particuliers: outils quotidiens, « internet objet ». En revanche, du côté des entreprises, il y a de nouveaux besoins.

Thierry Ernst de l’INRIA est un ancien de Keio University (Japon) au début 2001 où l’IPv6 était déjà utilisé systématiquement à tous les niveaux.
On espère des offres de la société Free prochainement. Mais il remarque que les utilisateurs ne sont pas près à payer plus cher pour IPv6. La France a 10 ans de retard par rapport au Japon, mais n’est pas la plus mal placée en Europe.

Jean-Michel Planche fondateur de la société Witbe fait un état des lieux des utilisateurs: les chercheurs, les opérateurs, les utilisateurs privés et professionnels et signale que depuis 1997, on parle de pénurie d’adresses. Pour lui, maintenant il est temps. L’internet n’est pas sécurisable en Ipv4, mais pourra l’être en Ipv6. Dans ce domaine, il y a deux groupes, les équipementiers et les opérateurs. Le secteur de ces derniers est dominé par les U.S.A. Enfin pour l’internet des objets, il milite pour la maîtrise de son installation par l’utilisateur.

Ken Chen de Paris XIII pose la question de l’intérêt pour les développeurs d’intégrer IPv6 sur des applications réseau. Et déclenche une discussion sur l’intérêt pour les développeurs d’applications réseau d’intégrer IPv6. Mohsen Souissi fait remarquer qu’en Asie, les développeurs d’API ne se posent plus cette question de version d’IP. Et Jean-Michel Planche rappelle que la puissance c’est l’application et ce sera à elle de découvrir son environnement. (IPv4 ou 6, cloud-computing, etc…)

Christian Jacquenet est le Monsieur IPv6 à France Telecom. dans cette entreprise, l’IPv6 est une histoire qui a commencé dés la fin des années 1990. Les premières Live box IPv6 vont être proposés en 2011 par Orange.
L’activité de France Telecom se partage entre l’international et le développement de services IPtv sur tous les supports suite aux demandes fortes des entreprises en France et ailleurs. Le passage à l’IPv6 se fera en 3 phases.
A la demande de Mohsen Souissi, Christian Jacquenet parle de l’Open Transit, le back bone international de France Telecom, un mouvement de transit des formats d’adresse, et de son positionnement à l’international.
Mohsen Souissi reparle du problème matériel de l’existence d’un nombre important de routeurs qui ne supporteront jamais l’IPv6.

Puis il présente le travail de Karine Perset, économiste à l’OCDE, absente ce jour, mais qui a envoyé son rapport pour l’OCDE pour expliquer la situation de l’internet dans le monde. Elle a étudié un grand nombre d’acteurs par catégories car aucun acteur n’a une vision totale de l’internet aujourd’hui. Mais chacun peut mesurer la pénétration d’IPv6 avec une certaine définition. Il ne reste que 22 préfixes dont une bonne partie « squattées » (utilisées puis rendues) et donc « pourries » (soit 8% en Avril 2009). Pour Jean-Michel Planche, les problèmes de courriel ne surgissent pas uniquement avec ces adresses inutilisables, mais avec aussi celles d’opérateurs. Et il s’agirait d’une mauvaise compréhension du marketing de la question. En payant un supplément, il est possible de demander une adresse DNS.

Le rapport de Karine Perset, très complet et bourré de chiffres, décrit avec précision le taux de pénétration de l’IPv6 en s’appuyant sur l’observation d’un maximum d’acteurs : les professionnels des réseaux et les FAI, les utilisateurs et les mobiles, les fournisseurs de contenu et les développeurs d’applications. Sur le développement des nouveaux services elle constate que l’IPv6 va plus rapidement quand il est seul, mais si IPv4 est déjà installé c’est plus lent. Avec Jean-Michel Planche, Mohsen Souissi rappelle l’épisode de la pétition de Free sur son passage à l’IPv6.

L’animateur de l’atelier nous présente Rémi Després, Inventeur de 6rd (RFC 5569), ancien directeur technique de Transpac. Selon ce chercheur, le problème à résoudre: il faut rallonger les adresses, donc passer à l’IPv6. Il raconte comment lui est venue son idée de technologie simple pour l’installation de l’IPv6 en France: c’est le 6rd (développement rapide pour IPv6), qui est en train de devenir un standard international, car très simple. Free a été le premier à réagir très vite. En cinq semaines, Free a déployé IPv6.
Puis Google a passé un accord avec Free, opérateur jugé performant sur IPv6, car auparavant, seules deux technologies IPv6 existaient, mais peu fiables:
- terredo de Microsoft
- 6to4 aux USA.
On ne migre pas vers IPv6, on rajoute IPv6, à côté de l’IPv4, précise Rémi Després.
Pour combler le manque d’adresse on avait créé le NAT (bien pour le web) mais les connections entrantes sont difficiles. IPv6 restaure le fait que chaque machine peut avoir une adresse. Il existe d’autres possibilités offertes par cette technologie :
Application Free: TV site (page web de son ordi sur son écran tv), on peut le faire à distance.
Application Microsoft: Meeting en IPv6 natif.

Débat :

Mohsen Souissi propose à la salle d’intervenir et c’est Jonathan Robin, membre de la task force française (I.E.T.F.), qui fait remarquer l’implication de cette structure dans l’investissement fait en France, dans le domaine technique, mais aussi sociétal.
A son tour, Rémi Després renchérit en indiquant le livre en français de la task force dont il s’est servi pour travailler à son invention. Mohsen Souissi montre le site de l’organisation sur internet, une référence en français et une ressource technique très importante.
A une question sur la protection de la vie privée, Mohsen Souissi répond qu’il existe des solutions pour garantir l’anonymat. Mais, en tout état de cause, pour être appelé il faut de toute façon publier son numéro. Et la vie privée est plus espionnée par notre navigation sur internet (c’est à ce moment que sont collectées des informations sur nous et à notre insu) que par la publication de notre adresse qui est protégée.
Pourquoi il n’y a pas de dead-line pour le passage à l’IPv6 ? C’est une préoccupation de la salle qui pose plusieurs fois la question.
Pour Rémi Després, il n’y a pas de date, mais on va vers une mixité IPv4-v6 pour une durée assez longue. Selon JM Planche, il n’y aura pas de décision venant d’en haut : il faut que les acteurs se mettent d’accord. Et Thierry Ernst signale qu’il n’y a pas de date butoir. Mais quelques recommandations sont données (notamment par le ministre, Eric Besson) qui tournent autour du nombre de 25% des utilisateurs équipés en 2010. Car imposer une solution signifierait mettre des moyens, ce qui n’est pas vraiment à l’ordre du jour, malgré le travail du G6 et de l’IETF. Pour Rémi Després, il ne s’agit pas de fermer l’IPv4, mais d’ouvrir l’IPv6. Mohsen Souissi précise que le THD et la fibre optique ont absolument besoin de l’IPv6 pour se développer.
Jean-Michel Planche remarque que les politiques ont une vision datée du THD, basée sur les spécifications techniques du satellite ! Il faut savoir utiliser les technologies à notre disposition. Savoir s’occuper des causes des problèmes et pas seulement des conséquences. Avoir des API pour contrôler notre quotidien sans passer par Google, etc. A l’image de l’électricité, pourquoi ne pas imaginer un fonctionnement à partir des usages ?

Thierry Ernst (INRIA) fait aussi partie de l’association du G6, qui est une structure ressources pour l’IPv6. Il présente une histoire de l’association G6. Il conclut en parlant des difficultés qu’a le G6 pour trouver les moyens pour faire du lobbying auprès du gouvernement.

C’est le moment de conclure et le modérateur de l’atelier demande à chaque participant de présenter sa vision de la progression de l’IPv6 en France.

Pour Christian Jacquenet, de Orange, il y a des difficultés techniques dues à la période de transition, au niveau des équipements, des fournisseurs de contenu, sensibilisation des constructeurs. Il faudra faire un travail de sensibilisation auprès des utilisateurs et clients.
Il existe des workshops pour échanger de l’expérience sur les performances de l’IPv6.
On peut être optimisme.

Du côté de Luc Imbert, de Cisco, il faut accueillir de nouveaux acteurs sur internet.
Des boitiers à 100 Gbs à des développements Open Source. Le problème n’est pas la migration mais la croissance vers un Internet dont on ne connait pas le contour aujourd’hui. Il propose des exemples de croissance: internet des objets, surveillance du réseau EDF avec 35 millions de compteurs qui pourrait être connectés, surveillance connectée des réseaux de distribution d’eau.
La complémentarité du THD c’est l’accessibilité. Vu la croissance du débit, la fluidité viendra de l’IPv6.

Thierry Ernst, de l’INRIA, insiste sur les nouvelles applications et les nouveaux usages. L’installation en IPv6 doit conserver la possibilité d’être en relation avec des installations IPv4. Les exemples d’applications sont nombreux là aussi, notamment dans le domaine de l’automobile : systèmes coopératifs, GPS, détection de danger, limite de vitesse, météo, gestion du trafic.

Rémi Després rappelle l’importance de collaborer dans des plateformes pour travailler sur les nouveaux usages comme, par exemple, la connection des TV (à l’exemple de Apple TV).
Il est pessimiste si certains souhaitent garder les mêmes barrages que sur IPv4, alors qu’IPv6 apporte le fait qu’on peut être appelé de l’extérieur facilement.
Mais il devient optimiste car les opérateurs sont demandeurs de migration sur IPv6 et d’internet des objets.

Jean-Michel Planche fait un petit tour du monde de l’IP et en conclut qu’il faut préserver le rôle des opérateurs. Cependant, il note que l’Internet à 30 euros par mois a cassé le développement de services de qualité (Orange …) Il réitère son souhait que chacun ait le contrôle de son installation internet. Si on ne fait rien on se verra imposer des contenus et des services par le gouvernement (TNT) ou par Apple ou par Google.

Mohsen Souissi conclut en partageant l’optimisme des orateurs. Mais conseille de faire attention à ne pas appliquer les réflexes « rustine » d’IPv4.

Vendredi 26 mars 2010: « Cinéma et réseaux numériques »
De 15h à 18h00, en salle Piazza (Centre Pompidou)
Atelier organisé avec la participation des partenaires du projet FUI CineCast

Accéder à l’enregistrement de l’atelier indexé sous Lignes de temps

Les principaux acteurs du monde culturel, publics comme privés, portent un intérêt croissant à la profonde mutation introduite par le passage d’une économie culturelle reposant sur la consommation et l’audience de masse à une économie culturelle bouleversée par le développement des réseaux numériques à très haut débit (dits THD) et reposant largement sur la contribution et les échanges. L’économie et les pratiques sociales du cinéma qui étaient initialement construites sur un modèle asymétrique et centralisé analogue à celui de la diffusion télévisuelle ou radiophonique évoluent ainsi vers des modèles de plus en plus flexibles, distribués et symétrique où les pratiques des amateurs se complexifient et se diversifient en amont comme en aval de la diffusion. A ce point de convergence critique, que d’aucun désigne comme le Web 3.0, de grands acteurs industriels investissent et développent de nouvelles activités, pour assoir leurs stratégies industrielles dans le secteur du cinéma avec un focus particulier sur la qualité des métadonnées et à la flexibilité de la diffusion des films compte tenu de l’équipement des salles en réception et projection numérique (fiber-to-the-theater). De nombreuses sociétés investissent également le marché de ce que l’on désigne sous le nom d’ingénierie sociale (c’est-à-dire les technologies et services pour les sites collaboratifs et les réseaux sociaux), et imaginent de nouveaux modèles économiques  fondés sur la combinaison de logiques bottom-up et top-down permise par la généralisation des réseaux  THD symétriques.

L’objectif de cet atelier piloté par l’Iri (Institut de recherche et d’innovation) et mis en place dans le cadre du projet de plateforme régionale THD coordonné par Cap Digital, est d’interroger l’impact des technologies THD sur l’évolution des modèles économiques de l’industrie cinématographiques ainsi que sur les pratiques culturelles et sociales afférentes. Un intérêt particulier sera porté au développement des pratiques contributives d’enrichissement et de diffusion de contenus, ainsi qu’à l’émergence de nouveaux services à haute valeur ajoutée, tant au niveau des fournisseurs de contenus que des medias sociaux connexes.  L’atelier sera ainsi structuré autour des thématiques ci-dessous, dans la perspective des opportunités offertes par les réseaux très haut débit :

15h00-15h20 : Introduction à l’atelier

  • Vincent Puig, Directeur Adjoint de l’Institut de Recherche et d’Innovation

 

15h20-16h00 : Technologies numériques et diffusion

  • Matthieu Sintas, Responsable Cinéma numérique de SmartJog

 

16h00-16h40 : Nouveaux modèles économiques

  • Frédéric Sitterlé, Fondateur deMy Skreen
  • Thomas Jullienne, Responsable Marketing Salle d’AlloCiné

 

16h40-17h20 : Pratiques sociales et contributives

  • David Honnorat, co-fondateur, Directeur produits et communautés de Vodkaster
  • Bruno Daniault, Président de IP…Ciné

17h20-18h00 : Débat sur les enjeux du très haut débit

Inscription et information : par mail à l’adresse suivante : contact@iri.centrepompidou.fr

Sites relatifs aux projets THD et CineCast : http://portailthd.fr, http://thdculture.fr, http://cinecast.fr

Télécharger le flyer de l’atelier

Synthèse de l’atelier:

Vincent Puig (IRI) a commencé par rappeler le contexte et les objectifs de cet atelier organisé dans le cadre du projet de plateforme régionale THD piloté par Cap Digital. Il a détaillé la liste des financeurs et des partenaires, la structuration du projet, ainsi que les possibilités d’expérimentation de nouveaux services sur les réseaux thd permises par la dite plateforme. L’atelier est organisé par et à l’initiative de  l’IRI mais fut également l’occasion d’impliquer les parties prenantes et partenaires d’un autre projet soutenu par CapDigital, le projet CineCast (projet portant sur l’étude des nouvelles pratiques dans le cinéma numérique). Le projet Cinecast d’une durée de 3 ans concerne la conception d’outils collaboratifs comme « Lignes de Temps » couplés à des réseaux sociaux afin d’explorer les possibilités de renouveler avec les outils numériques contemporains un esprit « Ciné-club ». Vincent Puig a ensuite présenté plus en détail l’ensemble des partenaires du projet de plateforme THD. Puis il a rappelé le contexte induit par l’actualité et notamment celui de la directive et du projet de loi sur le financement équitable de l’équipement numérique et THD des salles (en réponse à un avis négatif d’un premier projet soumis par le CNC à l’Autorité à la concurrence (Cf. le communiqué de presse du CNC  en date du 17 février 2010) annonçant ce dispositif de financement de la numérisation de toutes les salles, liant enjeux économiques et techniques : le cinéma est en effet bouleversé par les technologies collaboratives tant au niveau de ses infrastructures d’ accès  ainsi qu’en termes de modèles économiques et de nouvelles pratiques (qui remettent en cause le cinéma dans sa temporalité même (à titre d’exemple le dépassement du mode push avec le ciné-club à la carte et la convergence entre fiber-to-the-theater et fiber-to-the-home, à la différence de qualité près).Vincent Puig conclut sa présentation avec quelques mots sur le projet Cinecast permettant le développement de nouveaux outils dans le contexte des pratiques sociales assises sur le cinéma numérique, en relation avec des plateformes de réseaux sociaux en partenariat avec la plupart des grandes bibliothèques de films.

La parole est ensuite donnée à  Jeremie Roudaire, (société Globecast)pour introduire la thématique des Technologies numériques et de leur diffusion. Filiale de France Telecom spécialisée dans le transport de contenu et de chaines de TV un peu partout dans le monde, Globecast est associée au projet CinéCast via l’une de ses filiales, Nettia (gestion de contenus via des outils d’asset management) qui assure la coordination du projet logiciel de CinéCast.La livraison de films en salles est aussi une des spécialités de GlobeCast. Le métier de globecast est notamment le transport des contenus et avance notamment à grands pas dans la livraison de films dématérialisés par satellite et par fibre optique. Jérémie Roudaire a ensuite rappelé les travaux  actuels visant à l’hébergement de la future plateforme de CineCast, en relation avec les développements logiciels effectués par Nettia.

Vincent Puig a ensuite passé la parole à  Frédéric Sitterlé, (société MySkreen) afin d’introduire la thématique Nouveaux modèles économiques. Frédéric Sitterlé a introduit son intervention en précisant que les récentes révolutions numériques et la mutation qu’elles ont induit dans l’industrie cinématographique ne sont que la dernière phase (en date) d’une série de mutations qui a notamment touché précédemment l’industrie musicale et la presse. Celle-ci a en effet été vécue dans ce milieu  comme un traumatisme par les professionnels, I-tunes aurait ainsi par exemple contribué à détruire le modèle économique de l’industrie musicale. Frédéric Sitterlé a été en charge au Figaro de la relance des nouveaux médias des activités internet du groupe (2005) dont, maintenant, la moitié du résultat vient des activités sur internet. Dans l’audiovisuel, le groupe Figaro a décidé la création de MySkreen pour accompagner les acteurs de l’audiovisuel dans leur mutation numérique. MySkreen est financée par le groupe Dassault, et par le groupe Figaro, afin d’assurer une large diffusion des œuvres audiovisuelles, les rendre accessibles, et ainsi de lutter contre le piratage. Dans HADOPI, il y a DO, c’est-à-dire diffusion des œuvres : une façon efficace de lutter contre le piratage est de développer une offre légale facilement accessible et à un juste prix. MySkreen est une nouvelle plate-forme pour accompagner les diffuseurs dans leur passage au numérique, et leur laisser la liberté de fixer leurs prix et la relation avec leurs clients, pour proposer aux internautes une alternative à l’offre pirate et remplacer l’offre étrangère qui détruit le modèle économique.Les propositions de MySkreen sont articulées autour de trois axes: 1/ rendre les contenus plus accessibles, i.e. où sont les offres légales (1 million de contenus référencés sur cette plate-forme) ; 2/ rendre les accès plus simples (par exemple par le biais de players intégrés (technologie OuLOO) ; 3/ proposer cet accès au meilleur prix pour défendre un modèle économique. Sur la plate-forme, un comparateur de prix.Démo et description des fonctionalités du site pour le cinéma et pour la télévision.

Séance de questions à Frédéric Sitterlé

Matthieu Sintas (société SMARTJOG) a poursuivi sur la thématique Technologies numériques et diffusion. Matthieu Sintas est responsable du cinéma numérique dans la société SMARTJOG. SMARTJOG est une société française d’une cinquantaine de personnes, filiale à 100% du groupe TDF, basée à Paris avec un bureau permanent à Los Angeles. Elle développe des technologies visant à offrir des services aux différents intervenants de l’audiovisuel: distributeurs, régies publicitaires, chaines, société de post-prod, ainsi qu’à diverses plateformes de chargement de films , etc… Ces technologies permettent le transfert de fichiers de serveurs à serveurs, dans un réseau privé entre ces sociétés (800 points dans le monde). L’accès se fait à partir de catalogues en ligne à destination des distributeurs de films. Dans ce but, SMARTJOG  a créé et gère 24/24h, 7/7j, une plate-forme web très sécurisée (certains contenus étant très sensibles). Sur ces plateformes les utilisateurs accèdent à leurs espaces où ils peuvent se connecter avec ceux de leurs partenaires qui font partie ou non du réseau SMARTJOG, pour gérer leurs fichiers ou suivre l’évolution de leurs transferts. Question technologie  SMARTJOG utilise  d’une part des outils open-source, et développe d’autre part en interne le cœur de la technologie à savoir le protocole de transfert ainsi que les autres applications nécessaires à la gestion de la plate-forme : pages web, gestion physique des serveurs, plus tous les outils internes nécessaires. La société emploie 50% d’ingénieurs en informatique bac+5 ( avec un haut potentiel technique). SMARTJOG qui auparavant s’occupait d’autres services pour les distributeurs (doublage, post-prod, marketing, etc…) a jugé naturel d’étendre son offre de transfert de contenus numériques, dès que les salles ont commencé à s’équiper en technologies numériques. Depuis 3 ans, 160 établissements de cinéma (environ 500 à 600 écrans) bénéficient des services de SMARTJOG. Dans le paysage français, SMARTJOG compte 2200 à 2300 établissements clients ce qui équivaut à environ 5500 écrans dont environ 1 millier sont équipés du numérique (il s’agit davantage de multiplexes que de cinémas de proximité). Le processus de transfert est le suivant: le distributeur choisit son film, sélectionne ses salles, fait un envoi. Lorsque le film est arrivé chez l’exploitant, chacun reçoit un mail. L’exploitant transfère le film du serveur de réception  (mis à disposition par SMARTJOG) à son serveur de projection. En termes de moyens techniques de diffusion, la plateforme est complètement hybride, et possède un accès permanent à une plateforme satellitaire chez Intelsat (couvre le monde entier, mais pour l’instant, concerne l’Europe). La technologie offre des possibilités de multicast ou d’unicast pour chaque film, pouvant aller jusque quatre films par semaines soit 40 à 50 salles par semaine : SMARTJOG distribue les films, les films-annonces, les avants séances en direction de Screenvision, Mediavision, etc. Le satellite est le moyen le plus simple d’obtenir du hd et d’arroser un territoire très vaste. Le coût d’accès à la plate forme est assez élevé, mais le satellite est adapté à la diffusion simultanée vers un grand nombre de sites. Il reste cependant inadapté à toute diffusion souple, individuelle car c’est un lien non symétrique qui n’autorise pas de nouvelles utilisations de la salle de cinéma. Seule la fibre pourrait permettre ces nouvelles pratiques.

Séance de questions à Matthieu Sintas

Thomas Julienne (Allociné) a poursuivi la discussion sur l’audience et les modèles économiques.Rattaché au marketing, Thomas Julienne est en charge des relations avec les exploitants, et s’assure notamment que la communication des horaires sur AlloCiné se fait correctement. En terme d’audience, Allociné, c’est 1 million de visiteurs uniques par jour sur AlloCiné.fr, et  80 000 visiteurs uniques par jour sur l’application I-phone, 900 000 vidéos diffusées sur le site chaque jour (incluant des films annonce et des émissions d’Allociné, (6 émissions produites actuellement dont « DirectToDVD » sur les sorties DVD) Deux personnes (sur  la centaine qui travaille à AlloCiné) travaillent au service AlloCinéSalles. 1626 cinémas apparaissent sur le site d’AlloCiné, dont 1356 sont partenaires. Un cinéma partenaire est un cinéma qui a fait le choix de remonter ses horaires de manière directe aux extranautes via un extranet soit via un flux XML, soit via le système de caisse. Au niveau de la vente des billets, 950 000 billets ont été vendus via AlloCiné en 2009, via 3 systèmes principaux : listing de réservation par fax, Europalas et UGC. Thomas Julienne a détaillé l’exemple de 3 films qui sont des événements marketing: Avatar, This is it, et Bienvenue chez les Ch’tis. Le cœur de l’activité d’AlloCiné Salles est de convaincre les exploitants de faire l’effort de remonter leurs horaires et AlloCiné met à leur disposition gratuitement un extranet. Thomas Julienne a décrit succinctement les services et avantages fournis par cet extranet. Un exploitant peut notamment venir piocher dans la base de media allociné les contenus (en MPEG2 720p) relatifs à une requête donnée (easer, bande annonce…). Allociné envisage notamment de diffuser ces contenus en inter-séance, souvent très mort en France (par exemple es actualités cinématograpohiques), avec très prochainement un accès par émission. Enfin en phase de test avec un distributeur (Walt Disney avec Alice et Prince of Persia), diffuser des films annonces en numérique, sans passer à chaque demande par le distributeur.

Séance de questions à Thomas Julienne

Vincent Puig a ensuite donné la parole à David Honorat (Vodkaster) pour poursuivre cette troisième partie sur les modèles économiques. Vodkaster.com est un site lancé en octobre 2009. Ce site est né d’un constat, celui que depuis 2005 (l’apparition de YouTube, de Dailymotion…) internet est devenu un medium audiovisuel à part entière, mais la place du cinéma dans ce nouvel espace  demeurait  insuffisante et l’infrastructure inadaptée sur le web. La démarche de la société Vodkaster fut donc de chercher à  réconcilier le web2.0 et le cinéma, avec l’idée de prendre pour unité de base un format assez peu exploité jusqu’ici, à savoir la scène de film. Vodkaster est donc une plateforme video collaborative fondée sur la scène de film. La société négocie avec les ayants-droits de pouvoir accéder aux droits d’échantillonnage du film, de pouvoir les indexer et les publier.13000 scènes de films sont actuellement indexées de manière collaborative. Il s’agit donc de mettre en œuvre de nouveaux modes de valorisation de ces extraits par le biais d’applications virales et/ou ludiques adaptées aux comportements et aux usages des internautes. Pour les ayant-droits, Vodkaster est ainsi une plateforme de promotion sur laquelle ils peuvent s’appuyer pour disperser leurs contenus sur les blogs et les réseaux sociaux, des contenus qui font la promotion de leurs catalogues. En termes de modèle économique et de financement du système, les contenus et métadonnées peuvent être vendus en marque blanche à l’extérieur ou sponsorisés  sur le site afin de développer des applications originales (notamment grâce au moteur de Quizz Vodkaster).

Séance de questions à David Honorat

Bruno Daniault (IP Ciné) a enfin conclu cet atelier et le thème des pratiques sociales et  contributives. La plateforme Equinoe est un nouveau mode d’exploitation du cinéma collaboratif qui permet de mettre en place la séance à la demande. La séance publique est programmée par l’utilisateur et peut être partagée. Chaque accès séance est payée, ce qui rémunère la chaine des droits. On peut se faire offrir la séance par un annonceur (qui se paiera en sollicitations publicitaires ensuite).  A l’origine, il y avait une vraie volonté de mettre à disposition tout le patrimoine difficilement accessible dans les circuits traditionnels. C’est la nécessité de rentabiliser les couts d’exploitation qui justifierait la numérisation. La diffusion par réseaux numériques diminue les coûts logistiques et d’infrastructure. IP Cine se positionne ainsi uniquement comme exploitant, avec un rôle pédagogique vis à vis des distributeurs et des producteurs.

Conclusion de Vincent Puig et annonce des prochains ateliers

Jeudi 27 mai 2010 : « Technologies 3D et réseaux THD : de nouvelles opportunités de services en ligne grand public et de ressources mutualisées pour les professionnels »
De 14h30 à 18h00, en salle Piazza (Centre Pompidou)

Accéder à l’enregistrement de l’atelier indexé sous Lignes de temps

Télécharger le flyer de l’atelier

Cet atelier, sur le thème des technologies 3D et des réseaux THD, qui réunit un panel d’acteurs industriels du 3D venant d’horizons très divers, sera l’occasion d’échanger sur les perspectives techniques, les nouveaux services 3D et l’évolution probable des pratiques numériques pour le grand public, ainsi que sur les nouveaux services destinés aux professionnels.

Animation de l’atelier : Stéphane Singier, chargé de mission veille stratégique et compétitivité territoriale du pôle Cap Digital Paris Région

14h30 : Introduction de l’atelier, présentation rapide de la plate-forme THD et croisement avec la thématique « 3D »
Olivier Jonas – Tecdev – Coordination opérationnelle de la plate-forme THD

1ère partie : 3D+THD et services B2C

14h45 : Maquettes urbaines 3D et services géolocalisés : la vision d’un spécialiste « historique » de la synthèse d’images, Archividéo
François Gruson – Directeur d’Archividéo

15h00 : Les nouveaux services 3D cross-media : le projet Zavatars, ou comment raviver l’audience TV par la réalité virtuelle.
François-Xavier Cardon – Directeur général de 3D2+

15h15: La cartographie 3D temps réel pour des applications pédagogiques : le serious game TI3D (Terres Interactives 3D) expérimenté par Navidis.
Philippe Perennez – Directeur r&d de Navidis

15h30 : Les enjeux du rendu 3D déporté pour le jeu vidéo. Présentation du projet européen Kusanagi.
Cyril Mory – Consultant Eureva, Chef de file du projet Kusanagi

15h45 : Bases de données urbaines 3D, réalité virtuelle et réalité augmentée. Les démonstrateurs de services 3D du projet Terra Numerica.
Maurice Benayoun – Cofondateur du laboratoire CITU (Universités Paris 1 / Paris 8 )

16H00 : Discussion entre les participants.
Table ronde animée par Stéphane Singier – Chargé de mission du pôle Cap Digital.
Les nouveaux usages et services 3D suscités par les réseaux THD…

2ème partie : 3D+THD et services B2B

16h30 : Les enjeux des services cartographiques 3D de type SaaS.
Nicolas Paparoditis – Directeur du laboratoire MATIS de l’IGN

16h45 : Les Systèmes d’Information Géographique 3D et l’infogérance d’entrepôts de données.
Nicolas Klein – Consultant SIG sur le projet Terra Magna, Star-Apic

17h00: Le « très très haut débit » pour un cluster de production de contenus 3D et audiovisuels numériques en France et à l’international: le projet Sebastian 2
Jean-Hugues Lauret – Directeur des partenariats, EISTI

17h15 : Les grandes bases de données urbaines 3D, les projets Terra Numerica et Terra Dynamica. Les enjeux du rendu 3D déporté.
Pascal Peyronnet – Chef de projet Terra Numerica et Terra Dynamica, Thales Services (sous réserve)

17H30 : Discussion entre les participants.
Table ronde animée par Stéphane Singier – Chargé de mission du pôle Cap Digital.
Enjeux techniques, organisationnels et économiques des applications cartographiques 3D Software as a Service, du rendu 3D et du cloud computing, des réseaux très haut débit et de la mutualisation de ressources…

Information et inscription: contact@iri.centrepompidou.fr

Synthèse de l’atelier

L’atelier abordera les interrogations des divers acteurs (chercheurs, constructeurs, utilisateurs et autres professionnels, usagers…) qui peuvent se résumer ainsi: quel est l’impact de ce mode de transport de données dans les métiers ? Les réseaux thd changent-ils la donne au niveau contenus, pratiques, services, usages ?

C’est Olivier Jonas (Coordinateur de la plate-forme THD) qui ouvre l’atelier et fait un point rapide sur l’histoire du haut-débit en France avec le début de la fibre optique en 2007, et sur les avancées technologiques. Puis il expose l’organisation de la plate-forme avec ses partenaires et ses financements: présentation des précédents séminaires et des sites internet
Présentation de l’atelier du jour : THD-3D avec Stéphane Singier comme modérateur et des intervenants de cet atelier.
Ensuite, il présente le déroulement de la demi-journée divisée en deux sessions :
Première session: présentation de services et contenus grand public par les industriels qui présenteront leur projet en cours d’expérimentation sur la plate-forme THD (5 intervenants)
Deuxième session: services B2B (business to business), (4 intervenants)

François Cruzon d’Achivideo est spécialisé dans les maquettes urbaines 3D et les services géo-localisés. Achivideo est une société de prestation de services qui fait depuis 1985 de la création d’image 3D pour l’architecture et l’urbanisme dans les collectivités territoriales. 25% des 14 salariés de l’équipe travaille en R&D pour automatiser et augmenter la marge sur les produits vendus.
Depuis quelques années, Achivideo s’est spécialisée dans les maquettes urbaines 3D et les services géo-localisés. Les principaux clients sont : les villes, Les pages Jaunes, la Société du Tour de France, etc. C’est au travers d’expérimentations avec les Pages Jaunes qu’il comprend que son métier est en train de changer

La société 3D2+, soucieuse de ramener les internautes vers la télévision présente son nouveau concept de jeu, « Zavatar ». Sa première particularité est qu’il est crossmedia, c’est-à-dire qu’il est accessible par plusieurs média au même moment : télévision, ordinateur et mobile. L’autre particularité est l’utilisation de la 3D.
Le projet joue sur l’articulation du présentateur réel avec des avatars.
Pour François-Xavier Cardon, les émissions sont moins chères à produire et plus créativse. L’utilisation de la publicité permet de faire augmenter le revenu des chaines.

La société Navidis, basée à Issy-les-Moulineaux présente des solutions cartographiques interactives et multimédia. Les domaines concernés sont: la communication, l’aide à la décision pour les entreprises et les collectivités territoriales et l’éducatif pour le monde de l’éducation. Pour Aurélie Caumartin, il s’agit de mettre en scène et de valoriser l’information géo-localisée avec un apport 3D. Cette approche par les usages permet une approche métier : communication d’entreprise, géo-marketing, promotion territoriale, aménagement, urbanisme, développement économique, éducation, culture, tourisme, patrimoine…
Aujourd’hui, Navidis nous présente TI3D (Terra Interactive 3D), une combinaison entre Terra Interactive, une application dédiée à l’éducation qui existe déjà depuis quelques années et ICI 3D, application de géo-localisation sur Issy-les-Moulineaux. Ce nouveau projet est aussi une application pour l’éducation sous forme de serious game. A l’aide d’un power point, Navidis expose les différentes thématiques sur lesquelles les enseignants pourront travailler avec leurs élèves de collèges.
Mais cette société, intéressée par le contributif, a aussi d’autres projets pour sa ville. Nous découvrons Urbadeus, solution participative utilisant le téléphone mobile Une vidéo nous montre un exemple des usages prévus. Navidis travaille également à un portage sur table tactile.

Cyril Mory de la société Eureva, nous présente les enjeux du rendu 3D déporté pour les jeux vidéo.
Le principe du projet KUSANAGI est de faire fonctionner les applications sur un serveur et récupérer l’affichage sur un dispositif client dédié très léger. Pour cela, il s’agit de développer des technologies de rendus distants
Enjeu dans le cas du jeu vidéo:
- se passer du support (consoles américaines et japonaises) qui impose les contenus (peu de scénars se passent en Europe).
- créer un « service de jeu ».
Il y a 7 partenaires : 4 français, 2 belges et un opérateur téléphonique des pays du Nord. Le projet est piloté par EUREVA (démarrage en janvier 2009) et l’Opérateur est THELIAS (Norvège)
Il s’agit de garder la même qualité de jeux que sur une console sans avoir à acheter cette console. Et c’est ici que le travail de recherche est très attendu. Car le principal problème auquel ce projet doit faire face est la fluidité. En effet, les données 3D sont lourdes, donc le temps de calcul est important. Et les futurs joueurs auront besoin d’une bande passante conséquente : de 1 à 5Mo et d’une très faible latence pour la fluidité.
Cyril Mory nous présente une vidéo montrant l’expérimentation proposée à la plateforme THD : un exemple d’installation serveur-terminaux. Le jeu tourne sur le serveur situé dans une salle différente de celle où sont les joueurs. Ceux-ci n’ont qu’un player.mp4, et exécutent une appli 3D qui se fait sur le serveur. L’essai a été filmé à l’institut télécom, 4 sessions simultanées sur un serveur.

Maurice Benayoun, cofondateur du laboratoire CITU (Universités Paris 1 / Paris 8 programme commun de laboratoire), nous montre à l’aide de plusieurs vidéos l’évolution une série de projets auquel participe le CITU :
- Terra Numerica: qui est un projet important terminé en janv 2010 utilisant le thd. C’est la représentation du territoire et des informations sur les usages : tester des usages nouveaux de la ville dans un espace de Réalité Virtuelle. L’expérimentation s’est faite à la Bellevilloise, au SAS Salle de projection HD et réalité virtuelle, avec rendu déporté sur différentes plateformes.
- Téléscope de réalité augmentée. L’expérimentation s’est faite sur l’Arc de Triomphe dans l’axe de Champs Elysées. Informations sur le présent, sur le passé, le futur (simulation) de la ville et utilisation en architecture. Ouverture sur plusieurs applications possible : météo émotionnelle de la ville, reconstitution des Tuileries, visite de la ville à différentes époques.
Les activités concernées sont l’immobilier et les collectivités. Simulation de catastrophes naturelles
- Projet « last life » qui est un jeu sur l’économie de l’attention qui consiste à mettre en jeu sa vraie vie. On peut gagner des points si on est très visible ou si on l’est peu. Maurice Benayoun nous montre une bande annonce sur l’économie de l’attention (concept développé également à l’IRI)
- Sebastian 2: est un projet de connection entre San Francisco et Paris dont le but est de faire de la création connective. Les artistes échangent les œuvres qu’ils produisent
- La Montre Verte: pour ce projet, chacun peut être porteur d’un dispositif d’observation de l’environnement pour produire des cartes dynamiques de l’état de pollution d’un quartier par captation du bruit, de la pollution puis positionnement sur une carte
- Green Eye: il s’agit, pour ce projet d’exploitation des données environnementales
- KIT SUN: kit de survie urbain numérique (montrable sur i-phone) qui se fait ans le cadre du projet Urban Web Cube ou UW3 (auquel participe Archividéo). C’est un projet H2H (human to human) en attente de FUI (financement par le fonds unique interministériel) qui consiste en une carte dynamique d’une vision sensible de la ville.

DEBAT SALLE / INTERVENANTS – La deuxième session commence après 10 mn de pose

Nicolas Paparoditis, du Laboratoire MATIS de l’IGN, nous parle des enjeux des services cartographiques 3D de type SaaS (logiciels libres ou « software as a service », qui délivre les logiciels directement en ligne). Dans ce but, il prend l’exemple du Géoportail d’IGN où il s’agit de numérisation et de modélisation de la ville et des territoires. Ce type de service est utilisé dans l’aménagement et la concertation (collectivités territoriales). La collecte des données se fait grâce à un véhicule très organisé, le STEREOPOLIS, qu’il nous est présenté.
Le nouveau projet dans le cadre de THD, c’est iTowns de l’ANR, que pilote l’IGN. C’est, là aussi, un projet faisant appel à des contributions envoyées par les citoyens. L’enjeu est donc de développer un système de navigation à travers le web, comme dans Street View, mais en le considérant comme une structure servant à saisir l’information. Ici aussi, nécessité d’une grande bande passante, donc de thd.

Nicolas Klein de Star Apic commence par faire un rapide historique des systèmes d’information géographique depuis 25 ans. Puis il nous présente le Projet TerraMagna de Star Apic qui consiste à fournir des applications professionnelles qui gèrent de l’information géographique en 3D. Elix3d est le produit commercial développé par Star-Apic pour ce projet
Après nous avoir fait découvrir la société Star Apic, il développe sa présentation des deux projets : Terra Numerica et Terra Magna en abordant tous les aspects des projets. Sa conclusion rejoint celle des précédents intervenants : avec le contributif, les métiers sont en train de changer et techniquement, le volume des informations impose le thd.

Jean-Hugues Lauret, Directeur des partenaires, EISTI (Ecole d’ingénieur en informatique privée installée à Cergy), nous parle du projet SEBASTIAN 2 qui a déjà été abordé avec Maurice Benayou, dans le cadre du CITU où il a été présenté sous son aspect création connective. Ici, il s’agit d’utiliser le TTHD pour la post-production dans le cinéma. Ce projet a commencé il y a deux ans entre Paris et San Francisco, pour faire les 3X8 et optimiser le temps de travail grâce au décalage horaire. Le cinéma en images de synthèse nécessite beaucoup de personnel et de machines, avec diverses solutions logicielles dédiées. L’objectif est de faire un gros système de workflow audiovisuel.
L’un des points d’intérêt de Jean-Hugues Lauret est le phénomène du « cloud ». Il compare le volume de données nécessaire pour le cinéma à venir, et les besoins en transport de données et en consommation électrique en s’appuyant sur des chiffres et sur l’exemple du film « Avatar ».

Pascal Peyronnet, de chez Thalès Services, nous présente le projet Terra Numerica dont il a été beaucoup question durant l’atelier. Il s’est fait sur 3 ans, terminé en janvier 2010. C’est un projet FUI 1, 12M euros de budget. Les partenaires principaux sont: IGN, Citu, Ecole des Mines, Ecole Centrale, Inria. L’objectif est le travail sur le contenu et la numérisation généralisée
Pour l’acquisition des données le travail se fait sur le contenu. Thalès a développé des technologies spécifiques : imageries aériennes, photos, information géographiques, etc. Les données sont de natures différentes. Il faut les mettre dans un même référentiel. Il a fallu créer des technologies de recalage (GPS) et des technologies de filtrage: pour, par exemple, enlever personnages, etc… Enfin, faire de la segmentation.

DEBAT SALLE / INTERVENANTS

Fin de l’atelier

Lundi 28 juin 2010: THD et nouvelles formes télévisuelles
De 14h30 à 18h00, dans l’espace THD du Centre Pompidou (Salle Piazza)

Accéder à l’enregistrement de l’atelier indexé sous Lignes de temps

Télécharger le flyer de l’atelier

Dans un contexte résolument tourné vers une nouvelle économie de la contribution, où les frontières se troublent entre producteurs et consommateurs et où la figure de l’amateur devient l’enjeu de nouveaux services et de nouveaux modèles économiques, la télévision, dont l’audience hors Internet stagne voire régresse de mois en mois, cherche de nouvelles formes sur les réseaux numériques. Ces nouvelles formes ne sont pas seulement de nouvelles formes de diffusion qui s’émancipent des supports de réception (modèle Transmédia), de la grille de programme et du modèle du flux pour privilégier celui du stock et du programme à la demande (à l’heure du Grand Emprunt et des ambitions affichées pour la numérisation du patrimoine, il n’est pas inutile de le rappeler). Mais ce sont aussi de nouvelles formes de pratiques culturelles et de nouvelles formes d’écriture qui apparaissent s’adaptant, se jouant ou misant sur la contrainte du débit du réseau.

Cet atelier a précisément comme objectif d’interroger différents acteurs du monde de la télévision en contexte Web pour analyser comment ils se sont adaptés à ce nouveau paysage et tenter d’évaluer en quoi l’arrivée des réseaux très haut débit va encore changer la donne. On en constate dès aujourd’hui les effets sur le développement de la Catch-up TV et de la diffusion sur les grands sites vidéo mais demain sans doute la connectivité permanente et la connexion multi-terminaux vont elles encore modifier les pratiques, les modèles économiques et faciliter l’apparition de nouvelles écritures telles que le Web documentaire ou la télévision collaborative.

Programme de l’atelier:

L’atelier sera structuré autour de trois thématiques dans la perspective des opportunités offertes par les réseaux très haut débit :

14h30-14h40: Introduction à l’atelier
Vincent Puig, Directeur Adjoint, Institut de Recherche et d’Innovation

14h40-15h40: Enjeux de diffusion en Catch-up TV et sur les sites vidéo contributifs, les modèles économiques
Olivier Landeau, directeur stratégie et anticipation, Sofrecom
Jean – Marc Merriaux, directeur des actions éducatives à France 5
Louis van Proosdij, président de FairplayInteractive

15h40-16h20: Nouveaux programmes, nouveaux services
Olivier Dufour, Directeur, TiviPro
Stéphane Gaultier, Président, 3D2+

16h20-17h00: Nouvelles formes éditoriales et contributives
Boris Razon, producteur, Le Monde.fr
Nicolas Sauret, réalisateur, Inflammable

17h00-17h30: Débat sur les enjeux du très haut débit dans le seecteur

Inscription : Ici ou par mail à l’adresse suivante : contact@iri.centrepompidou.fr
Pour plus d’information : http://www.portailthd.fr, http://thdculture.fr

Synthèse de l’atelier

L’arrivée des nouvelles technologies et de l’internet a touché le domaine de la télévision et apporté nombre de bouleversements dans la façon de regarder les programmes. Les nouveaux modes de vie changent les habitudes. Les téléspectateurs sont aussi internautes. Alors les professionnels observent, cherchent et proposent. L’atelier fera un état des lieux des pratiques, en examinera l’évolution et proposera des innovations, particulièrement en matière d’écriture et recherchera des nouvelles possibilités de modèles économiques.

Vincent Puig présente l’atelier en replaçant les activités de l’IRIau sein de Cap Digital. La plateforme THD est en service depuis 2 ans, et sera active jusqu’en avril 2011. Les nouveaux services survenant dans le champ culturel demandent aux divers acteurs une réflexion sur les mutations qui nous sont annoncées par différents signes avant-coureurs. Des conflits révèlent les difficultés auxquelles les professionnels doivent faire face. L’Autorité de la Concurrence qui empêche la création d’un fonds de mutualisation par le CNC pour la numérisation des salles de cinéma, ou la chaîne M6 qui se voit déboutée de sa plainte contre deux sites de VoD en sont des exemples parlants.

Le directeur adjoint de l’IRI donne quelques chiffres pour faire un état des lieux de l’offre et des pratiques en France. Et précise que le THD prend une importance grandissante.
Les enjeux de cet atelier sont d’analyser ce qui change dans les usages : l’émancipation par rapport aux supports, principalement le téléviseur, et à la grille de programme. Pour les contenus, les notions de flux et de stock prennent une grande importance. Ensuite, il s’agit d’observer ce qui se passe en diffusion et en tirer les conséquences en termes d’écriture, de gestion du temps, etc… Enfin, il faudra tirer les conséquences de tous ces bouleversements et trouver des solutions pour les modèles économiques. Le retour au payant, le mélange de plusieurs modèles, il faudra aussi de l’innovation dans ce domaine.

Enjeux de diffusion en Catch-up TV et sur les sites vidéo contributifs, les modèles économiques
Jean-Marc Merriaux, directeur des actions éducatives à France 5

Jean-Marc Merriaux précise la notion de flux et de stock car pour lui, la question de contenu est aussi à prendre en compte.
Les fonctions de lien social et d’interactivité de la TV ont été bouleversées par la délinéarisation. C’est le reflet des changements survenus dans l’organisation de la société: le spectateur est plus volatile.
Comment recréer ces liens avec le numérique ? Il faut utiliser les nouveaux outils comme les réseaux sociaux par exemple. Les directeurs de programme doivent intégrer ces changements.
Quels services proposer pour quels contenus ? Jean-Marc Merriaux propose des solutions qu’il applique au sein Curiosphère.tv, la chaine web de France 5. Evènementialiser les antennes et les contenus, rencontrer les communautés nées des réseaux sociaux, travailler la marque de la chaine. Mais aussi considérer autrement le partenariat : les démultiplier pour disséminer les valeurs éditoriales de la chaine sur les plateformes de VOD. Mélanger habilement les concepts de web-documentaire et de serious-game. Il constate que dans le domaine de l’éducation, peu d’acteurs se bousculent pour produire, laissant une grande place aux pouvoirs publics qui se doivent de la saisir, pour le bien public.

Olivier Landau, directeur stratégie et anticipation, Sofrecom
Dans sa description de la consommation de programmes TV en France, Olivier Landau remarque que les Français passent encore beaucoup par l’outil télévision, par l’IPTv, et ont moins le réflexe ordinateur que dans d’autres pays. Et ils dépensent plus facilement pour leur matériel que pour les contenus.
Mais il observe un changement de paradigme dû à la délinéarisation. Le statut des divers acteurs évolue : des utilisateurs aux producteurs de contenus, en passant par les agrégateurs que sont les diffuseurs de programme. Les métiers changent. Et le modèle économique est en train de se métamorphoser.
Côté utilisateur, les nouveaux modes de consommation que sont le catch up TV et la VOD, en plus de la consommation traditionnelle de grille, ont des conséquences sur la manière dont s’établit le lien social. On observe de nouveaux usages. Côté métier, il est important de bien savoir manier les concepts de flux et de stock, de catch up TV et de pvr. Et les opérateurs font évoluer leurs offres de « triple play » vers le quadriplay » pour répondre à la demande.

Louis van Proosdij, président, FairplayInteractive
La société Fairplay Interactive travaille sur un nouveau type de télévision qui s’adapte à l’humeur de chaque spectateur en personnalisant du flux et faisant disparaitre la contrainte de synchronisation. Elle fonctionne en IPTV en passant par les FAI. Quatre chaines seront lancées en septembre chez deux opérateurs. Ce nouveau domaine de consommation, proche du fonctionnement de la webradio « Pandora », permet de valoriser le travail de l’opérateur. La plateforme diffuse l’ensemble des goûts des spectateurs et analyse ces données pour leur faire des propositions chaque fois renouvelées. C’est le spectateur qui est propriétaire des données collectées sur lui, sur les deux modes: explicites et implicites.
Se posent plusieurs questions : celle du temps disponible du spectateur, du lien social, de l’identité de la chaine, questions que la société Fairplay Interactive pense être à même de résoudre au mieux.

Nouveaux programmes, nouveaux services
Olivier Dufour, directeur, TiviPro

Dans le domaine du B2B où se situe TiviPro, quand une entreprise fabrique du contenu, et les propose sur sa chaine du web, elle équilibre son budget sans se soucier du modèle d’audience. Ce qui l’intéresse, c’est d’établir des conversations avec les spectateurs, voire des transactions… Les business-models se définissent sur ce fonctionnement. Dans le B2C, c’est encore l’audience qui contrôle le modèle économique.
Pour résoudre la question du modèle économique, OD fait un tour d’horizon de l’existant. Partant d’une réflexion entendue dans un séminaire THD « Plus d’écran pour être encore plus pauvre ». Comment absorber les surcoûts de prod ? Car dans la plupart des dispositifs trans-média (terminaux tv, web, mobile, voire serious game qui exige une écriture particulière), les coûts de prod sont multipliés par le nombre de terminaux. Ex d’Eulalie. Il faut trouver des économies d’échelle à faire, notamment en mutualisant les outils de back-office. Pour Eulalie, côté coûts, le 52 mn sur la Grèce nécessite la travail d’une équipe d’une dizaine de personnes pour le documentaire. Pour le projet, une autre équipe de professionnels du web a travaillé en étroite collaboration avec la première pour résoudre les problèmes spécifiques du web : interactivité, logiciels, etc… Et il faudra procéder de la même façon pour le mobile, et pour le serious game: travailler avec des équipes professionnelles de chacun de ces domaines. Côté recettes, dans le cas d’Eulalie, le diffuseur finance 60 à 70% du film principal et 30 à 40% de la partie web. Donc, dans le trans-média, on ne peut fonctionner que dans une économie subventionnée par les pouvoirs publics (ANR), ce qui permettra de financer les outils de back-office, de les mutualiser.
Olivier Landau remarque que pour le projet Eulalie, les choses ce sont mis en place au fur et à mesure. Le projet, de pilote, est devenu opérationnel. On a du s’adapter. Mais il faut retenir de cette expérience qu’à l’avenir, les outils et les professions devront pouvoir s’adapter à tous ces terminaux, tous ces domaines pour plus de fluidité dans la production trans-média. C’est ce qui commence à se faire à ChannelFour. Nicolas sauret confirme, malgré tout, que côté écriture, chaque domaine impose ses spécificités.

Stéphane Gaultier, président, 3D2+
Stéphane Gaultier remarque que les usages n’évoluent pas aussi vite qu’on a tendance à le penser. Pour lui, le pilier reste la télévision et les nouveaux outils proposés au public marchent s’ils sont liés à elle. C’est pourquoi, selon lui, le catch up TV a dépassé la VoD. Et sur internet, l’activité principale est le communautaire, loin devant la messagerie et la vidéo. Mais l’attention à la télévision est un perdue : chez les jeunes, on regarde la télé tout en surfant sur internet.
Alors son postulat de base est de partir d’internet pour revenir à la télévision en utilisant les mondes virtuels avec la 3D. 3D2+ travaille avec la société Enjoy à un projet trans-media : « Zavatar », un jeu télévisé qu’on pourra suivre à la télévision, mais aussi depuis son ordinateur, et on y pense aussi, depuis son mobile. C’est un programme qui mêle les principales caractéristiques de chacun des terminaux : les atouts de la téléréalité et la communauté internet. Un autre intérêt est que l’audience TV est mieux qualifiée et donc mieux valorisée. Le modèle économique est donc un mélange des modèles de ces deux supports.

Alexis Vivant de Grotthuss, Studio Brocéliande
Le projet « Messann » (MESSage ANimé) du Studio Brocéliande (société de production de dessin animé qui existe depuis 6 ans) propose aux enfants et aux adolescents, grands utilisateurs de téléphones mobiles, mais aussi de PC, une nouvelle plateforme de communication sur laquelle ils pourront inventer et partager des dessins animés, créés de toute pièce par eux. Ils disposent, pour s’exprimer, de banque de personnages connus, caricaturés, inventés, dotés chacun de leur banque d’animations, de banque de décors, le tout en 3D. Le projet s’appuie sur les possibilités du standard MMS de transmission de données vidéo par mobiles. La 3D implique des échanges de données conséquentes justifiant un certain niveau de bande passante, et donc de THD. Cette nouvelle plateforme avec ses aspects autant ludiques que collaboratifs jouera sur la 2D temps réel, la réalité augmentée, la géolocalisation, etc… Elle sera d’un accès gratuit, avec des fonctionnalités payantes. Les échanges entre PC seront gratuits, mais payants dès qu’un mobile entrera en jeu. Autre brique du modèle économique: la publicité pourra apparaître sur les éléments du film.

Nouvelles formes éditoriales et contributives
Nicolas Sauret, réalisateur, Inflammable

Inflammable est une jeune société de production de documentaires qui se propose d’explorer trois directions : le documentaire de création, le web-documentaire et le trans média. Nicolas Sauret explique qu’il cherche à produire autrement : la société est une SCOP, associée des partenaires et des soutiens financiers, liés à l’économie sociale et solidaire qui doivent garder une certaine exigence en matière de responsabilité sociale et environnementale. Dans ce cadre, ils développent un programme de R&D, inspiré des principes de l’IRI : valorisation de la figure de l’amateur et de la contribution.
Inflammable cherche dans ses projets à relier le narratif et le contributif en se servant d’outils documentaires : les métadonnées. Tout le travail de R&D consiste à établir une ontologie de la narration, à définir une grammaire de métadonnée spécifique à la narration. En lien avec l’IRI, des études sont mises en place pour trouver des modèles économique et juridiques adaptés à ces nouveaux formats.

Boris Razon, producteur, Le Monde.fr
La Scénarioze est une fiction participative, soutenu par LeMonde.fr qui travaille avec « Eulalie », en discussion avec Arte, et le centre d’arts numériques de la Gaieté Lyrique. Le concept repose sur l’idée de donner à des internautes qui passent beaucoup de temps à écrire (blogs, forums, etc…) une plateforme pour, de réactifs, devenir créatifs, sur un sujet d’actualité qui les concerne.
Ce dispositif sera une matrice de narration qui fonctionnera suivant trois principes : créer de l’urgence (une timeline, un compte à rebours), être impliquant (concernant et proche de l’audience) et laisser une porte ouverte à l’originalité, voire au déraillement. C’est aussi un projet qui s’appuie sur l’exploitation des métadonnées. Le métier de journaliste apporte une couleur particulière à ce projet qui, s’il marche, pourra devenir un feuilleton sur le web. Après les questions posées à Boris Razon, Vincent Puig remarquera qu’on est ici au cœur du projet d’Eulalie et des réflexions de l’IRI.

Vincent Puig: Conclusion
Vincent Puig se félicite qu’au cours de cet atelier, on ait pu aborder les diverses problématiques de l’écriture et essayer d’en imaginer de nouvelles formes.
Il remercie les participants et annonce les prochains rendez-vous sont en octobre pour un atelier THD et webcasting de conférence, et en novembre, pour THD et musique, en collaboration avec l’IRCAM.

Le 15 novembre 2010,
de 14h30 à 17h30, dans l’espace THD du Centre Pompidou (Salle Piazza)

Avec de grandes initiatives populaires comme en France, l’Université de tous les savoirs, l’Internaute a pris conscience de la valeur inestimable de pouvoir écouter ou ré-écouter des conférences. La nécessité a très vite émergée d’enrichir l’enregistrement en synchronisant les visuels utilisés par le conférencier. Mais malgré ces avancés technologiques et en terme d’usage, la diffusion live reste couteuse ou difficilement maitrisable en interne pour la majorité des universités ou des sociétés, et elle est dans la grande majorité des cas opérée sans enrichissement. Cet atelier vise à évaluer précisément les services, outils, solutions de “rich media webcast” aujourd’hui proposées et surtout en quoi ils peuvent tirer parti de meilleures conditions de transmission en très haut débit.

Mais depuis le rachat de YouTube par Google, un nouvel enjeu nous semble également apparaître à présent avec l’impératif de visibilité de ces contenus audiovisuels sur les moteurs de recherche. L’audio ou la vidéo bien segmentée et indexée peut aujourd’hui s’assimiler à du texte et constituer une ressource nouvelle pour l’internaute recherchant de l’information sur le web et donc principalement par le moteur de recherche. L’atelier THD abordera donc également ce que cet impératif de segmentation et d’indexation implique en terme d’outils de diffusion et d’annotation que ce soit en live ou lors d’une mise en ligne enrichie le plus rapidement possible après l’événement.

Programme:

14h30-14h40 : Introduction à l’atelier
Institut de Recherche et d’Innovation, Vincent Puig

14h40-16h50 : Pitch projets

Ubicast, J.M. Cognet
Erdenet, Damien Roucou
Brainsonic
Inwicast, Fabrice Mercier
Balloon

16h50-17h10 : Focus sur le thème « Annotation temps réel »

Institut de Recherche et d’Innovation, Vincent Puig, Yves-Marie Haussonne, Thibaut Cavalié

17h10-17h30 Débat sur les enjeux du très haut débit dans le secteur

Inscription en ligne ou par mail à l’adresse suivante : contact@iri.centrepompidou.fr

Pour plus d’information : http://www.portailthd.fr, http://thdculture.fr
Diffusion live sur : http://thdculture.fr/thdculture/fr/cms/live/

Synthèse de la séance:

Vincent Puig introduit l’atelier, procède à un état des lieux en soulignant la difficulté d’indexer des vidéos, avec les technologies actuellement proposés alors que l’indexation est devenue primordiale sur le web.

Quelques chiffres concernant YouTube

- plus de deux milliards de vidéos vues chaque jour.
- la dictature imposée par le format : une moyenne de durée de 2’46.
- 14,7% de contenus professionnels, le reste UGC.
- de plus en plus d’institutions s’y affichent (y compris le Centre Pompidou sur Dailymotio.

On peut noter que les acteurs font pour l’instant preuve d’un certain attentisme vis à vis de formats et standard qui vont permettre une indexation plus fine des vidéos : html5, media fragment

Aujourd’hui, plusieurs contenus intéressants et longs sont disponibles, par exemple des conférences et cours de grandes universités américaines sur itunes store. Aucune indexation n’est cependant possible. En France, l’outil Canal U est déjà plus intéressant, avec sa proposition d’une fonction chapitrage et parfois un document adjoint ou une transcription (pdf).

Les conférences TED aussi fournissent de longues conférences, mais aucune indexation et aucun moyen de partager une section ou un timecode en particulier. Les conférences du Collège de France sont accessibles mais l’indexation est extrêmement pauvre et non temporalisée.

Pour revenir aux annotations, Youtube ne fournit pas d’indexation précise malgré son rattachement à google. YouTube propose une solution de création d’annotations mais cela reste assez pauvre car ce sont des simples info-bulles en sur impression, et l’utilité en terme d’indexation n’est pas avérée, d’autant que l’on ignore si google en fait usage pour l’affichage de résultats de recherche.

Twitter de son côté a ajouté un système d’annotation permettant d’adjoindre des méta-données libres à un tweet. De même la société Balloon (balloonup.com) permet de suivre des informations/participation au moment d’une conférence.

Vincent Puig rappelle ensuite les enjeux de l’atelier webcasting, à savoir les questions liées à l’auto production, multisupport, le requêtage intra vidéo, et l’annotation live. La seule solution pour éviter une armée de documentalistes réside dans la contribution. La construction des futurs espaces critiques passe par ces contributions. Car une machine n’est pas capable de caractériser une contribution au niveau polémique : tel avis pour ou contre tel autre avis.

Vincent Puig conclut son introduction en rappelant la liste des intervenants représentant les sociétés Ubicast, Erdenet, Brainsonic, et Balloon.

Il donne quelque exemples des activités de l’iri : la collaboration INJEP / Centre Pompidou, IRI, la création d’hyperliens depuis un texte vers un moment précis de la conférence.

Sur le site des entretiens du nouveau monde industriel l’IRI a mené quelques expérimentations d’annotation live, de synchronisation des tweets et d’annotations des internautes. Yves-Marie Haussonne explique succinctement le mode opératoire de l’iri pour resynchroniser les tweets. Il faut garder une information sur le temps absolu de la conférence et sa captation sous forme de vidéo. Pour ajouter une méta donnée aux tweets sur la polémique, l’iri propose une grammaire : #? pour une question, #= pour une approbation, #! pour un désaccord, #@ pour une référence.

Vincent Puig donne quelques autres exemples de participations de l’IRI : France Culture avec LDT en back office et un lecteur simple en front. Outil d’annotation live collaboratif. Webconference avec non seulement écran partagé mais aussi application partagée (ici LDT entre IRI et Telecom Paris).

Vincent Puig donne ensuite la parole à JM Cognet de la société UbiCast (10 salariés, éditeur de logiciel, revendeur de matériel et service web).

Ubicast présente Easycast, une solution professionnelle simple de création de vidéo. La station easycast capte l’ordinateur, l’orateur et le micro en une seule vidéo mp4. Elle capte aussi les timecodes où l’orateur passe d’un slide à l’autre et en fait une copie d’écran. Comme aucune plateform econnue ne permet de lire des vidéos indexées, easycast a créé une xolution propriétaire, qui peut être encapsulée (exemple avec site EDF).

Ils ont aussi permis d’encapsuler des documents déjà embed. Par exemple une vidéo d’une soutenance de thèse avec la thèse complète dans une visio flash/pdf.

Les clients demandent à avoir une présence sur youtube et/ou dailymotion (Exemple de l’ESSEC qui dispense des cours d’une heure). Le service de Webtv clé en main propose un template de base avec un moteur de recherche qui est capable de chercher parmi l’indexation de la vidéo. Leurs outils, même effectuant des tâches complexes, sont optimisés pour que leur utilisation demeure simple. La contrainte pour les clients c’est qu’ils doivent contrôler le matériel. Mais de leur point de vue, c’est une garantie de qualité.

Les principaux client d’Ubicast sont des sociétés telles que Alcatel, EDF, l’Essec, la Cité des sciences, la Cantine, Atos, l’Ecole du Louvre, Télécom paris… Certains organisateurs d’événements redoutent cependant la généralisation de la vidéo et expriment la crainte d’une cannibalisation de leur modèle économique, qui est la participation physique à leur conférence.

Les internautes ont pris l’habitude ne pas payer pour accéder aux contenus. Il y a cependant des coûts à amortir ! Le modèle économique privilégié est le partenariat : Yahoo sponsorise ainsi Paris web Ou bien le diffuseur demande des informations susceptibles d’être valoriisées : mail/profession/activité

Question : Le speech to text est-il suffisament performant aujourd’hui ? Ubicast répond que voxalead a 2 approches : un traitement automatique, suivi d’un traitement humain après si nécessaire (et rémunéré).

Damien Roucoub, de la société Erdenet, prend ensuite la parole. Sa présentation est hébergée sur belearner.com, fondé par Erdenet.

Erdenet popose des solutions de rich media éducatif, et s’adresse à un panel d’enseignants, d’ingénieurs, éducatifs réfléchissant à des outils numériques pour l’éducation. Historiquement, l’idée vient d’adapter les enseignements aux publics handicapés. Plus généralement, la question posée est de d’interroger sur la manière d’utiliser le media numérique pour l’enseignement.

La solution Be Learner s’adresse aux élèves : soit apprenant. objet numérique apprenant : e-learning object. BL.com donne des vidéo learning objects. Problématique du nombre de la vidéo et de la présentation d’un résultat de recherche sous forme de liste : anti-pédagogique, ça délie les objets. L’idée est de trouver une présentation liée des vidéos. En plus BL travaille en temps réel. Mais les enseignants ne sont pas nécessairement des partisans convaincus du numérique : il est plutôt utilisé à côté de la salle de cours, comme support périphérique. L’œuvre qui est utilisée en cours n’est pas forcément présentée seule et telle quelle. Elle est un peu transformée, remodelée, ce qui ne va pas sans causer certain problèmes juridiques… Constat : l’éducatif n’est pas forcément que « entre les murs ».

Le site en tant que tel est constitué de documents, photos, textes, vidéos. L’utilisateur peut créer des parcours entre ces documents.

Exemple : une prof de SVT parle de l’agriculture dans les Cévennes. Il y a la vidéo à gauche et de temps en temps, un texte apparait à droite de pour expliquer plus précisément un point ou pour faire un lien entre 2 vidéos. Mais le texte n’est pas forcément statique. ça peut être une question à un élève avec un champ de réponse, ça peut être une carte, une partition de musique. Donc plus d’interaction et une structure, une arborescence entre les contenus.

Les partenaires institutionnels et les collectivités sont assez moteurs pour diffuser les contenus même remodelés. Un gros travail est encore nécessaire pour convaincre les ayant-droits qu’il est nécessaire que leurs contenus se retrouvent dans ces plateformes plutôt que youtubre ou dailymotion.

La parole est ensuite donnée à BrainSonic qui montre une vidéo de présentation du type d’activités autour des TechDays de MicroSoft : webtv, captation des 3 jours de multi conférences, participation sur réseaux sociaux.

Les principales fonctionnalités sont les suivantes : player avancé, chat, outils communautaires, sécurisation, etc. En live, il y a possibilité de lire le flux live et réécouter le passé , effectuer un chapitrage à la volée. Le live est diffusé dans des bannières (les échos, le monde, etc…).

Quelques exemples :

- le live de Steve Ballmer.
- un live musical connecté à un chat facebook. Une autre possibilité consiste à intégrer l’évènement au sein de Facebook. Intérêt communautaire mais moins d’audience.
- l’album de Air, avec apparition sur GMaps de où sont connectés les internautes.

Pour Brainsonic, l’enjeu n’est plus technologique : il est possible de faire quasiment ce qu’on veut en terme d’interactivité, captation, etc. L’enjeu, qu’il soit public, culturel ou corporate, est un enjeu d’audiences. Aujourd’hui, un bon contenu bien communautarisé n’est pas forcément rentable. L’audience est atomisée. L’offre est telle qu’il est difficile de ramener quelques milliers de spectateurs. L’audience a beaucoup de choix et en plus beaucoup de terminaux. Or diffuser sur iphone ou blackberry n’a rien à voir avec web.

Pour Brainsonic, la vidéo sur le web est une mystification : l’auto-production est très faible, les UGC ne sont pas suffisants ni rentables. Exemple : Dailymotion a arrêté les UGC, ils veulent devenir diffuseurs. L’enjeu n’est pas d’accueillir de gens, mais d’avoir un discours, un point de vue, un axe éditorial. Et faire ça est plus complexe. 2009 – 2010 : prise de conscience que les UGC ont leurs limites, doivent être accompagnés. Le marché est intéressant mais jeune, aucune solution simple n’est envisageable.

Question technique : possibilité de live + retour en arrière. Adobe ou MicroSoft proposent ça. Mais les retours sont mitigés : sport très friands, par exemple foot ou tour de france. Mais sur des contenus plus « intellectuels », ce n’est pas très utilisé.

Question économique : La viabilité vient de l’industrialisation chez des clients (microsoft, france soir…).

Question sur les bannières : partenariats ? Non, c’est de l’achat de bannières traditionnel. Mais c’est un levier d’audience conséquent.

Fabrice Mercier de la société InwiCast (positionnée sur le podcasting et le richmedia) prend à son tour la parole.

La société a deux activités principales : elle assure un service audiovisuel et fait de l’édition de logiciels. Elle a été créée en 2003 autour de la diffusion d’évènements sur le web avec Webcastor, et labellisée OSEO et pôle de compétitivité IMAGINOV. Elle est assez bien implantée dans les universités car elle a gagné un appel d’offres auprès d’universités voulant enregistrer ses cours/conférences.

Fabrice Mercier présente ensuite la plateforme WebTV. Il s’agit d’un travail récent sur l’enrichissement et la diffusion d’enregistrements, offrant des possibilités de chapitrage et d’annotation. Côté utilisateurs, le service est assez proche de celui proposé par Ubicast avec vidéo chapitrée et synchro au powerpoint. Le système d’annotation fonctionne en live ou par post. Les annotations apparaissent sous forme d’info-bulle. Les contenus textuels des info bulles sont indexés et utilisés pour la recherche.

Fabrice Mercier présente différents dispositifs matériels pour l’enregistrement, dont le critère clef est leur simplicité d’utilisation
- un éditeur html5 pour l’enrichissement, lecteurs flash et html 5
- Le service Inwicast publisher propose ainsi une solution simple et multiformat flash/windows/quicktime.
- La WebTV : diffusion live et VOD, channels privés sur abonnements.

Les universités ont deux besoins principaux : un besoin d’intégration des contenus dans un processus pédagogique, et un besoin de visibilité dans le cadre de la communication institutionnelle. La recherche d’annotation peut être globale, à l’intérieur d’une vidéo, d’un channel, etc. La vidéo reste un objet externe. On peut imaginer plusieurs systèmes participatifs, par exemple des étudiants.

Question : quels systèmes sont privilégiés : cloud ou autonome ? Les universités sont autonomes, mais dans l’événementiel l’architecture privilégiée est plutôt cloud.

Le système de statistiques fonctionne par vidéo mais aussi par chapitre. Dans les universités, il faut accompagner le changement, tous les enseignants ne veulent pas être filmés. Mais le bilan est vraiment positif, la plupart des réticences ont été levées. (c’est aussi une demande du ministère d’augmenter le pourcentage de cours filmés). Un mot revient « simplicité d’utilisationé, condition sine qua non de l’adoption.

La société Balloon (balloonup.com) prend ensuite la parole.

Le constat initial était simple : il existe des outils pour les évènements, soit pour l’intervenant (powerpoint), soit pour augmenter l’audience. Mais il n’existe pas d’outils pour outiller l’audience. Optimiser le dialogue avec l’audience est difficile (passage de micros, questions inintéressantes, monopole du temps de parole) ce qui engendre peu d’interaction et provoque la frustration du public du fait de l’absence d’interactivité.

Balloon propose en conséquence un système de participation simple, utilisant des outils que le public maîtrise déjà : SMS, twitter ou web, avec un système de modération : correction d’écriture texto, de fautes d’orthographe, etc.

La solution permet de s’exprimer avant et après l’événement, afin de faire émerger une communauté autour de l’événement mais aussi pour répondre aux questions posées avant et après. En live, par exemple, le modérateur du débat peut voir quelles sont les questions du public, lesquelles ont une forte demande. Il est ainsi en mesure d’adapter le débat en fonction du public. En fonction de la configuration, les questions sont traitées en cours de débat, après l’intervention. Parmi les options proposées, un système de vote permet d’identifier celles que le public demande.

Question : comment gérer conjointement la dimension temps réel la dimension modération ? Cela dépend de la configuration (prof, nb de gens) et de la demande du public.

Question : Quelle est la différence entre twitter et balloon ? Avec Balloon il est possible d’imaginer de nombreuses mises en scène pour la gestion et l’affichage des questions. L’utilisateur peut ainsi voir sa contribution, et les réactions qui s’en suivent si elle a du succès.

Question : Comment Ballon imagine-t-il les représentations des participations ? Balloon privilégie la synchronisation des contributions sur la vidéo en post évènement. La priorité est donnée à la productivité et à la mise en valeur de l’information.

Question : le nombre de caractères est il limité pour une question ? C’est le cas (140 caractères) pour se synchroniser avec les contraintes twitter et pour obliger les publics à bien formuler leur question.

Question : Quel est le modèle économique ? Aujourd’hui Balloon privilégie la vente de prestations mais une activité SaS va être développée. L’ensemble sera gérable via une interface web.

Le débat est ouvert.

Question : Comment Ubicast et Erdenet se positionnent-ils par rapport à ces outils collaboratifs ? Le monde éducatif est un peu réticent, mais le problème n’est pas uniquement technologique, il est surtout social. La question est de savoir comment mettre en œuvre un rapport éducatif via ces outils numériques. Les publics scolaires secondaires et supérieurs n’ont rien en commun. Aux collèges/lycées, ce rapport est inenvisageable et surtout pas souhaitable. En revanche dans les universités il y a une demande réelle de ce type de solutions.

Il est important que le prestataire et le modérateur soient à l’écoute de la communauté. Cf. l’exemple d’un évènement diffusé avec un chat mais personne ne lit le chat : l’audience disparaît. Si le chat et les contributions sont suivies, l’audience est maintenue. Nécessité de créer une sorte de « community manager évènementiel ». Vincent Puig propose de le nommer « contribution manager ».

Vincent Puig fait une dernière remarque relativement au THD, au haut débit et aux usages. Aujourd’hui le participatif est essentiellement textuel. La question du haut débit amène forcément à la question de la visiophonie, du stream de conférence et du web conferencing. On va arriver à la notion de conférence participative, évoluer d’un système 1->n vers un système n->n. D’autre part, la question de l’annotation et de l’indexation des contributions est importante pour la visibilité et la pérennité des captations.

Vincent Puig conclut l’atelier en remerciant les intervenants et le public et annonce les prochains rendez-vous IRI.

Le mercredi 24 novembre 2010,
de 14h30 à 17h30, dans l’espace THD du Centre Pompidou (Salle Piazza)

Le concert distribué est un concept qui a longtemps fasciné et continue de focaliser les efforts des laboratoires et entreprises spécialisés dans le champ de l’audio numérique. L’idée n’est pas tant de retransmettre une qualité orchestrale mais de permettre à des musiciens de jouer ensemble à distance. Pourtant très haut débit ne signifie pas forcément faible latence audio et des protocoles spécifiques tels que UDP sont parfois indispensables. Par ailleurs, transmission audio dans le monde audionumérique professionnel rime souvent avec transmission multicanal et nécessite par conséquent l’emploi sur le réseau de protocoles multicast qui ne sont pas encore la norme aujourd’hui.

Mais au delà de l’application symbolique du concert distribué, cet atelier s’intéressera principalement aux applications BtoB de services de transmission audio en THD, que ce soit pour du live ou pour du travail collaboratif entre studio. Les enjeux sont alors non seulement de disposer du confort acoustique professionnel mais de jouer avec les latences induites par une forte interactivité en réseau. On examinera également les applications audionumériques grand public telle que le futur de la voix sur IP (à quand le Facebook audiovisuel) et le futur de la HIFI.

Programme :

14h30-14h40 : Introduction à l’atelier
Institut de Recherche et d’Innovation, Vincent Puig

14h40-17h10 : Etat de l’art des systèmes audionumériques et présentation d’expériences pilotes

IRCAM, Andrew Gerszo
Saooti, Ndiata Kalonji
Sound Delta, Michel Porchet
CEA, Philippe d’Anfray
Le Placard, Erik Minkkinen (sous réserve)

17h10-17h30 Débat sur les enjeux du très haut débit dans le secteur

Inscription en ligne ou par mail à l’adresse suivante : contact@iri.centrepompidou.fr

Pour plus d’information : http://www.portailthd.fr, http://thdculture.fr
Diffusion live sur : http://thdculture.fr/thdculture/fr/cms/live/

Synthèse de la séance:

Vincent Puig, Directeur adjoint de l’Iri, introduit l’atelier centré sur la question de l’audionumérique à l’ère des réseaux Très Haut Débit. Cet événement est organisé conjointement avec l’Ircam, dans le cadre du programme COMEDIA qu’Andrew Gerszo va présenter à cette occasion.
Le projet THD consiste en une plateforme technologique d’expérimentation du très haut débit, essentiellement installée sur le plateau technique de Paris 13. Sur ce banc d’essai sont installés de systèmes de métrologies pour mesurer les usages des expérimentateurs sur la fibre
En tant que participant au projet, l’IRI mène deux expérimentations sur cette plateforme: une expérimentation d’annotations de films longs et une expérimentation d’annotations de conférences.
L’Iri propose par ailleurs un service de veille technologique en étudiant et en modélisant le système technique des technologies culturelles du numérique dans le cadre de l’Observatoire THD Culture.

Vont être évoqué dans cet atelier les pratiques de l’audionumérique professionnelles mais également celles concernant le grand public. Le web n’est pas encore réellement audiovisuel, il reste essentiellement un outil fondé sur le texte, on s’y déplace encore par des mots clefs et des moteurs de recherche. Mais les contenus audiovisuels deviennent précisément eux-mêmes indexables. ce qui va dans le sens d’un développement des échanges audiovisuels.
Le rapprochement entre Facebook et Skype, annonce ainsi selon Vincent Puig l’émergence de nouveaux espaces de dialogue audio permanents, et l’on peut interpréter ce rapprochement entre deux sommités du web comme une réaction au service Google Voice de Google. Au delà de ces usages privés, ces espaces commencent également à devenir des espaces de travail, et nous sommes en effet témoins à l’heure actuelle d’une convergence de services grands publics avec des services professionnels.
La question se pose à ce titre de savoir ce que va faire Google avec nos conversations téléphoniques, ou à partir des informations audios qui sont également transcrits en texte afin d’être accessibles aux moteurs de recherche.

Le web reste un media essentiellement textuel mais le web audiovisuel prend le dessus. Voici quelques chiffres et grandes tendances parmi d’autres :
• 78 millions de videos sur YouTube, +20% par an ;
• 600 millions d’abonnés à Skype ;
• enjeu de pertinence et de visibilité par les moteurs (HTML 5 et Media Fragment) ;
• les enjeux de qualité (débit, multicanal) encore largement ignorés ;
• l’industrie musicale s’est encore peu préoccupée du live sur le web (le modèle économique du concert en ligne reste fragile mais rentable), il existe des possibilités nombreuses de monétisation ;
• nous allons bientôt assister à l’apparition d’espaces de conversation permanents sur le web.

Vincent Puig effectue dans ce contexte une brève présentation des prototypes développés à l’IRI:
• le dispositif d’annotation live de conférences: l’objectif est de faire participer le public à l’enrichissement des oeuvres, de créer des espaces critiques où l’on peut se retrouver en terme de sens et de partage. ici développé avec l’ENSCI. L’intérêt est de pouvoir faire des commentaires textuels mais aussi audio, on est très proche du principe de la traduction simultanée. On gère une double tête de lecture avec un temps réel et un temps d’analyse ou de retour sur le temps différé.
• l’annotation de films longs THD : il s’agit de réunir des critiques et des enseignants du monde du cinéma autour de quelques films (en l’occurrence « Entre les Murs » et « The Pillow Book »), et d’utiliser la plateforme d’annotation collaborative pour développer des discours critiques argumentés sur ces œuvres, en pointant directement sur les séquences concernées.

Ces travaux sont expérimentés avec les équipes de l’Institut Télécom et les équipes de l’Ecole Supérieure de l’Image
Vincent Puig présente ensuite les intervenants de l’après-midi qui permettront d’établir un état de l’art des systèmes audionumériques et présentation d’expériences pilotes :
• Andrew Gerszo, de l’Ircam
• Alexandre Monnin de l’Iri
• Ndiata Kalonji , de Saooti,
• Michel Porchet, de Sound Delta,
• Philippe d’Anfray , du CEA,

Les présentations seront suivies d’un débat sur les enjeux du très haut débit dans le secteur.

Andrew Gerszo, de l’Ircam, prend ensuite la parole pour donner un aperçu rapide du projet Européen CO-ME-DI-A. Comedia est un projet européen mettant l’accent sur l’utilisation de réseau haut débit dans le cadre de la production musicale. L’objet central de la collaboration repose sur le dévelmoppement de pratiques musicales, et non sur les technologies sous-jacentes à ces pratiques. Ce n’est donc pas un projet ITC mais un projet culturel, le but n’est pas de développer des technologies, mais de s’intéresser en premier lieu aux usages.
Le projet Comedia est fondé sur le Networking et vise à la constitution d’une plateforme commune reliant différents participants en plusieurs lieux. Ainsi Disparate Bodies Projects est-il assez représentatif du type de projets que l’on explore. Il était notamment envisagé au début du projet la mise en place d’un bus commedia d’échanges de données multimédia, associé à des technologies de répétition à distance, ainsi qu’à des ensemble assistés par le biais de logiciels et de robots .

Le réseau était ainsi abordé en tant que medium acoustique, avec des questions sous-jacentes telles que : comment établir une relation sociale entre deux lieux distants ? Comment partager une application musicale pour la création d ‘un concert ? Etait notamment convoqué le concept d’écoute active (active listening) qui sous-entend la possibilité de voyager dans un espace acoustique en réseau comme on le ferait dans une installation. Le Bus Comedia, finalement non mis en œuvre durant le projet devait ainsi permettre aux partenaires de se connecter et de partager de l’audio, de la vidéo et des data.
Une installation sur deux lieux distants a été réalisée entre Paris et Gênes. Elle incluait un logiciel de détection de mouvement permettant de dialoguer sur le réseau, un petit jeu de résonance basé sur la symétrie et l’imitation avec des musiques qui encourageait le public à adopter certaines postures. C’était un bon exemple d’interaction sociale à distance, qui permettait de parler autrement qu’avec des moyens classiques, et offrait la possibilité d’entrer en résonance ou pas, la divergence entrainant une forme de punition induite par le biais d’une séquence imposée de musique techno un peu agressive.

Andrew Gerszo présente ensuite quelques images et vidéos sécrivant des expérimentations menées dans le cadre de Comedia : An Invisible Line Film, Ircam etNew World Symphony, Dutilleux rehearsing / Shadows of Time, Master Class avec François Rabbath, une expérience avec Tristan Murail, un projet avec Lars von Trier, une expérimentation un peu plus risquée, avec Pascal Merigeau, à partir d’un liaison France-Danemark en utilisant Skype et VLC au lieu de DVTS, NetTrike de Bernhard Lang et Christine Gaigg, playing with our perception d’Andrea Cera, une collaboration IRCAM/PARIS IEM/GRAZ…
Andrew Gerszo souligne qu’il est très complexe de créer un espace acoustique commun et que la meilleure solution consiste à mettre les instruments dans un lieu tiers et à envoyer le signal acoustique vers les deux lieux accueillant le public. Il peut à ce titre est tout à fait aussi intéressant de chercher à homogénéiser ou au contraire à accentuer les différences de couleurs entre les lieux.
Sont ensuite listées quelques-unes des différentes technologies utilisées dans le cadre de ces projets :
• Jack Trip (développé par un chercheur de l’université de Stanford)
• GStreamer for video (Scenic too young)
• audience performer et video monitors
• Skype
• VLC
• Access Grid (plus considéré comme sérieux, devrait être balayé par Skype dès que Skype pourra gérer plusieurs interlocuteurs simultanés)
• DVTS, qui offre une bonne qualité pour du point à point
• Chat IRC
• EyesWeb, PureData, Max MSP (captation de geste en temps réel)
• Audience Spaces

Andrew Gerszo conclut sa présentation en soulignant que la question de la relation avec le public, et des espace acoustique partagés avec le cas échéant la possibilité de se déplacer entre plusieurs noeudsest encore très peu traitée dans les networking groups.
Il demeure encore beaucoup de travail technique, artistique à réaliser pour rendre tout ça utilisable, d’autant qu’il n’existe pour l’heure aucune plateforme commune sur laquelle s’appuyer. En une phrase : « Network performance is NOT plug and play ! »

Ainsi le projet réalisé sous l’égide du Metropolitan Opera, avec l’appui technique de la société allmobilevideo.com assurait :
Pour la vidéo :
• une capture à 1080i/29,97fps
• 28 canaux vidéos (Theater, PBS, home video)
• diffusion satellite et fibre
Pour l’audio:
• 5.1 channel surround sound
• adapt for living room and theater
• filtres particuliers pour la radio

Pour l’Ircam, Gerszo souligne que le challenge, c’est de se positionner par rapport à ces propositions, en intégrant la question de la flexibilité, et de la reconfiguration rapide.
La discussion est ensuite ouverte avec la salle.

Question : Une personne dans le public mentionne qu’elle est organisatrice du festival Marseille Provence 2013: un projet proche de tout ce qui a été présenté ici, notamment pour ce qui est d’assurer la traduction entre les demandes des artistes et les techniciens. La personne suggère une collaboration avec l’Ircam dans le cadre de Comedia.
Réponse : Gerszo répond qu’il envisagerait cette collaboration avec plaisir même indépendamment du projet Comedia. Dans le prolongement de COMEDIA, il est en effet prévu de basculer dans le domaine ITC, pour tenter d’avancer vers des solutions plus opérationnelles. Les partenaires rencontrent en effet des problèmes de pérennité avec les technologies présentement utilisées.

Question: dans MAX MSP une solution de communication par réseau avait été développée. Comment se positionne Pure Data sur ce créneau ? Il a par ailleurs été récemment annoncé une reprise en main complète d’AccessGrid par PureData ?
Réponse : Autant Max MSP que Pure Data; sont capables de dialoguer avec le réseau, cette capacité n’est pas vraiment développée, car pas au cœur de leurs problématiques
Il y a beaucoup de bricolages, l’utilité est souvent liée à la bonne volonté du développeur. Un des problèmes de DVTS réside en le fait qu’il n’y a plus de nouveaux développements sur DVTS. Le problème n’est pas spécifique : les partenaires travaillent avec des outils performants mais peu pérennes, car il n’existe pas de projets de développements structurés. JackTrip, développé par des chercheurs de Stanford est ainsi tout à fait fonctionnel en soi, mais il n’est pas devenu un produit commercial. Un autre logiciel existe Conference XP, qui fonctionne sur WindowsXP mais tout le projet repose dans les mains d’un seul chercheur à l’université de Washington

Question : quels sont les modèles économiques envisagés pour rentabiliser ces recherches ?
Réponse : En ce qui concerne le modèle économique du MET Opera, le public achète des billets pour se rendre dans un espace particulier. Il existe une salle au Mexique de 4500 places dans laquelle sont diffusés des opéras devant 4500 personnes

Question : Dans le cas du concert de trois musiciens répartis en des lieux distants, comment sont gérés les retours entre les musiciens ?
Réponse: il y avait toutes les sources audio mixées en un même endroit puis rediffusées sur toutes les places mais des problèmes de bande passante, avec Hambourg induisaient une qualité connexion plus proche de celle d’un abonnement Free que d’une liaisons professionnelle.

Vincent Puig passe ensuite la parole à Alexandre Monnin qui présente un travail réalisé dans le cadre de la revue THD Culture, les méthodologies, ainsi que les outils utilisés et quelques conclusions effectuées à cette occasion.

Alexandre Monnin se connecte à debategraph.org. Cette étude porte sur l’avenir de la radio numérique terrestre, c’est une réflexion qui s’inscrit dans le cadre de l’Observatoire des technologies culturelles, en essayant de saisir les tendances historiques afin d’en extrapoler des caricatures.

La thématique présente une double actualité, et son intérêt repose sur plusieurs aspects:
• la RNT n’est pas la TNT ;
• la TV analogique vit en région parisienne ses dernières heures ;
• la RNT passe plus tard au numérique que la TV et dans un contexte différent.

On peut se demander si le modèle pensé pour la TNT peut être appliqué à la radio, qui a la spécificité notamment de faire intervenir un grand nombre de fréquences. Alexandre Monnin a essayé de représenter dans le graphe qu’il présente, l’articulation entre les diféfrents acteurs ainsi que les prises de position antagonistes. Le rapport Kessler contredit ainsi le rapport Teissier qui lui-même contredit le rapport Amelin. Interviennent aussi dans le débat des acteurs privés: Pierre Bellanger et Sylvain Aniquini, se sont fondu d’un petit opuscule en faveur de la radio IP.

Il est ainsi possible d’articuler les enjeux de ce débat. Les principales questions stratégiques peuvent être listées ci-dessous:
• y a t il une volonté de lancer la RNT, y aura t il un effort financier ?
• le CSA est il en mesure d’assurer la couverture nationale ?
• les fabricants sont-ils prêt à défendre ces nouveaux formats: il va falloir que les gens abandonnent leur postes actuels et adoptent une nouvelle gamme, sachant que la radio peut-être écoutée sur le web ?
• un des problèmes : les grands groupes ont joué un rôle ambigu vis à vis de la TNT , or une RNT sans les grands groupes serait très amputée
• jusqu’à quel point les diffuseurs sont ils prets à faire pression sur les couts ?

L’enjeu majeur pour l’IRI est de se poser la question du statut du numérique en tant que technologie en incluant l’espace des pratiques dans lequel elle vient s’inscrire (un numérique dans le web, ou en dehors du web ? Faut il prendre en compte l’émergence de ce web audiovisuel ?
Un intervenant du public souligne que des 6 questions mentionnées 5 sont au moins tranchées et que c’est essentiellement une problématique politique et non pas technique.

Philippe d’Anfray, du CEA, prend ensuite la parole pour aborder la question des environnements collaboratifs pour la recherche
Internet permet de plus en plus la collaboration en temps réel, mais il offre une dimension un peu nouvelle : celle des réseaux sociaux, pas nécessairement sur FB mais plutôt sur LinkedIn pour ce qui est de environneents professionnels. On voit ainsi de plus en plus apparaitre spontanément ce type de modèles de travail collaboratif.

Le problème majeur qui se pose est celui de la temporalité de la collaboration.
• Le long terme: exploitation de grands instruments industriels scientifiques, partage de base de données, etc
• Le court terme : collaborer c’est partager et fédérer des ressources, les principaux problèmes sont l’hétérogénéité et les problèmes de gouvernance
La question est donc de définir la boite à outil du chercheur. Mais elle est impossible à définir a priori et elle n’existe pas sur catalogue. L’environnement réseau pose une nouvelle problématique et crée de nouveaux besoin en termes de connectivité, de délai, de débit, les politiques de sécurité et de contournement…

Les cinq points clefs d’un environnement de travail collaboratif sont selon Philippe d’Anfray:
• l’infrastructure de service
• le portail d’accès à l’infrastructure
• les outils clients locaux
• la salle virtuelle
• le lieu concret

A l’origine, les grids permettent l’agrégation des ressources de calcul puis de stockage.. Mais ces technologies de cloud computing concernent aujourd’hui tous les projets.
Les utilisateurs se sont appropriés ces technologies pour les orienter vers lesservices (construction de e-infrastructures). Les règles sociales s’établissent à travers la gestion des organisations virtuelles. L’infrastructure permet l’authentification unique des utilisateurs, gère leur appartenance à des communautés, permet d’identifier des ressources disponibles, permet la localisation des ressources.
Pour ce qui est du portail, l’information et le service proposés aux utilisateurs sont configurables par l’administrateur du portail et par l’utilisateur. Le portail est aussi un conteneur qui accueille des portlets accessibles à travers une interface web. Il s’agit là de l’interface idéale et transversale aux systèmes d’information des organismes d’entreprises (exemple d’Acces Grid complexe à utiliser)

Philippe d’Anfray précise qu’au sein de leur équipe de recherche, ils ne souhaitent pas développer des applications distribuées mais des clients locaux. Il présente ensuite les différentes parties du dispositif , en commençant par la salle virtuelle. Il est essentiel de comprendre que nous ne sommes plus du tout dans le domaine de la visioconférence. Il s’agit plutôt d’un lieu fixe et instrumenté où les utilisateurs se retrouvent pour exécuter des applications partagées, déposer des objets, etc. A la différence de la visioconférence, la connexion est permanente.

Philippe d’Anfray aborde ensuite la question du lieu concret qui accueille les équipements écran audio video. Il souligne que les environnements qui permettent l’interactivité sont encore souvent déconnectés des déploiement d’intergiciels. AccesGrid implémente la notion de salle virtuelle et réalise l’infrastructure de service. Le transfert de donnée se fait par l’infrastructure via un réseau mondial de serveurs, et les développements sont assurés par une communauté de développeurs et d’utilisateurs.

Le protocole multicast permet l’interaction de groupe à groupe (many to many), laisse le travail à l’infrastructure et non aux applications clientes: son, image… Un routage optimal est ainsi garanti, qui permet d’économiser les ressources locales et les ressources réseaux. Le protocole demeure marginalement implémenté en IPv4, mais deviendra naturel sous IPv6.

AccessGrid offre de multiples possibilités de configuration. Ainsi n’importe quel client peut être encapsulé ce qui permet par exemple de partager des plugins, des murs d’image en projet PureData.
Philippe d’Anfray résume ainsi les différentes conditions nécessaires à la mise en œuvre de ce type d’environnements collaboratifs :
• une salle virtuelle ouverte en permanence
• un portail (accès uniforme + sécurité + accès simplifié)
• une infrastructure de service
• une organisation virtuelle
• une optimisation des services communs
• une facilité de développement des clients
• une support communautaire

Question: quelle est la position de votre institution par rapport à la neutralité relativement au déploiement du Multicast ?
Philippe d’Anfray répond que la question ne se pose pas réellement en ces termes dans la mesure où leur dispositif est utilisé dans le cadre des réseaux de recherche. Le multicast permet surtout d’économiser des ressources réseaux, et il deviendra un protocole de plus e plus nécessaire avec IPv6, l’internet des objets et l’indexation de millions d’objets du quotidien. In ne fera plus sens alors d’utiliser des connexions point à point. Pour l’instant il existe un problème économique: il n’existe pas de modèle économique pour financer le multicast.

Question: Sur quel poste a t on intérêt à porter la priorité ? Quel est le maillon faible qui pêche par manque de débit ?
Réponse: dans les applications qu’on fait, besoin de débit pour transférer les données, on envoie des vidéos en haute résolution. Sur le réseau Renater les tuyaux sont surdimensionnés, c’est la disponibilité instantanée qui est problématique et qui elle dépend de l’usage des autres institutions utilisatrices du réseau.

La séance se poursuit avec la présentation d’une activité de Wiki radio par Ndiata Kalonji, de la société Saouti.
Ndiata Kalonji commence par présenter brièvement son parcours : initialement chercheur en physique fondamentale sur les semi conducteurs, puis salarié dans le secteur des télécoms, au coeur de réseaux, architecture internet, au niveau national et international, Peering, piis enfin les wikiradios.

Le taux de pénétration d’Internet est déjà très élevé, et le THD va se développer partout, et très vite. La proposition de Saouti s’inscrit précisément dans ce contexte et à l’intersection de plusieurs enjeux pluri-médias, dans un secteur industriel où tous les acteurs s’intéressent à tous les supports de diffusion mais pas avec la même intensité : radio, papier, TV, audio, texte, vidéo. Si la disparition de la FM est déjà amorcée, la question est à présent de savoir combien de temps va prendre la transition vers le 100% numérique. L’intérêt des diffuseurs est que cela se fasse le plus vite possible ; en effet, durant cette phase de transition, ils vont devoir entretenir en parallèle deux réseaux avec des revenus publicitaires qui de surcroit sont en baisse continue.

Saouti, jeune entreprise née il y a 18 mois, se positionne sur ce marché en tant que fournisseur unique de webradio participative et communautaire avec studio dématérialisé. Le métier de journaliste ne change pas, l’outil possède la capacité de démultiplier le studio en tout lieu à très bon marché.

Ndiata Kalonji présente ensuite quelques exemples significatifs d’usage de wikiradio. Il existe plus de 1000 fédérations sportives, chacun gère sa communication et ses droits de manière indépendante. Cependant seuls quelques sports comme le foot, le tennis, le rugby, etc… possède une visibilité publique via les radios existantes. Ndiata Kalonji présente une image d’un match de handball retransmis en direct via le dispositif Saouti. En effet, cette technologie permet de réer un studio d’enregistrement virtuel n’importe où et instantanément.

Tous les outils sont en mode distant, aucun besoin de télécharger quoi que ce soit, il suffit d’être équipé :
• d’un micro USB
• d’un écouteur avec prise jack
• d’un ordinateur
• d’un navigateur web

L’écoute de la wikiradio peut être réalisées sur tous terminaux : PC/Mac, Smartphones, Tablettes, auto/radio Internet, radio hertzienne, etc.
L’intégration est rapide sur un site, il suffit d’insérer dans le code source de la page un widget aux couleurs du client pour accéder à un player enrichi et personnalisable en moins de 30 minutes.
Le débat est ensuite ouvert avec la salle.

Question: qui assure la partie archivage des données ?
Réponse : Ndiata Kalonji répond que la société assure un service en ligne intégré: tout est géré par le serveurs Saooti.

Question: A quel niveau se situe un débit confortable ?
Réponse : Il faut distinguer le débit côté émetteur du débit côté auditeur. Du côté émetteur, le service met à disposition un wizard qui permet de tester la ligne: 200Ko/ mais aussi la qualité de l’accès mesurée à travers des paramètres tels que delay, jitter, taux de perte de paquets, si le voyant passe au vert, la ligne est bonne. Du coté auditeur, c’est du streaming et ça dépend donc du nombre d’accès.

Question: dans le cas d’un événement sportif, avec une transmission en direct, s’il y a une coupure de réseau, est-il possible de faire une diffusion en différé ?
Réponse : s’il y a une coupure internet, on perd le service. Il existe des solutions palliatives sur mesure, mais elles complexifient singulièrement le dispositif. Les taux d’indisponibilité des réseaux d’opérateurs diminuent tous les ans, aussi Saouti considère-il ces problèmes comme secondaires et tout à fait exceptionnels. Il y a aussi la possibilité d’ouvrir deux studios simultanés sur deux réseaux différents (par exemple l’un via le PC et l’autre via Smartphone).

Vincent Puig reprend la parole pour conclure l’atelier.
Il rappelle que l’Iri est particulièrement attaché à l’amateur émancipé ou encore à l’amateur outillé. La parole et l’audio sont capitales dans toutes les technologies développées par l’Iri. Les fonctionnalités se développent. Il existe encore beaucoup d’inhibitions, mais avec le web et avec le numérique, cette crainte de s’exposer par la parole va disparaitre au fur et à mesure que les usagers se familiariseront avec ces technologies (ex téléphone). Il y a des questions d’usage, des questions de sociologie que l’iri traite notamment avec l’Institut Télécom. L’IRI proposera les vendredi 27 et samedi 28 janvier un atelier apprenant à prendre des notes en temps réel et à les diffuser via Twitter et Lignes de Temps à l’occasion du salon THD.

Vincent Puig conclut la séance en donnant rendez-vous aux personnes intéressées les 14 et 15 décembre prochain pour les Entretiens du nouveau mode industriel qui aborderont la question de l’hyper miniaturisation ainsi que ses implications pour le débat public.

  • Jamespot
  • Twitter
  • Facebook
  • Digg
  • Delicious
  • LinkedIn
  • FriendFeed
  • Tumblr
  • Netvibes Share
  • MySpace
  • Share