Talk&Search

9, juin 2012  |  Publié : Futur en Seine 2012  | 

Talk&Search

Résumé
Talk&Search met en lien les différents articles entre eux. Abordant ainsi la notion de sérendipité, l’utilisateur peut naviguer à travers une galaxie d’informations. Pour cela, il pourra utiliser aussi bien son corps que la reconnaissance vocale.

Ce projet sera installé du 18 au 22 juin 2012 et présenté le 18 juin 2011 de 17h à 20h à la salle Triangle du Centre Pompidou lors du Pitch Forum DESIGN METADATA dans le cadre du Festival Futur en Seine.

Constat
Le début des années 2000 a vu l’émergence quasi exponentielle d’internet, pour arriver à nos jours, où plus de 600 000 Gb de données sont transférées chaque seconde dans le monde. Il est estimé qu’en 2015, il nous faudrait 5 ans pour visionner la totalité des vidéos transférées en 1 seconde…(source : intel) Aujourd’hui, une recherche ne peut être exhaustive face à la quantité d’information qui circule à chaque instant.

Devant une telle quantité, les moyens de recherches sont amenés à évoluer. Ainsi, nous avons voulu nous concentrer sur la sélection d’information, en tentant de trouver la plus pertinente en fonction de la recherche. En éliminant les articles périmés, en trouvant la dernière actualité, on trie et on limite volontairement les résultats pour plus de pertinence.

Face à cette quantité d’information, comment ne pas être noyé, et avoir accès à une information pertinente ?

Lorsqu’on lie des données entre elles par des tags, on créé un réseau d’informations liées entre elles par des liens. C’est sur cette base que s’est porté notre travail. Pour chaque recherche, on propose une sélection d’articles qui sont liés directement à la recherche, ce qui amène, théoriquement, à une limite de résultats pertinents et présentés à l’utilisateur. En associant les tags sur les résultats, on déploit notre recherche pour accéder à plus de contenu. L’idée est de pouvoir consulter notre navigation et voir ainsi comment nous avons navigué, comment notre recherche a évolué.

Description
On utilise les nouvelles technologies pour réaliser notre interface. Elle est basée sur la gestuelle pour naviguer et sur la voix pour lancer une recherche. Une fois la recherche effectuée, l’interface présente un article central (push de la main pour l’ouvrir) et des articles associés (swype de la main pour les sélectionner).
Il est possible de dézoomer ce premier écran pour accéder à notre historique de navigation qui représente notre cheminement de navigation dans un graphe. En dézoomant à nouveau, on accède à l’historique de la totalité des recherches qui présente le cheminement dans chacune des recherches.

Conçu et réalisé, par :

  • Chaker BEJAOUI – Strate College
  • Pierre-Louis MARQUET – Strate College
  • Bertrand BORIES – ESILV
  • Arnaud COURTY – ESILV
  • Share

Prochains événements

  • Pas d'événement.