Imprimer ceci Page

Objectifs et Enjeux

Objectifs de l’Observatoire TransMedia

Le paysage communicationnel est au cœur de la révolution numérique : les acteurs se diversifient, les moyens de production et de diffusion évoluent et de nouveaux modes d’usage et de consommation se développent, bouleversant au passage les modalités économiques établies. Notre objectif est de mettre en place des processus, outils et méthodes pour mieux appréhender les enjeux et les mutations de la sphère médiatique. L’Observatoire TransMedia aura pour objet l’étude et la traçabilité des évènements médiatiques sur tous les supports de diffusion : web (blogs, site de media traditionnels…), presse, radio et télévision. Il s’agit de mettre en place une plateforme d’analyse des différents flux médiatiques pour détecter, circonscrire, suivre, mesurer, analyser et étudier la propagation des évènements médiatiques et leurs dérivés. L’originalité de l’Observatoire Transmedia est de partir des besoins d’analyse exprimés par les chercheurs en SHS et les acteurs de l’information et de collaborer tout au long des développements pour élaborer de nouveaux concepts et outils d’analyse adaptés aux volumes et à la diversité du paysage informationnel.
L’ambition du projet OT-Media est de rendre plus intelligibles, visualisables et explorables, à un macro-niveau d’analyse, les relations entre internet, radio, télévision, et presse, grâce à la caractérisation et au suivi à des granularités variables des entités médiatiques. Il s’agit de donner aux chercheurs en SHS et aux acteurs de l’information, dans un premier temps, et aux citoyens, dans un second temps, les moyens d’analyser et de comprendre l’information aujourd’hui. La multiplication des supports de production et de diffusion offrent une multitude de choix pour l’usager, mais est elle pour autant un gage de pluralité de l’information ? Qui produit l’information ? Qui en est la source ? Ces interrogations sont des questions d’intérêt général pour la société d’aujourd’hui et de demain.

Enjeux et Originalité

A l’heure où la masse des informations disponibles ne cesse de croître, où les supports se multiplient et où l’image prend une importance nouvelle, l’observation du paysage informationnel se heurte au manque cruel d’outils capables de traiter l’information. En effet, volume, diversité des supports et des formes et multimodalité représentent encore des enjeux (voire des verrous) scientifiques forts.
L’originalité et la force de ce projet résident dans la synergie des recherches scientifiques et sociologiques. Le partenariat de l’Observatoire TransMédia regroupe l’équipe « Communication Information Media » de Paris 3/ENS et des équipes scientifiques à la pointe de la recherche dans l’analyse linguistique (Syllabs), la description image (INRIA) et audio (LIA) et dans les moteurs de recherche vectoriels à très grande échelle (INA, INRIA) et la visualisation (INA). Ces technologies seront mises à disposition du projet décrire et analyser les contenus. La performance et la qualité de ces modules garantit la viabilité du projet en termes de volumétrie et de qualité de description. La dynamique entre technologie et usage est portée la nécessité de créer, à partir de ces outils de description, de recherche et de visualisation, eux même enjeux de recherches scientifiques, des moyens de détecter des d’objets d’intérêts, d’analyser des évènements, des tendances et enfin, d’élaborer de nouvelles mesures et critères d’observation.
L’objectif scientifique du projet est la création d’une nouvelle génération d’observatoire des média basée sur un système interactif d’analyse automatique (et semi automatique) transmedia afin d’appréhender le monde de l’information et ses évolutions.

Contexte et positionnement du projet

L’objectif de l’Observatoire TransMedia est d’analyser et de comprendre les transformations induites par la mise en œuvre des NTIC dans le champ de la production et de la réception médiatique à l’heure où un grand nombre d’acteurs « historiques » sont fragilisés par l’émergence de nouveaux modèles économiques et de production. Si les scénarios et applications sont axés sur les médias français, les outils d’analyse et les critères d’observation mis en place dans le cadre de ce projet se veulent génériques et indépendants d’une culture spécifique.

  1. Contexte et enjeux économiques et sociétauxLa presse écrite existe depuis le XVIIe siècle, les agences de presse se développent à partir du milieu du XIXème siècle, les médias audiovisuels (radio et TV) font leur apparition au début du XXème siècle puis deviennent dominants dans la deuxième moitié du siècle. Des articulations entre ces acteurs médiatiques se sont donc établies pendant plusieurs décennies. Pour simplifier, tout s’organisait selon l’adage de Hubert Beuve-Méry, fondateur du quotidien Le Monde en 1944 et dont il restera le directeur jusqu’en 1969 : « La radio annonce l’événement, la télévision le montre, la presse l’explique. »

    A la fin des années 70, dans le débat à l’Unesco sur le nouvel ordre mondial de l’information et de la communication, les grandes agences de presse (AP, UPI, Reuters, AFP) étaient critiquées pour ce qui était perçu comme une mainmise sur l’information mondiale et pour leur capacité à figer l’agenda médiatique mondial.

    En 1981, est apparue la chaîne toutes informations de Ted Turner, Cable News Network (CNN), dont la diffusion souvent en direct des événements médiatiques a profondément bousculé le paysage des médias, forçant les grandes agences à évoluer vers la diffusion de services d’information en vidéo (Patrick White, le village CNN, la crise des agences de presse, Presses de l’Université de Montréal, 1997).

    L’apparition des chaînes d’information en continu a ouvert une première brèche dans le système mondial de collecte de l’information médiatique, les grandes agences devant rivaliser, notamment avec CNN, pour donner l’information en premier. Dans le même temps, CNN et d’autres chaînes devenaient elles aussi une source d’informations pour les grandes agences.

    L’apparition de l’internet grand public, vers 1995, a ensuite contribué à agrandir cette brèche dans le système de communication de l’information hérité du XIX siècle. Il y désormais interconnexion entre presse, radio, télévision, et Web, au point que certains parlent même d’écosystème de l’information plutôt que de système médiatique, pour mieux insister sur l’interdépendance entre tous ces médias, interdépendance technique, en raison du continuum numérique, qui facilite le transfert d’une information d’un média à l’autre, doublé d’une interdépendance économique et sociale.

    Les journaux, dont les scoops étaient autrefois rapportés par les agences, sont devenus, avec leurs sites Web, accessibles en quelques clics et quelques secondes, à l’autre bout du monde. Les radios, TV du monde entier sont disponibles sur le Web, la plupart du temps gratuitement, et rencontrent de nouveaux acteurs « pure players » (agrégateurs, sites participatifs, blogueurs).

    Les internautes eux-mêmes sont les artisans d’une propagation de l’information d’un média à l’autre. Les extraits de journaux télévisés sont reproduits sur des plateformes de vidéos et, réciproquement, les témoignages amateurs, filmés via des appareils miniatures (caméscopes, smart-phones), alimentent les chaînes de télévision lors d’évènements impromptus. Les partis politiques, les bourses du monde entier, les gouvernements, les entreprises, les experts ont désormais leur site Web et communiquent via ce site, ou via des blogs ou des réseaux sociaux (de type Twitter ou Facebook) et communiquent de plus en plus en direct avec leurs sympathisants, administrés, clients… court-circuitant les médias traditionnels.

    Dans cette véritable révolution technologique, sociale et économique que subit le monde des médias, quel est désormais le cheminement de l’information ? Quelle est encore l’influence des médias dits traditionnels sur l’agenda médiatique, sur la consommation de l’information par les internautes ?

    Si la « circulation circulaire de l’information » entre journaux, stations de radio, et chaînes de télévision, avec souvent pour origine le recours aux dépêches d’agences ou aux communiqués de presse, caractérisait déjà l’époque précédente, le déploiement de l’internet tend toutefois à amplifier ce phénomène. Tout d’abord en ajoutant un média de plus dans cet enchevêtrement informationnel. Ensuite, en facilitant techniquement la duplication des contenus sur plusieurs supports. Enfin, en modifiant l’échelle et la vitesse de cette circulation de l’information.

    L’information est aujourd’hui l’objet de réappropriations multiples, par les professionnels du journalisme comme par les internautes amateurs, à tel point qu’il est parfois difficile d’en retrouver l’origine. Ceci amène évidemment des questions immédiates quant à la fiabilité et la qualité de l’information : L’appropriation d’une information par les internautes, via les sites de réseaux sociaux ou les discussions dans la blogosphère, est-elle source d’enrichissement ou au contraire de dénaturation ? L’expérience menée par France-Inter, France-Info, RTBF, la Radio Télévision Suisse et Radio Canada, en janvier 2010 et consistant à isoler 5 journalistes de toute communication hormis Twitter et Facebook, en leur demandant d’écrire chaque jour un billet pour donner leur perception de l’actualité, illustre bien les préoccupations et interrogations des acteurs de l’information (cf. annexe Articles de journaux).
    Plus fondamentalement encore, si l’on considère que les médias jouent un rôle démocratique dans l’information des citoyens, le fonctionnement de cet espace public « augmenté » par le numérique constitue-t-il une évolution favorable ? Assiste-t-on à une démultiplication de contenus originaux, ou au contraire à une certaine redondance de l’information, reproduite sur chacun des médias, même si c’est dans des formats différents

    Dans leur « création destructrice » à la Schumpeter, quel rôle joue les nouveaux médias dans le cheminement de l’information ? Sont-ils des suiveurs, des copieurs ou au contraire des innovateurs ? Renouvellent-ils le genre avec un positionnement plus libre, moins institutionnel, moins politiquement correct ? Comment propagent-ils les informations dans cette « circulation circulaire » qui, bien que déjà présente à l’époque précédente, prend sur le net des allures de spirale sans fin ?
    Dans le même temps, la publicité, manne de financement de bon nombre de médias traditionnels, déserte les « anciens » supports pour expérimenter sur le Web de nouveaux types d’engagement de l’audience des marques qu’elle fait vendre. Alors que de plus en plus de publications sont contraintes de mettre la clef sous la porte, faute de lecteurs et de publicité, comprendre comment circule l’information dans notre société constitue un enjeu majeur sur le plan économique pour l’industrie des médias et celle de la publicité ainsi que sur le plan sociétal pour le fonctionnement démocratique de notre société.

    Héritière de l’agence Havas fondée en 1835, l’Agence France-Presse (AFP) est l’une des trois grandes agences mondiales d’information. Tout au long de son histoire, elle a toujours été à la source de l’information diffusée par de nombreux médias du monde entier. Même si elle a su s’adapter en vendant notamment ses services d’informations aux plus grands noms du Web, la révolution de l’internet et des nouvelles technologies de l’information et de la communication n’en demeure pas moins un défi sans précédent pour l’AFP, tant dans son rôle de source d’information, dans son rôle d’alerte sur les grands événements médiatiques internationaux, que dans son rôle de mise en contexte, d’explication de l’information internationale. Son modèle même de communication (au sens infocom du terme : émetteur-message-récepteur) est remis en question par les usages participatifs des internautes.
    Comprendre le nouveau cheminement de l’information, sa propagation, constitue donc un enjeu primordial pour continuer à rester demain un acteur de référence dans le paysage médiatique international.

    Quelques études issues de la recherche en SHS ont commencé à étudier ces problématiques. Nous citerons les initiatives américaine de Harvard et la fondation Pew, et en France, les travaux de l’IPRI (CIM), et le Medialab de Sciences Po. Ces initiatives seront développées plus en détail dans la prochaine section, mais nous pouvons d’ores et déjà souligner qu’elles se heurtent aux problèmes technologiques et financiers liés à la mise en œuvre d’un système permettant l’observation des phénomènes à une échelle suffisante pour être significative.
    Les sociétés de veille et de marketing effectuent aussi de la fouille sur des données transmédia qui rejoignent partiellement les préoccupations abordées par l’Observatoire TransMedia.

    TNS Media Intelligence (Sofres) et Médiamétrie réalisent des études pluri-médias (Web, radio, TV, presse, voire affichage publicitaire extérieur), avec leurs services respectifs de « Veille de l’information » et d’analyse « Cross médias ». Ces études répondent essentiellement à des besoins de veille marketing pour des demandes ciblées de clients, elles sont aussi réalisées de façon plus globale pour un suivi de l’information à partir de l’actualité à la Une des médias.
    Sur ce dernier point précisément, TNS-MI et Médiamétrie se sont associés pour mesurer l’ « unité de bruit médiatique » (UBM) d’un événement, relative à sa surface éditoriale (pagination des journaux, durée de diffusion d’une information à la radio ou à la télévision) et pondérée par son audience : L’indice UBM « porte sur un périmètre pluri media de 80 supports et sessions d’information, en Presse, Radio et Télévision, généralistes et leaders en audience. [Il] intègre le volume, l’impact et la tonalité de l’information pour mesurer la pression médiatique. ».

    Un grand nombre de petites entreprises ont vu le jour ces dernières années sur le créneau marketing, mesure d’audience spécialisées du media Web (At internet, Wikio, Weborama, The Metrics Factory, kanta media intelligence, 1000 mercis, FullSix, Yacast). S’il est difficile de percevoir le degré d’automatisme des processus de détection et de mesures d’apparition des objets signifiants pour des objectifs marketing, la plupart des travaux innovants à ce niveau sont plus orientés sur la mesure de l’audience. Ces deux approches sont donc très complémentaires et permettraient potentiellement de réaliser un système de mesure de visibilité des marques et publicités extrêmement performant.

  2. Positionnement du projetLa circulation de l’information entre différents acteurs pose la question de leur place et rôle respectifs dans la production et la diffusion des « données médiatiques ». Ce sujet d’actualité a déjà fait déjà l’objet d’analyses au niveau international et français (cf. article du monde en annexe) :

    - Media Cloud est une initiative de l’université de Harvard. L’objectif est la mise en œuvre d’un système d’analyse automatique de l’actualité sur internet basé sur des sites d’actualité et des blogs. Le system est en cours de développement (en stand by depuis quelques mois)

    - La fondation Pew propose une analyse qualitative sur un corpus web d’actualités locales dans la ville de Baltimore sur une période d’une semaine. Les résultats de l’étude viennent d’être publiés (cf. article du monde en annexe).

    - Le lien vers le wiki de la recherche IPRI

    - Un lien vers les études linkfluence de RTGI: politicosphere.net (un outil plus directement lié à l’étude de l’actualité politique, aux Etats-Unis)

    - Médialab de sciences Po s’est créé en 2009 en vue de mettre à profit les NTIC pour la production, la construction, le traitement et l’analyse de gros volumes de données numériques et leur représentation cartographique pour une approche « quali-quantitative » en SHS. Néanmoins, cette initiative n’est pas spécifiquement orientée sur les média : les sources couvrent un échantillon beaucoup plus large de ressources (études, articles, données quantitative et qualitatives) avec granularité différente. L’Observatoire TransMedia et le Medialab de sciences Po constituent donc des initiatives complémentaires ayant en commun une synergie forte entre technologie et SHS. Des contacts seront établis entre ces deux initiatives.http://www.sciences-po.fr/recherche/fr/dispositif/medialab.htm.Si elles présentent des résultats déjà très intéressants, ces études ont été mises en œuvre sur des corpus restreints :

    • Media Cloud, RTGI les travaux de l’IPRI(CIM) avec leurs spécificités respectives, ne touchent que le média internet.
    • Pew touche à l’ensemble des médias, mais à partir d’études qualitatives, sur des corpus relativement réduits (au niveau temporel : quelques jours pour l’étude sur Baltimore / au niveau du nombre d’items : corpus limité aux principaux journaux, principales chaînes de télévision et stations de radio, principaux sites internet pour le News Coverage Index).
    • L’initiative de sciences Po, commence tout juste.

    Le projet OT-Media a l’ambition de couvrir les principaux acteurs de production et de diffusion du paysage médiatique français quel que soit le media utilisé : internet (sites d’information, blogs Twitter), TV, radio, et presse et dépêches de l’AFP. Son assise temporelle (1 à 2 ans) et le choix d’un échantillonnage représentatif des média français permettra une observation de la propagation diachronique des informations, à l’intérieur d’un même média (ex : TV) et entre médias (ex : entre TV et internet, pour un même producteur/diffuseur) à une échelle inégalée actuellement.

    L’objectif d’OTMedia est de catégoriser, classifier et représenter temporellement, et selon différents critères, de très gros ensembles de données multimodales. Ces objectifs sont actuellement envisageables grâce aux dernières avancées de recherche relatives à la description de contenus multimodaux et aux moteurs de recherche pour permettre l’accès à de très grands ensembles de documents multimédia. Il convient donc d’aborder quelque peu le contexte technologique servant de base à ce projet et les initiatives qui lui sont propres.

    Les projets de moteur de recherche et de fouille de données multimodales au niveau européens sont nombreux :
    VITALAS, PHAROS, MESH, VICTORY, VIDI-VIDEO, RUSHES, TRIPOD, DIVAS, SALERO, SAPIR, PETAMEDIA, et plus récemment GLOCAL, i-Search, COAST, LivingKnowledge, 3DLife sont des projets européens qui portent sur l’analyse multimodale de corpus text/image et de corpus de vidéo. Ils sont plus portés sur la description et la recherche d’information multimodale. Certains d’entre eux abordent la découverte de connaissance par la fouille de donnés sans aller jusqu’à établir un observatoire (par exemple : LivingKnowledge, Vitalas Petamedia). Néanmoins les techniques de base y sont bien poussées. Ce constat est conforté par le résultat d’un questionnaire effectué par l’action de coordination sur les moteurs de recherche européen « CHORUS » auprès de ces différents projets. Il en sort la synthèse suivante au sujet de leurs différents scénarios cibles et représentés par la figure ci-dessus.

    D’après cette figure, on constate que le « monitoring » ne vient qu’en seconde position pour les choix d’interaction avec les systèmes développés. Ce qui est à noter est que la plupart des scénarios de « monitoring » concernent plus la détection de copie ou de vidéosurveillance et non pas la découverte de connaissance et encore moins munis d’interface de visualisation et de navigation avancés.

    En revanche, au niveau international, le thème est particulièrement actif au Japon avec un fort investissement gouvernemental à travers des initiatives financées par le ministère de la recherche d’une part (MEXT) : « InfoPlosion » (Information exPlosion) qui réuni 300 chercheurs japonais; et le ministère de l’Industrie (METI) d’autre part avec le projet « Information Grand Voyage » (IGV plus de 100 millions d’euros). Sur des projets ayant une orientation sociétale, nous notons un précurseur « e-Society » coordonné par l’université de Tokyo et un plus récent qui vient de démarrer en 2010 et « Multimedia Web Analysis Framework towards Development of Social Analysis Software » et est coordonnée par le NII (National Institut of Informatics). Il s’agit d’un projet de 3 ans avec 1 millions d’euros de budget annuel. Les membres du consortium d’OTMedia sont en étroite collaboration avec toutes ces initiatives japonaises. OTMedia, s’il est accepté, offrira une bonne opportunité pour accentuer l’échange d’expériences, de connaissances et de valorisation avec ces différentes initiatives japonaises avec qui nous avons une longue expérience d’échange scientifique.

    Au niveau français, Voxalead est une application développée par les sociétés Exalead, Vecsys et le laboratoire de recherche Limsi dans le cadre du projet Quaero. Elle permet d’accéder à des segments d’information issus de chaînes télévisuelles ou de radios la recherche par des nuages de mots clefs. Ces nuages de mots sont directement issus du processus de transcription automatique audio effectué sur les programmes sources. Actuellement, Voxalead traite en continu des flux TV et radios avec un délais temporel.

    En conclusion, OTMedia n’est ni un moteur de recherche, ni un moyen d’accès à l’information pour des but de réutilisation des ressources ou de monitoring, mais un moteur d’analyse et de fouille de données à grande échelle, avec un objectif sociétal porté par des recherche en sciences humaines. Il se rapproche en cela des initiatives japonaises et se différencie de l’application Voxalead et des initiatives de moteurs de recherche listées précédemment. Si une partie des technologies de description et de moteurs vectoriels sont communes, dans le cadre d’un moteur d’analyse, elles sont encore l’objet de recherche et de verrous technologiques car les contraintes sont différentes (cf. verrous technologiques et description des tâches). D’autre part, la partie mining a l’ambition de travailler à plusieurs échelles de temps, dont l’année, afin d’analyser non seulement les effets de « bursts médiatiques» mais aussi les effets de type « longue traîne », ce qui soulève des enjeux scientifiques importants. Par ailleurs, OT media accordera une attention particulière aux aspects de visualisation des données, peu présents dans les initiatives relatives aux moteurs de recherche.

    OTMedia représentera une première brique pour construire un socle de connaissance et d’expertise avec des technologies innovantes. L’objectif est ensuite de le porter au niveau européen pour élargir l’impact et le déploiement de ses premiers résultats dans le contexte du PPP (Public Private Partnership). Dans le contexte du présent appel ANR, l’Observatoire des media s’inscrit dans l’axe thématique 2. Il répond aux sous thématiques par les domaines abordés précisés entre parenthèses :

    • Agrégation de contenu et de connaissance (fusion de contenus, web sémantique, web2.0,)
    • Passage du contenu à la connaissance (délinéarisation des contenus, présentation, synthèse et enrichissement de contenus)
    • Gestion du patrimoine numériques et indexation (indexation automatique
    • Outil de recherche et de navigation multimédia interactifs (fusion multimodale, visualisation, extraction automatique d’information, traitement de grands volumes de contenus, transmédiation).

Lien Permanent pour cet article : http://www.otmedia.fr/objectifs-et-enjeux/