"Jusque-là, il n’existait aucune émission de télévision entièrement transmédia."

Le projet crossmedia "About:Kate" est construit autour des aventures d'une jeune trentenaire, Kate Harff, lors de son séjour dans une clinique psychiatrique. L'expérience télévisée est "augmentée" grâce à une application pour smartphone dédiée. Ce qui peut paraître simple nécessite cependant quelques prouesses technologiques. Des chercheurs en "audio-fingerprinting" de l'Institut Fraunhofer de systèmes intelligents d'analyse et d'information (IAIS) ont rendu l'expérience avec le second écran possible. ARTE Creative s'est entretenu avec Sebastian Tschöpel, architecte solution à l'IAIS, à propos d'ornithologie, de protection des données et de l'avenir de la télé.

ARTE Creative : Le Fraunhofer Institut a développé la synchronisation sonore du projet transmédia About:Kate. L’édition en ligne de l’hebdomadaire Der Spiegel a qualifié ce programme de « nouvelle télévision ». En quoi s’agit-il d’une  nouveauté ?

Sebastian Tschöpel : Par son approche transmédia globale, ce programme est une première en Allemagne. Jusque-là, la convergence entre télévision traditionnelle, réseaux sociaux, site Web et interaction des téléspectateurs comme partie intégrante de l’intrigue n’existait pas sous cette forme. Notre technologie permet une synchronisation entre le first screen, téléviseur ou ordinateur, et le second screen, téléphone portable ou tablette à n’importe quel moment du programme. Pendant la diffusion linéaire du programme à l’antenne, on pourrait ainsi visionner des contenus supplémentaires en rapport avec ce programme. Mais il y a un hic : les chaînes de télévision ne sont pas complètement synchrones, et cette technologie ne fonctionne pas pour la VOD. C’est justement à cela que peut remédier notre technique de synchronisation sonore. 

Utilisez-vous la même technologie que celle à l’œuvre dans l’application de reconnaissance musicale Shazam ?

L’algorithme n’est pas le même, mais l’idée de base est similaire. Il s’agit d’un processus de reconnaissance automatique des contenus. Comme dans le cas de Shazam, nous avons une base de données qui contient toutes les pistes sonores que nous souhaitons pouvoir reconnaître. Nous enregistrons une séquence audio sur notre appareil et la convertissons en une sorte d’empreinte sonore que nous transmettons à notre serveur. Il localise alors dans la base de données la séquence audio dont il s’agit. La différence résiderait plutôt au niveau du type d’empreinte et de la base de données associée qui, pour notre utilisation, est de conception différente. 

Comment cet algorithme a-t-il vu le jour ?

Comme c’est souvent le cas chez nous, nos technologies sont d’abord pensées pour des applications concrètes résolument différentes qui, de prime abord, peuvent sembler bien éloignées du second screen ou de la culture. L’algorithme d’empreinte sonore a initialement été conçu pour reconnaître les chants d’oiseaux dans le cadre d’un projet de recherches.

Quels sont les autres domaines où la technologie d’empreinte sonore est à l’œuvre ?

La reconnaissance musicale est un exemple. Finalement, on peut utiliser cette technologie dans tous les cas de figure où l’on souhaite reconnaître un motif acoustique donné. Par exemple au niveau de la veille médiatique. Supposons que j’aie lancé un spot publicitaire et que je souhaite connaître toutes ses diffusions. Avec un système disposant de la technologie d’empreinte sonore, il serait possible de surveiller toutes les chaînes de télévision existantes. L’empreinte sonore peut également servir d’outil éditorial pour intégrer automatiquement un contenu au programme diffusé à l’antenne. Lorsque le signal audio est émis, l’application insère le contenu voulu au bon endroit. La technologie est actuellement en développement au sein du projet de recherche européen FIcontent et testé dans différents scénarios d'application.

L'application de "About:Kate"

Existe-t-il des projets comparables ?

Aux Etats-Unis, certaines séries proposent déjà une approche second screen. Pour Walking Dead, une série apocalyptique sur les zombies, une application second screen a été développée grâce à laquelle les fans peuvent estimer le Kill Count. De manière générale, les technologies second screen sont bien plus répandues aux Etats-Unis. En Allemagne, il existe maintenant un spot publicitaire de Volkswagen qui permet de s’enregistrer pour être redirigé sur le site Web de la marque.

En plus du procédé d’empreinte acoustique, vous utilisez également le watermarking ou tatouage numérique. En quoi ces deux procédés se distinguent-ils ?

Dans le cas de l’empreinte acoustique, on prend un signal sonore quelconque qui est ensuite reconnu. Alors que le watermarking consiste à imprégner la piste audio avec un filigrane inaudible. Si, à un instant T, on veut savoir à quel moment de tel épisode se situe l’internaute, il ne faudra pas reconnaître l’enregistrement qu’on a fait, mais extraire le filigrane du signal. Ce filigrane peut par exemple contenir le time code de l’émission. Ce procédé a ses avantages et ses inconvénients. L’avantage du watermarking, c’est qu’il n’a pas recours à une base de données rassemblant tous les contenus que l’on souhaite reconnaître, puisque toutes les informations nécessaires sont contenues dans le « tatouage ». Mais - inconvénient de taille -, tous les contenus que l’on souhaite pouvoir reconnaître doivent être préalablement marqués d’un filigrane. Concrètement, dans la veille médiatique, certains cas ne sont pas adaptés à cette technologie, car il n’est pas possible d’influer sur ce que diffuse la chaîne de télévision. C’est tout l’inverse qui se passe avec l’empreinte sonore : là, il faut préalablement disposer d’une base de données de tous les motifs que l’on souhaite trouver, mais pas du support matériel où l’on souhaite les chercher. 

L’empreinte sonore présente-t-elle des risques pour la protection des données ?

Pas chez nous, toujours. Nous enregistrons des séquences de 5 secondes, mais ce n’est pas cet enregistrement que nous envoyons. En fait, il s’agit ni plus ni moins d’un procédé d’encodage. Nous ne faisons qu’envoyer une série abstraite de chiffres qui ne permet plus aucune déduction quant au signal d’origine et peut juste être comparée avec le contenu de la base de données. Nous n’enregistrons d’ailleurs pas les adresses IP des internautes. 

 

Sebastian Tschöpel, Solution Architect du Fraunhofer Institut für Intelligente Analyse- und Informationssysteme (IAIS)

Quels sont les défis auxquels le projet About:Kate vous a confrontés ?

Le principal défi a consisté à élaborer le système en tenant compte de manière optimale du nombre d’utilisateurs et de leurs attentes. Malheureusement, on ne peut que procéder par estimation. Evidemment, on pourrait programmer un système de synchronisation sonore pour un million d’utilisateurs, mais cela représenterait un coût pour le moins inutile. C’est pourquoi il faut parvenir à un équilibre entre la taille du système et le nombre d’utilisateurs attendu. Ce qui était un peu difficile, vu qu’on ne savait bien sûr pas combien de personnes allaient regarder l’émission, combien d’entre elles disposaient d’un smartphone et si elles allaient télécharger l’application et l’utiliser. Ces chiffres, ces estimations, et le fait que tout le monde synchronise en même temps au début de l’émission nous ont donné du fil à retordre et nous ont obligés à procéder à plus d’un test. Et personne n’avait encore réalisé cela en Allemagne. Jusque-là, il n’existait aucune émission de télévision entièrement transmédia. Il était donc impossible de se référer à quoi que ce soit. 

Le Fraunhofer Institut est d’avis que « l’avenir, c’est la télévision interactive ». Que penses-tu de la tendance second screen ?

Je fais moi-même partie des digital natives et j’utilise donc beaucoup mon smartphone. Le second screen gagne du terrain, c’est clair. L’immédiateté est très grande ; à tout moment, on peut faire quelque chose avec son smartphone. Ce qui fait que le transmédia a déjà envahi notre quotidien. A l’heure actuelle, il est plutôt rare que le « natif numérique » lambda n’utilise qu’un seul support à la fois. Le second screen peut désormais combler un vide, ce que la télévision est impuissante à faire puisqu’elle est linéaire et tributaire d’un horaire. Il n’est pas possible d’interagir de quelque manière que ce soit avec un téléviseur. Et pour quelqu’un qui a grandi à l’ère d’Internet, voilà qui est d’un autre temps. Avec About:Kate, on regarde certes une émission de télévision linéaire, mais on peut tout de même interagir avec le programme. C’est là une possibilité qui n’existait pas auparavant. On peut même imaginer qu’un producteur réfléchisse à plusieurs fils narratifs et qu’il laisse les téléspectateurs décider. C’est vraiment intéressant tout ce qu’il est possible d’envisager.

Qu’aimerais-tu dire aux détracteurs du second screen ?Personne n’est obligé de s’en servir ! On peut très bien regarder About:Kate sans second screen, rien ne s’y oppose, on passe juste à côté de la dimension interactive. Non, je pense que le problème se pose différemment. Ceux qui produisent des contenus pour la télévision doivent tenir compte d’une nouveauté : de nombreuses personnes souhaitent utiliser un deuxième support parallèlement à l’émission qu’elles regardent. De toute évidence, la demande de second screen est là, et les chaînes de télévision ont tout intérêt à développer des stratégies pour que le second screen ne conduise pas les internautes à se détourner d’elles. 

Le prochain épisode de « About :Kate » est diffusé dans la nuit de samedi 30  à dimanche 31 juin à 00h10.

Liens :

About:Kate
About:Kate-App pour iOS
• About:Kate-App pour Android
• Fraunhofer Institut Sankt Augustin
"Walking Dead"-App
• Shazam
• FIcontent

Réactualisé le

04.09.2013

Vues

1 918

Favoris

3

Commentaires

Ajouter un nouveau commentaire