Archives de catégorie : Economie

2018, l’année du piratage IPTV

Regardez le boitier ci-dessous, ça ne vous dit rien, réfléchissez ! Vous l’avez probablement déjà vu, lui ou un de ces clones, dans le salon d’un ami ou d’un membre de votre famille, il était posé à coté ou en dessous du poste de télévision. Ça y est vous le remettez !

C’est un boitier IPTV qui permet, pour faire simple, de faire passer la télévision par le réseau IP (Internet), cela regroupe principalement la télévision en direct, les services de VOD et de CatchUp TV. Votre fournisseur d’accès vous en fournit en général un dans votre offre triple play, mais ceux-là sont d’un genre nouveau. Ils vous permettent d’accéder directement sur votre téléviseur à une infinité de chaines payantes à travers le monde pour quelques dizaines d’euros tout au plus. Des films quelques semaines après leur sortie en salle, une quantité de séries inimaginable et toutes les rencontres de tous les grands championnats sportifs de la planète.

C’est du piratage, une nouvelle forme que l’on pourrait appeler piratage IPTV et dont le présent billet souhaite discuter.

Un phénomène qui prend de l’ampleur.

Selon un récent rapport du cabinet Sandvine, le trafic généré par les flux IPTV piratés représenterait 6.5% de la bande passante aux heures de pointe, soit plus que le trafic issu du protocole Bittorent…tout un symbole. Il vient même concurrencer le streaming sur ordinateur puisqu’il fournit peu ou prou le même service avec l’expérience de la TV en plus.

Un calcul un peu idiot (qui considère que les pirates auraient sinon payé pour le contenu) estime le manque à gagner à presque 1 milliard de dollars pour les chaines et services TV payants aux US. En France un autre rapport évalue à 25% le volume de contenu audio-visuel consommé illégalement via le réseau IPTV avec là encore quelques centaines de millions de revenu en moins pour les acteurs hexagonaux.

Un réseau « underground » et structuré

L’organisation de ce(s) réseau(x) n’a rien de nouveau, sa structuration et la manière dont sa clandestinité « numérique » est assurée rappelle les précédents à l’origine du piratage massif de musique et de vidéo. Pour faire simple il y a en tête de réseau un individu (ou groupe d’individus), qui capte le contenu payant d’un fournisseur de contenu. Il peut s’agir d’un individu isolé qui paye son abonnement à Canal+, Netflix ou SFR sports, capte le flux et le redistribue via Internet ou il s’agît plus probablement d’un internaute pas vraiment isolé avec de réelles compétences informatiques qui utilise des serveurs dédiés pour rediffuser massivement les flux captés, appelons-le « grossiste », lui vous ne le rencontrerez jamais, il se cache. Mais comme tout bon grossiste il a besoin d’un revendeur, directement au contact du client afin de lui fournir le « hardware » (la box de la photo ci-dessus qui permet la lecture sur la TV) et d’assurer la mise en relation pour valider l’abonnement de quelques dizaines d’euros par an. Le revendeur semble être un « super utilisateur » rompu à la vente directe à domicile et prospectant grâce aux recommandations des réseaux de proximité (famille, amis).

Ceci étant avec un minimum de compétences vous pouvez vous passer du revendeur et taper directement « piratage IPTV » sur Google et « box IPTV » sur Amazon et/ou AliExpress. Vous pouvez même vous passer de grossiste en utilisant des logiciels comme Kodi (logiciel libre détourné de son usage initial) ou Roku et en allant chercher des liens sur Internet mais le résultat est plus incertain.

A ce stade s’il semble possible d’évaluer l’ampleur du phénomène, difficile d’avoir une vision claire du niveau d’atomicité de l’offre. A première vue il semble qu’il existe de très nombreux grossistes qui se disputent le marché mais on ne peut exclure l’existence de « super grossistes» à l’origine de la « captation » initiale des flux payants. C’était le cas des réseaux de piratage à l’ère du MP3 où une poignée d’individus organisait les fuites de CD avant leur sortie, alimentant ensuite des milliers de trackers torrent (voir la formidable enquête de Stephen Witt)

Les raisons du succès 

Les détenteurs des droits des contenus piratés ne manqueront pas de nous expliquer que la raison de l’expansion de ce phénomène est qu’à contenu égal l’offre piratée étant moins chère et la probabilité d’être pris faible (voir nulle), le choix du plus grand nombre est évident.

Mais l’histoire du piratage en ligne nous oblige à considérer d’autres paramètres pour expliquer le succès des contenus illégaux. Comme nous l’avions par exemple expliqué avec d’autres collègues dans ce papier, les motivations des pirates ne peuvent se résumer à la gratuité des contenus mais doivent également considérer la volonté des consommateurs de ne plus subir la chronologie des médias, d’avoir un choix de contenu élargi ou encore de pouvoir partager ou disposer des biens numériques sur plusieurs supports. La concomitance du succès des plateformes comme Netflix ou Spotify et la diminution apparente de certaines formes de piratage tend à montrer l’importance de la prise en compte des besoins des consommateurs dans le design et le modèle d’affaire de l’offre légale.

De quoi le piratage IPTV est-il le nom ?

Si Spotify peut revendiquer une croissance à 2 chiffres et plus de 70 millions d’abonnés, si Canal+ a prospéré à l’ère pré-internet au même titre que les grands acteurs du câble et du satellite, ils le doivent en partie à une forme de tarification que les économistes appellent bundling. Plutôt que de vendre différents biens séparément (des albums de musique ou des chaines de télévision) l’offreur propose un panier de biens et de services à prix unique. Cette tarification a quelque chose d’un peu magique elle peut profiter à la fois à l’offreur et au consommateur et ce d’autant que les consommateurs ont des préférences variées. Mais les choses ont changé avec le numérique, puisque l’image passe par Internet, les bundle(s) explosent, les séries à succès sont produites par des pure players comme Netflix, les fournisseurs d’accès et même les réseaux sociaux enchérissent pour s’arracher l’exclusivité de certaines retransmissions sportives et même Mickey casse sa tirelire pour acheter des studios, des chaines et des plateformes de SVod. La concurrence bat son plein, chaque acteur cherche à constituer la masse critique de contenu qui lui permettra d’évincer les concurrents du marché. Mais pour le consommateur cette période peut être très inconfortable, alors que l’on pouvait disposer avec un seul bouquet d’une très grande quantité et diversité de contenu il faut désormais s’abonner à plusieurs services dont les prix reflètent la nécessité pour ces plateformes d’amortir les contenus acquis à prix d’or.

Les amateurs de sport connaissent bien le problème, il y a quelques années pour regarder l’intégralité de la ligue des champions il suffisait d’être abonné à Canal+, pour certains matchs il a ensuite fallu être également abonné à BeinSport. Lorsque ce dernier a obtenu les meilleurs matchs la souscription à son service est devenue un complément indispensable. L’année prochaine par contre il vous faudra vous abonner à SFR sports quelque soit le match. Si la diversité de vos préférences vous conduit à regarder en plus du rugby il vous faudra alors conserver canal+ pour le championnat et si votre club préféré joue la coupe d’Europe vous devrez également ne pas résilier BeinSport, si par contre il descend en pro D2 là vous devrez souscrire à Eurosport…et si en plus vous aimez le tennis alors là j’espère que vous êtes éligible à l’exonération de taxe d’habitation.

Il est probable que le marché se consolidera à moyen terme (certains semblent déjà regretter leur achat) mais pour l’heure le piratage IPTV est pour le consommateur la seule manière de constituer à prix raisonnable un bundle de contenu permettant de satisfaire les préférences différenciées des différents membres d’un foyer (sports, films séries, dessins animés). En regardant de plus près le type de contenu consommé sur les réseaux pirate IPTV, l’effet longue traine est impressionnant et semble attester  du besoin chez les utilisateurs d’un accès centralisé à une grande diversité de contenu.

 « les gens ne savent pas ce qu’ils veulent jusqu’à ce que vous leur montriez »

Cette phrase que l’on attribue souvent à Steve Jobs donne une vision erronée de ce que sont les usages dans le monde numérique et l’expérience du piratage de contenu en ligne l’illustre, les gens savent très bien ce qu’ils veulent et ils vous le montrent !

kanye West pourrait bien être le prochain prix Nobel d’économie.

Kanny west est particulièrement connu pour ses tweets, ses petites amies, sa musique évidemment et d’autres choses dont nous ne parlerons pas ici par manque d’expertise..

Mais ce que l’on sait moins c’est à quel point cet artiste maîtrise la littérature en économie industrielle et particulièrement les concepts développés par notre prix Nobel national (Jean tirole en 2014), c’est dire !

Kanye West a récemment surpris tout le monde en décidant de distribuer son nouvel album The life of Pablo exclusivement sur la plateforme de streaming Tidal et donc de renoncer à le vendre sur Itunes, Deezer, Spotify et même de le distribuer au format CD (sisi ça se vend encore le CD).

Sa décision a été vivement critiquée par les fans et les observateurs au titre qu’elle contraint la diffusion de son album et prend en quelque sorte le fan en « otage » l’obligeant à s’abonner à Tidal pour pouvoir écouter le dernier opus du rappeur…et pourtant

Les marchés bifaces

Les plateformes de streaming comme toutes les plateformes sont des marchés bi-faces (nous en avons déjà parlé ici), en résumé elles sont des lieux de rencontre entre vendeurs et acheteurs, ici les vendeurs sont les artistes (ou les maisons de disques) et les acheteurs sont les consommateurs de musique. Ces plateformes génèrent une dynamique particulière appelée « effet de réseaux », plus il y a d’artistes plus les consommateurs voudront s’abonner à la plateforme et plus il y aura d’abonnés plus les artistes auront intérêt à être présents sur la plateforme. Se pose ensuite le problème classique de l’oeuf et la poule si il n’y a pas beaucoup d’artistes il n’y a peu d’abonnés et inversement d’où la difficulté de faire venir l’une des deux faces du marché en premier pour attirer l’autre…c’est LE problème des plateformes.

L’autre question qui intéresse les économistes est de savoir si plusieurs plateformes peuvent coexister ou si l’une d’entre elles va rafler toutes les parts de marché.

Le multi-homing

En observant le marché du streaming musical vous constatez que de nombreux acteurs coexistent (deezer, spotify, Apple music, Tidal, Amazon prime music, Google play music, Raphsody, Pandora…), c’est en partie parce que le « multi-homing » est une pratique courante du coté des artistes. Cela signifie qu’un artiste peut être présent sur plusieurs plateformes à la fois, voire toutes ! Du coté des internautes le « single-homing » est plutôt de mise, en règle générale on ne s’abonne pas à plusieurs plateformes on en choisit une ! L’une des conséquences est que les plateformes se battent plutôt pour avoir des internautes d’où la politique de prix attractive, les mois offerts et les écoutes gratuites, à l’inverse les artistes étant présents partout ils sont moins rares et donc moins chouchoutés par les plateformes (ce qui peut en passant expliquer les tensions entre eux et les plateformes sur la rémunération des écoutes). Retenons qu’en général le single-homing favorise la concentration du marché.

Kanye West et Tidal ont tout compris…en théorie

d’une certaine manière Kanye West inaugure le « single-homing » coté artiste et Tidal le « contrat d’exclusivité » coté plateforme….le consommateur qui souhaite écouter Kany West doit donc s’abonner sur Tidal et nulle par ailleurs ,c’est le meilleur moyen de prendre des parts de marché aux concurrents et ça semble marcher puisque la plateforme enregistre une forte croissance de ses abonnements (même si elle reste loin derrière les acteurs dominants de ce marché). Notons que Rihanna et Beyoncé avait préparé le terrain en donnant une exclusivité temporaire à la plateforme sur un album et un single …

Si les artistes font ce choix sur Tidal c’est aussi parce qu’ils sont actionnaires…

et cette stratégie prend le secteur à contre-pied, plutôt que de séduire les consommateurs pour faire payer les artistes, Tidal choisit de séduire les artistes (en leur offrant une autre forme de rémunération que les écoutes) et de faire payer les utilisateurs sur la base de l’accès à des contenus exclusifs…

C’est la bonne stratégie dans un marché naissant à fortiori lorsque vous êtes « petit ». Si vous proposez la même chose que les gros vous avez peu de chance de les rattraper il vous faut donc une stratégie qui favorise le « single-homing » … Regardons l’industrie du jeux vidéo qui est un exemple souvent donné lorsqu’on parle de marché bi-faces. Ce graphique est extrait de Landsman, et Stremersch (2011) et montre la manière dont l’industrie du jeu vidéo est passée du single au multi-homing au cours du temps (en ordonnée un indicateur de multi-homing)

multihoming

Au début il faut faire sa place, attirer les utilisateurs qui eux « single-home » (à l’exception de quelques serial gamers qui achètent toutes les consoles). Les consoles font en sorte d’avoir des jeux en exclusivité (rappelez-vous au tout début Mario_nintendo vs Sonic_sega). Puis au fil du temps lorsque le marché est mature et les consommateurs équipés il vaut mieux multiplier les contenus pour profiter des effets de réseau, d’où le passage « au multi-homing » du coté des éditeurs de jeux.

Le streaming a jusqu’à maintenant suivi le chemin inverse (multi-homing coté éditeur) d’où les très nombreuses plateformes au contenu faiblement différencié. Kany West a donc ouvert une brèche plus cohérente avec la stratégie d’un nouvel entrant faisant face à des acteurs ayant déjà une forte base installée de consommateurs et qui pourrait, si la tendance au single-homing coté artiste se généralise, lancer un grand mouvement de concentration du marché, et peut-être même « une guerre de standard » à l’issue incertaine et où avoir le bon contenu au bon moment peut s’avérer déterminant !

en tout cas il n’est pas rare en physique de voir un prix Nobel récompenser des chercheurs qui valident empiriquement des prédictions théoriques anciennes alors pourquoi Kany West ne pourrait-il pas prétendre à la récompense suprême pour ses travaux empiriques sur les marchés bifaces (prix à partager avec Jay-Z pour la stratégie générale de Tidal) ?

 

 

nb: il est important de noter qu’il y a des raisons qui peuvent expliquer le multi-homing des artistes et qui marquent une différence avec l’industrie du jeu vidéo. La principale est que sur les plateformes de streaming l’artiste n’est rémunéré pour la consommation de son oeuvre que via la plateforme alors que le « gamer » achète directement le jeu auprès de l’éditeur. On peut donc supposer que l’effet de réseau indirect coté artiste est plus faible et que son revenu n’augmente pas nécessairement avec le nombre de consommateurs (comme dit dans l’article c’est un sujet sensible dans le secteur)…cela peut expliquer la présence multiple des artistes sur les plateformes qui par ce biais essayent de maximiser leur revenu.

marchés bifaces, discrimination et concurrence : chronique des neutralités sur Internet

La neutralité du net est un beau principe, certains diraient même « romantique ».

On le doit aux universitaires américains qui, aux temps héroïques de l’Arpanet (ancêtre de l’Internet), ont eu la bonne idée d’inscrire dans les protocoles et standards de communication le principe selon lequel, pour faire court, tous les paquets de 0 et de 1 se valent :les fournisseurs d’accès ne peuvent imposer aucune discrimination en fonction de la source ou du destinataire des données.

Ce principe est l’une des raisons principales de la croissance exponentielle du réseau depuis la fin des années 80. En donnant un ticket d’entrée gratuit à tous ceux qui voulaient innover, il a déclenché l’immense effet de réseau qui aboutit à l’Internet que l’on connait aujourd’hui.

Si Marc Zuckerberg avait dû, de sa chambre à Harvard, négocier avec chaque FAI pour accéder aux internautes, mes étudiants s’ennuieraient terriblement pendant mes cours et Skype n’aurait pu se développer au nez et à la barbe de ceux qui fournissent le téléphone en même temps que l’accès au réseau. Il est d’usage de représenter ce principe à l’aide d’un marché biface (ce sera notre hommage tardif au prix Nobel de Tirole).

nn

La neutralité du net impose la gratuité aux FAI sur la face « contenus et services » les obligeant à se rémunérer uniquement par la vente d’accès aux internautes. Comme le rappellent Curien et Maxwell  pour justifier cette gratuité imposée : « la neutralité de l’Internet peut être vue comme une politique d’aide à la création et à la fourniture de contenu sur internet ».

Tout le monde à sa chance et sera traité avec les mêmes égards que Google et Facebook, les portes de l’Internet sont grandes ouvertes, entrepreneurs du monde entier levez-vous et faites fortune  !!!

Le foisonnement d’innovations sur la face subventionnée attire les internautes qui attisent dans le même temps le désir d’innovation des « startupeurs » en herbe. C’est la force de cet effet de réseau indirect qui a permis le succès fulgurant de l’Internet. Pour s’en rendre compte il faut imaginer ce qu’il serait advenu sans neutralité du net : les fournisseurs de services auraient du payer les FAI, il y aurait eu moins d’innovation et les FAI auraient pu empêcher le développement de certains services qui leur faisaient concurrence (bref AOL serait encore là). Nul doute qu’Internet serait moins attractif et donc moins d’internautes, moins de blog, moins de réponses dans les forums, moins d’articles dans Wikipedia, moins de films sur torrent411, et moins de mails de millionnaires désireux de partager leur fortune avec vous…

Malheureusement, contrairement au train, une neutralité n’en cache pas forcément une autre et ceux qui ont profité de la neutralité du net pour constituer des empires pratiquent désormais une nouvelle forme de discrimination.  Cette pratique inquiète parce qu’elle ouvre la voie  à de nombreux abus et menace, d’une certaine manière, la création et la diversité des contenus en ligne.

…..faites entrer les Géants du Web et leur principe de non neutralité des plateformes.

Pour l’essentiel, les géants du web sont des plateformes qui mettent en relation différentes faces de marché. Les utilisateurs sont toujours à droite et les fournisseurs de services et de contenus à gauche mais désormais pour rencontrer les consommateurs ils doivent faire en sorte d’être présents sur la première page d’un moteur de recherche, parmi les applications les plus téléchargées sur un store ou mis en avant dans les recommandations d’une marketplace.

nn3

Jusque là tout va bien, après tout c’est le jeu du marché : les plus offrants, les plus malins ou les plus innovants auront les meilleures places sur les plateformes et pourront rencontrer les utilisateurs…. Marc Levy, Candy Crush ou expedia.fr s’en sortent bien et c’est terriblement mérité. 😉

Mais les plateformes ont bien compris qu’en intégrant la chaîne de valeur elles pouvaient tirer pleinement partie des effets de réseaux indirects (apparition de la flèche rouge) et c’est à ce moment là que les plateformes cessent d’être neutres. 

Une discrimination insidieuse se met petit à petit en place et ses formes sont variables  mais ne manquent jamais de fausser la concurrence en favorisant les services et contenus proposés par la plateforme, menaçant d’une certaine manière la création et la diversité des contenus.

Google a ainsi pris l’habitude de manipuler les résultats de son moteur de recherche pour favoriser ses services ou tout bonnement  supprimer le compte adwords des contenus gênants. Baidu, le « Google Chinois », probablement animé par des motivations différentes, utilise également l’opacité de son algorithme pour filtrer le contenu de son moteur de recherche.

Amazon, quant à lui ne se cache pas de sanctionner les éditeurs qui refusent de baisser leurs prix et nul doute qu’à l’avenir les recommandations de leurs algorithmes feront la part belle aux contenus édités par Amazon lui même. Apple lui aussi profite de l’hégémonie de son « Store » pour évincer les empêcheurs de « vendre » ou s’arroger le droit de distinguer le vice de la vertu.

Tout ceci est-il bien légal ? Récemment le CNNUM a émis un avis sur le sujet avec des recommandations intéressantes, et la Commission européenne s’interroge sur ces pratiques.  En attendant, beaucoup d’entreprises se disent étranglées par ces comportements qui rappellent ce que faisait Microsoft à la fin des années 90 avec Netscape ou les autres développeurs innovants. La lenteur de la réaction des pouvoirs publics avait finalement permis à Microsoft de passer entre les gouttes.

Nous ne sommes probablement qu’au début de cette nouvelle forme de discrimination et il est difficile d’estimer quel sera son impact sur la diversité des contenus et l’innovation. La principale difficulté sera certainement de prouver l’existence de pratiques anticoncurrentielles (ou l’« abus de position dominante » puisque c’est comme ça que l’article L.420-2 du code de commerce considère les pratiques commerciales discriminatoires). Les « GAFAM » sauront se cacher derrière leurs algorithmes ou ouvrir le code dans de justes proportions.

Je termine par une devinette : qui a déclaré  devant la court suprême argentine Search engines are neutral platforms that do not create nor control content on the web ?

Le numérique et l’emploi….je t’aime un peu, beaucoup ou pas du tout ?

Ne pas se tromper de politique publique est forcément quelque chose de délicat. Or sur la question du numérique et de la création d’emploi, il n’est pas facile de se faire une opinion.

En 2011, deux chercheurs E. Brynjolfsson et A. Mc Afee publiaient un essai dans lequel ils dénonçaient le risque sérieux que le numérique faisait peser sur la croissance, en permettant aux machines de se substituer trop vite à l’être humain. Ils actualisèrent et étendirent ce document dans un livre paru en 2014, « The Second Machine Age ». Notant les progrès réalisés en algorithmique, traitement des données et bien sûr, capacité de sans cesse croissante de calcul des microprocesseurs, ils affirmaient que la machine remplacerait rapidement l’être humain dans des tâches auparavant considérées comme trop complexes pour être confiées à un automate , par exemple conduire une voiture. Ils en venaient à affirmer que les progrès effectués par les robots  conduiraient à des restructurations massives au sein des ateliers, des entrepôts, comme déjà le travail de bureau avait été profondément modifié par la diffusion de l’informatique. Mais surtout ils notaient que les progrès exponentiels dans les capacités des circuits intégrés (« Loi de Moore ») conduisaient ce remplacement de l’homme par la machine  à être de plus en plus rapide.

Après tout, ceci n’est pas nouveau : l’histoire de la Révolution Industrielle est un processus permanent de « substitution du capital au travail », avec son lot de misère, de drames et de révoltes. En France celle, célèbre, des canuts lyonnais contre les métiers à tisser automatiques, n’en est qu’un exemple, dont chaque pays touché par la modernité pourrait aussi apporter le témoignage. Pourtant au final, le progrès technique procure de la richesse pour tous, les emplois perdus étant remplacés par des emplois nouveaux sur lesquels finissent par se déverser ceux que la machine a mis au chômage.

Mais le « dommage collatéral » de ce que Schumpeter appelle la « destruction créatrice », pourrait, selon nos auteurs, se transformer aujourd’hui en catastrophe de la taille d’un tsunami. Leur argument est simple : avec un progrès qui suit une loi exponentielle, les emplois que l’on peut perdre, pourraient être l’an prochain en nombre égal à tous ceux que l’on a perdu depuis que le numérique est apparu. Brynjolfsson et Mc Afee utilisent la métaphore du grain de riz et du jeu d’échecs pour illustrer leur propos. Si on met un grain de riz sur la première case d’un échiquier, deux grains sur sa voisine latérale, puis 4 grains sur la suivante, 8 grains sur celle d’après etc .,  on a accumulé un certain nombre de grains lorsqu’on est à la moitié de l’échiquier, mais dans la case suivante on en mettra autant que la somme des tous les grains déposés jusque-là. Si le stock de grains de riz est limité, on aura mis longtemps à le vider à moitié en déposant les grains sur l’échiquier, mais  à l’ instant l’autre moitié sera également perdue.

Leur argument est donc simple : Le numérique provoque un rythme de remplacement de l’homme par la machine auquel la société ne peut plus répondre en créant des emplois de substitution. Cela engendre un chômage de plus en plus grand, mais surtout celui-ci va s’accélérer dans les années qui viennent. Cette thèse a ensuite été reprise et élaborée par d’autres chercheurs. Ainsi Osborne et Frey ont utilisé un protocole à la fois statistique (fondé sur l’observation du passé) et heuristique (s’appuyant sur les opinions « d’experts » en robotique) pour évaluer dans les dix prochaines années la probabilité de substitution des emplois par des robots. Ils suggèrent ainsi que si un orthophoniste ou un gérant hôtelier a 3 à 4 chances sur mille de pouvoir être remplacé par un robot ou un automate dans les dix ans à venir, la probabilité passe à 98% pour un arbitre sportif ( !), un comptable ou un agent immobilier. Cette probabilité est de 40% pour un réparateur d’ascenseur, de 54% pour un embaumeur ( !), de 55% pour un réparateur de télévision. Bien entendu tous les emplois menacés ne le seront pas instantanément, tout dépendra des coûts respectifs du robot ou de l’automate, et du salarié. Ce qu’indique l’étude de Osborne et Frey, c’est la possibilité technique de substitution avec un niveau de performance équivalent. Le papier de Osborne et Frey donne le cadre de ce que pourrait être cette accentuation du rythme de substitution des emplois humains par celui des « machines ».

Cette thèse de Brynjolfsson et Mc Afee qui reste au final difficile à vérifier, bouleverse beaucoup d’idées reçues et rompt avec un débat qui agite les spécialistes du numérique depuis près de 30 ans : quel est l’impact véritable du  numérique sur la croissance ? Depuis le paradoxe de Solow, énoncé par son auteur en 1987 (« on voit les ordinateurs partout sauf dans les statistiques » – sous- entendu celles de la croissance et de la productivité -) deux thèses s’affrontent : pour la plupart des auteurs le numérique a un impact positif sur la productivité, donc sur la croissance ; c’est ce que reprennent la plupart des gouvernements qui font des TIC un vecteur de de dynamisme dans l’économie. Dans le récent plan annoncé en décembre 2014 par le Président de la Commission Européenne J.C Juncker, le numérique figure explicitement comme une des cinq priorités. La présidence lettone de l’UE qui prend effet au 1/1/2015, mentionne également le numérique comme un de ses trois objectifs politiques.

S’appuyant également sur cet axiome,  trois rapports sont récemment parus en France, celui de Philippe Lemoine, du cabinet Roland Berger et de Mc Kinsey, qui disent tous à peu près la même chose : Le numérique bouleverse l’économie, et les entreprises françaises ont pris du retard dans son adoption, ce qui les pénalise. Une consultation publique lancée par le Conseil National du Numérique en Octobre 2014 jusqu’à la mi-janvier, va également dans cette direction et propose notamment un ensemble de mesures pour combler ce retard.

Mais si la thèse des vertus du numérique quant à la croissance est  très largement répandue, certaines voix dissonantes affirment que cet impact est loin d’être évident. C’est notamment le cas de Robert Gordon ici qui depuis le milieu des années 90, tente de montrer que la « révolution du numérique » n’a pas du tout le même impact que les autres révolutions technologiques (machine à vapeur et chemin de fer, électricité et chimie). Un de ses récents papiers suggère par exemple que les progrès actuels du  numérique (smartphones, tablettes, vidéo à la demande…) sont principalement consacrés à la consommation de loisir et n’ont aucun impact sur la productivité des entreprises. Du coup les gains de productivité se concentrent dans le secteur de production du numérique uniquement, sans affecter le reste de l’économie. Pire, Gordon considère que les USA (économie qui est de loin la plus productive en matière de numérique), sont entrés dans une phase séculaire de faible croissance de la productivité, donc d’accumulation des richesses. C’est la thèse du « déclinisme » par rapport aux économies émergentes.

Ainsi par rapport à cette question clé qui est : qu’apporte le numérique aujourd’hui, il y a, avec la récente thèse de Brynjolfsson et Mc Afee, trois visions :

  • Le numérique n’a que très peu d’impact, surtout en comparaison avec les autres révolutions industrielles (Gordon)
  • Le numérique a un impact essentiel, et tout retard dans son adoption est une erreur économique et politique (OCDE, UE, presque tous les gouvernements)
  • Le numérique a un impact trop fort, qu’on risque rapidement de ne plus maîtriser ( Brynjolfsson et Mc Afee).

Ces thèses apparaissent irréconciliables. Pourtant les mettre en regard peut masquer l’essentiel : le numérique, comme tout vecteur du progrès technique, ne réalise pleinement ses effets que si la société s’en approprie les vertus et en limite les risques. Cela passe très souvent par de profondes mutations organisationnelles, tant chez les acteurs économiques que dans la société, voire dans l’ordre juridique. Ce sont ces mutations qu’il faut analyser et comprendre pour déterminer laquelle de ces trois thèses a le plus de chances d’être vraie. Gordon pense que les mutations organisationnelles n’ont que peu à voir avec le numérique, les gouvernements pensent qu’il est de leur responsabilité de susciter un cadre propice à ces mutations (certains gouvernements comme ceux de Corée ou du Japon considèrent même qu’il faut une forte aide publique à l’investissement dans le numérique), et Brynjolfsson et Mc Afee pensent que c’est dans les activités créatrices celles que la machine mettra le plus de temps à remplacer, que réside le salut des économies avancées : On voit que les recommandations en termes de politiques publiques sont très différentes.

La Grande transformation, les plateformes et les objets connectés

L’évolution du numérique pousse vers plus de connexion d’objets, et l’on parle d’ailleurs à ce propos « d’objets connectés ». Mais dans  la situation actuelle,  ces objets sont reliés, via Internet, à des « plateformes », qui intègrent leurs données envoyées et proposent en retour des services s’appuyant sur cette intégration. Comme le réseau de communication entre ces plateformes et ces objets est l’Internet, on évoque « l’Internet des objets ».

A l’origine les objets connectés étaient simplement des ordinateurs, dont les données étaient essentiellement « abstraites ». La mise en place de réseaux d’ordinateurs a ainsi été le grand défi de l’informatique et des télécommunications dans les années 1970-180. Avec le protocole TCP/IP créé en 1983, Internet a fini par s’imposer comme le réseau universel de connexion d’ordinateurs. Toute une série d’applications et de services a pu ainsi se mettre en place, dans la frénésie de la bulle Internet (1996-2001). Après son dégonflement l’innovation a malgré tout continué de suivre le progrès technique permanent dans les semi-conducteurs, d’autant que les réseaux de communications ont connu à leur tour une véritable mutation : déploiement des réseaux de mobiles et accès de ces réseaux à Internet (technologie dite « 3G », qui a décollé dans le milieu de la décennie des années 2000, diffusion de la technologie ADSL au sein des réseaux fixes qui a permis un accès confortable des ménages à Internet ). Le commerce électronique, les moteurs de recherche, les portails, la voix sur IP et maintenant la distribution de programmes audiovisuels sont quelques illustrations de ces évolutions.

Mais le développement des technologies sans fil, la miniaturisation des composants électroniques et la traduction de signaux de toute sorte en fichiers numériques (« numérisation ») a conduit les « objets connectés »  à se multiplier, pour transmettre aux « plateformes » la traduction numérique de quasiment tout phénomène physique, biologique ou abstrait, émanant de toute sorte d’objets, macroscopique ou microscopique, fixe ou mobile. La Grande transformation, c’est ce basculement de toutes les activités matérielles vers la numérisation, où celle-ci a pour vocation, en se greffant sur les objets, de coordonner  les activités matérielles pour en assurer une exécution améliorée, voire profondément bouleversée.

Ainsi sont en train de se mettre en place ce que Kim Clark (1985) appelle des innovations architecturales, où les prestations matérielles se trouvent profondément transformées par une articulation complètement nouvelle de leur fourniture. Donnons quelques exemples :

  • Dans le domaine du transport, un service de covoiturage comme celui de Blablacar est la transformation profonde d’une activité auparavant marginale, l’autostop. Il menace directement les entreprises de transport en commun (cars routiers ou trains, voire transport aérien) de la même façon qu’au moment de la bulle Internet, les sites de vente en ligne  de billets et séjours touristiques ont menacé les agences de voyages, et les sites de téléchargement de musique (légaux ou illégaux) ont menacé la distribution de CD.
  • Toujours dans le domaine du transport, l’opérateur Uber, qui propose lui aussi la formule de covoiturage mais en ville, s’appuie sur la possession de téléphones mobiles et la disponibilité  de places en voiture, pour organiser ce covoiturage urbain. Il menace directement un pan de l’activité des chauffeurs de taxi, voire les transports en commun.
  • Dans le bâtiment, les nécessités créées par la construction ou la rénovation de « bâtiments intelligents » c’est-à-dire économes en énergie et respectueux de l’environnement, imposent de concevoir l’architecture de ces bâtiments en fonction de réseaux « domotiques » qui fournissent des services de gestion des infrastructures pour mieux réguler la consommation d’énergie et d’eau, piloter les produits « blancs »(électroménager) et « bruns » (matériel audiovisuel, informatique) ainsi que toutes les infrastructures  (volets, sanitaires, salle de bain…) que contient le bâtiment en question.
  • Dans le domaine médical, les systèmes de prothèse ou de correction (lunettes), se voient dotés de capacités de communication qui en font des « objets intelligents ». L’apparition des lunettes Google et de la montre Apple, marques globales s’il en est, montre que ces évolutions ne sont plus de l’ordre de la Science-fiction, voire du développement de prototypes, mais ont atteint un niveau de diffusion désormais grand public.
  • Les vêtements à leur tour deviennent « intelligents », incorporant des capteurs entre leurs fibres, pour des usages thérapeutiques ou de confort.

Ainsi se mettent en place des systèmes articulés, des écosystèmes diraient certains, où des plateformes centrales ou périphériques (certains objets connectés, à l’instar du smartphone, sont de véritables plateformes) relient, coordonnent et opèrent des ensembles d’objets,  en une architecture de services disponibles pour toute catégorie d’utilisateurs : individus et organisations, voire d’autres plateformes.

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) sont les archétypes d’entreprises proposant des plateformes globales, conçues pour accumuler toutes les données afin de fournir tous les services que la numérisation peut proposer. Leur activité reste largement confinée, pour l’instant, dans le maniement des données « abstraites », peu ou pas reliées à des activités matérielles. Mais dans la dynamique d’expansion qui est la leur, ces plateformes globales ont vocation à pénétrer le champ de ces activités comme le démontrent les « Google glasses », la « Google car » et l’ « Apple Watch » évoquées plus haut.

Ces mutations sont donc les témoignages de l’apparition de grappes d’innovation s’appuyant sur les réseaux, l’information stockée dans les serveurs (le « cloud ») et les capteurs matériels de données. Ces innovations sont architecturales mais pas « de rupture » (Clark, 1985), au sens où elles transforment en profondeur les activités précédentes, même si elles n’utilisent pas forcément, pour ce faire, des composants nouveaux. Cela n’enlève rien à leur potentiel.  Après tout c’est comme cela que l’I-phone s’est imposé, en intégrant une série de fonctionnalités nouvelles qui existaient auparavant sur le marché  indépendamment les unes des autres. On appelle ce genre de percée, un « dominant design », un modèle dominant (Abernathy et Utterback, 1978).

Pour qu’une innovation, architecturale ou de rupture, puisse s’imposer, il faut combiner d’une part une compréhension des besoins (latents, donc pas exprimés) que le consommateur ressent, et c’est le propre du marketing. Il faut dans le même temps offrir une solution (technique, s’agissant de produits «high tech ») qui satisfasse ce besoin, donc résoudre pas à pas des difficultés techniques. En règle générale il est assez difficile de coupler la mise au point technique de la solution et la révélation du besoin (latent), malgré ce qu’en dit Clark (1985). Si ce couplage était si aisé, on ne comprendrait pas pourquoi celui qui arrive le premier sur le marché (l’innovateur) n’est pas toujours celui qui rafle la mise, le leader (Teece, 1987). Les cadavres d’innovateurs ayant raté leur marché jonchent en effet  le long parcours du progrès technique.

Dans le cas de la « grande transformation », les innovations et les  mutations sectorielles que vont induire les plateformes et les objets connectés ne seront pas forcément  produites par les GAFAM, malgré leurs avantages indéniables : savoir-faire en manipulation de données,  présence globale, capacité à entretenir des relations privilégiées avec les individus, à les connaître grâce à leurs « traces » numériques. En effet, beaucoup d’applications potentielles sont pour l’instant des marchés de niche qui n’intéressent pas forcément des opérateurs globaux (cas du covoiturage), ou bien sont des activités réglementées où l’entrée d’un opérateur intermédiaire n’est pas forcément facilement autorisée (cas des plateformes de consultation médicale à distance par exemple).  Cela laisse donc des marges de manœuvre à des actions plus locales, soit par des acteurs de la profession capables de se coordonner pour proposer des services en ligne innovants sans toutefois devenir des cartels, soit pour des startups ou PME qui « flairent » les opportunités en raison de leur connaissance du marché local, de leur capacité à réunir rapidement des compétences nécessaires à la mise au point de ces plateformes et services innovants.

Un autre point mérite d’être souligné. La mise en place de ces services « matériels » (ou plutôt facilitant les activités matérielles) en s’appuyant sur des capteurs et des plateformes, permet de surmonter l’obstacle majeur qu’Internet fait peser sur la structure industrielle du numérique : L’indépendance du monde des infrastructures, domaine des opérateurs, de celui des services (logiciels), en raison du protocole IP. Cette indépendance a consacré la domination de « l’infomédiation » (les logiciels et des GAFAM) sur les opérateurs de réseau, confinant ces derniers à un rôle de simple sous-traitant. Avec l’Internet des objets, ils ont au contraire la possibilité de reprendre la main à condition d’étendre leur activité au monde des capteurs. Cela passe par des alliances avec des constructeurs de solution, par la mise en place de plateformes et par un rôle de coordination entre tous les acteurs (industriels, sociétés de service, instances de régulation et métiers utilisateurs). Il n’est pas sûr qu’ils aient pris conscience de ces opportunités. Ils ont du mal à s’approprier des « contenus »,  surtout lorsque ceux-ci correspondent à du savoir-faire spécifique d’une profession. Ils ont également drastiquement réduit leur potentiel de recherche, affaiblissant ainsi leur capacité à résoudre des problèmes techniques.

Un atout sur lequel les opérateurs devraient s’appuyer, c’est leur capacité à mettre en œuvre des standards, sans forcément chercher à s’accaparer les fruits de la standardisation par des brevets.  Ces innovations architecturales en effet sont le siège d’importants effets de réseau locaux, puisqu’il s’agit de coordonner des métiers. Or le risque est d’enfermer la profession dans des standards propriétaires, ou même collectifs mais décidés par la profession, les rendant inaptes à l’interopération avec ceux d’une autre profession. Comme la contrainte technique sur les capteurs

Quoi qu’il en soit, l’Europe cherche une « renaissance industrielle ». Dans le monde du numérique, il existe une voie pour cette renaissance, pas forcément grande créatrice d’emplois directs, mais en tout cas potentiellement pourvoyeuse d’innovations, de brevets et d’activité. En outre les utilisateurs de ces nouveaux services verront à terme leur productivité s’améliorer, et donc leurs marges se restaurer. Ils pourront envisager d’investir et d’embaucher. Bref c’est la croissance économique que la diffusion du numérique dans les activités matérielles va permettre. Un formidable enjeu dont il n’est pas sûr que l’Europe ait pleinement conscience, malgré son agenda H2020 qui cible spécifiquement des actions dans le domaine applicatif.

 Bibliographie :

Clark, K. B. (1985). The interaction of design hierarchies and market concepts in technological evolution. Research policy14(5), 235-251.

Abernathy, W. J., & Utterback, J. M. (1978). Patterns of industrial innovation.Journal Title: Technology review. Ariel64, 254-228.

Teece, D. J. (1986). Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research policy, 15(6), 285-305.

Hadopi, comment la science économique contribue au débat.

On dit et écrit beaucoup de choses sur Hadopi, probablement beaucoup trop. Il est un peu frustrant de voir que l’on accorde beaucoup d’importance à des « études »  aux méthodologies parfois un peu douteuses et dont les interprétations nous font monter parfois très haut dans la stratosphère. Alors quand des décideurs publics en font en plus la promotion ce sont les larmes qui montent.

La recherche en sciences économiques s’intéresse de près à ces questions et les résultats sont plutôt robustes, en voici une synthèse à l’usage par exemple de ceux qui n’ont pas le temps d’aller chercher l’information là où elle se trouve.

Préambule

Tous les articles sélectionnés essayent d’aller au delà de la simple mise en évidence d’une corrélation en proposant d’évaluer l’existence de causalité entre les comportements de partages et/ou d’achats et la mise en place de mesures pour lutter contre le piratage (méthode des variables instrumentales, quasi expérimentation et modèle en dif-dif). Dans la littérature récente j’en sélectionne 6.

[1] Danaher, B., Smith, M. D., Telang, R., & Chen, S. (2012). The effect of graduated response anti-piracy laws on music sales: evidence from an event study in France. 

[2] Adermon, A., & Liang, C. Y. (2014). Piracy, music, and movies: A natural experiment (No. 2010: 18). Working Paper, Department of Economics, Uppsala University.

[3] Danaher, B., & Smith, M. D. (2014). Gone in 60s: The impact of the Megaupload shutdown on movie sales. International Journal of Industrial Organization33, 1-8.

[4] Arnold, M., Darmon, E., Dejean, S., & Pénard, T. (2014). Graduated Response Policy and the Behavior of Digital Pirates: Evidence from the French Three-Strike (Hadopi) Law (No. 201401). Center for Research in Economics and Management (CREM),

[5] Dejean, S., & Suire, R. (2014). Digital files dealers and prohibition in the context of the French 3 strikes (HADOPI) law (No. 201406).

[6] Peukert, C., Claussen, J., & Kretschmer, T. (2013). Piracy and movie revenues: evidence from megaupload.

alors que nous apprennent ces articles ?

Les dispositifs qui visent à sanctionner les internautes n’ont pas réduit le nombre de pirates (ou alors de manière très transitoire).

Aucun résultat ne permet d’affirmer que les mesures du type HADOPI en France ou IPRED en Suède ont significativement permis de réduire le nombre de « pirates ». Dans l’article [4] nous avons tenté d’évaluer l’effet de la probabilité perçue d’être sanctionné par la Hadopi sur les pratiques illégales. Notre analyse  empirique repose sur un modèle d’économie du crime à la Becker. Nous avons un échantillon de 2000 internautes représentatifs de la population des internautes français et une enquête par questionnaire avec les biais déclaratifs habituels mais également pas mal d’information micro sur les individus, leurs préférences, leurs caractéristiques et leurs perceptions de la loi Hadopi. Nos résultats qui utilisent la méthode des variables instrumentales pour répondre aux différents problèmes d’endogénéité (le sens de la causalité et les variables inobservées notamment) ne mettent pas en évidence d’effet dissuasif. Les individus qui pensent que la probabilité de se faire prendre par Hadopi est élevée ne fréquentent pas moins les réseaux P2P que les autres. Le point faible de cette étude est le manque de données notamment sur l’intensité d’usage des réseaux P2P ce qui implique que les écarts type de nos estimateurs sont un peu élevés…mais le résultat est suffisamment robuste. Ou pour le dire autrement si un effet dissuasif important existait nous ne serions pas passés à coté.

Dans l’article [2] les auteurs évaluent les conséquences de la mise en application de la directive européenne IPRED en Suède (mesure assez comparable à notre Hadopi). Ils utilisent un modèle en diff-diff qui consiste à mesurer un comportement (le trafic internet en Suède)   avant et après qu’un événement survienne (la mise place de la loi IPRED), ils regardent ensuite ce qu’il se passe dans un groupe contrôle (Norvège et Finlande) qui lui n’a pas été impacté par le dit événement, la différence de variation de trafic entre les deux groupes constitue en quelque sorte le résultat. Si le trafic Internet a fortement diminué dans les premiers mois qui suivirent IPRED (ce qui est tout de même le signe que les Internautes ont arrêté de faire quelque chose qui consommait beaucoup de bande passante ;-)) 6 mois après le trafic était redevenu  normal. Les auteurs justifient ce résultat par le manque de sanction prise par les juridictions compétentes, on peut d’ailleurs faire la même observation pour HADOPI puisque très  peu d’internautes ont été sanctionnés. Sans véritable sanction le rappel à la loi semble avoir des effets limités sur les pratiques illégales et c’est probablement ce qui explique qu’Hadopi n’ait pas endigué les pratiques illicites.

Un autre argument plus difficile à mettre en évidence est celui de la transformation des pratiques. Si le P2P est surveillé alors il possible que les internautes se réfugient sur des sites de streaming, utilisent des VPN et des Newsgroup ou attendent patiemment que le collègue de bureau partage son disque dur (big up à mes anciens collègues bretons). Dans [4] nous avons montré que les internautes ayant dans leur entourage des pirates ont une probabilité plus grande d’utiliser des plateformes de piratage alternatives (non P2P) en substitution des réseaux P2P.

L’article [5] va plus loin en s’intéressant au « piratage de proximité » qui consiste à acquérir du contenu en échangeant des données par l’intermédiaire de disques durs, de clés USB ou d’appareils mobiles. Cet usage est déclaré par la moitié des internautes et nous avons montré que dans ce réseau d’échange « hors ligne » les usagers se positionnaient en fonction du sentiment d’insécurité produit par HADOPI (plus j’ai peur d’HADOPI plus je prends et moins je donne et inversement pour ceux qui ne la craignent pas). Ce résultat renforce l’idée qu’il existe des interactions entre les différentes pratiques pirates et que la loi dite HADOPI a pu les influencer.

Les dispositifs qui visent à sanctionner les internautes contribuent au développement de l’offre légale « en ligne ».

C’était la conclusion du célèbre papier [1] qui avait fait polémique. Les auteurs ont habilement mis en évidence un effet positif de la Hadopi sur les ventes Itunes. Leur méthode est la même que celle décrite précédemment (pour le [2]), ils observent les ventes sur Itunes avant et après le vote de la loi Hadopi et le compare avec un groupe contrôle qui est un panier de différents pays européens dont les ventes n’ont bien évidemment pas pu être impactées par Hadopi.  Le résultat est spectaculaire +25% de ventes d’albums sur la plateforme à la pomme !! Le papier a été pas mal critiqué et pas toujours à bon escient (voir ici). Le principal problème est le groupe contrôle que l’on pourrait accuser d’être de convenance, pour que le résultat soit robuste il faut qu’en l’absence d’Hadopi les ventes sur itunes aient évolué de la même manière en France et dans ce fameux groupe contrôle. J’aurai bien regardé ce qu’il se passe si on enlève un ou deux pays ou si on en rajoute mais bon…

Là où ça devient intéressant c’est que l’on retrouve ce résultat dans [2], où en plus d’avoir momentanément réduit le trafic Internet, la mise en place de la loi Ipred en Suède a fait croître les ventes de musique de 37% . L’augmentation des ventes « numériques » compte pour une part importante de cette augmentation. Ce résultat semble assez solide, le groupe témoin est composé de pays très comparables (Danemark et Norvège) qui n’ont donc pas connu la même augmentation, l’effet informationnel des sanctions promises par la loi Ipred est donc un bon candidat pour expliquer ce résultat….le seul autre candidat pour lequel les auteurs n’ont pas de contrôle est un éventuel effet d’offre qui aurait touché la Suède et non ces voisins (Spotify par exemple mais je ne suis même pas certain que le streaming soit comptabilisé dans les ventes onlines du papier).

La fermeture de Megaupload

Que se passet-il si on coupe les circuits d’approvisionnement ?  La fermeture soudaine de Megaupload en Janvier 2012 offre un contrefactuel propice à faire de la bonne économétrie.

Les papiers [3] et [6] s’y sont essayés, leurs résultats sont moins contradictoires qu’il n’y parait. Le papier [3] regarde l’impact de la fermeture de Megaupload sur les ventes en ligne. Observer simplement la variation de ces ventes avant et après la fermeture ne suffirait pas à isoler l’impact de cette mesure puisque d’autres facteurs pourraient expliquer la variation des consommations (développement de l’offre , reprise économique #lol, saisonnalité…). Comme la fermeture de Megaupload touche tout le monde on ne peut pas non plus distinguer aisément un groupe qui subit le traitement et un autre de contrôle qui ne le subit pas. Les auteurs  construisent alors une sorte d’indice de pénétration de Megaupload par pays (j’y reviens après) et regardent si cette variable a un effet différent sur les ventes avant et après la fermeture. Les variations de consommation avant la fermeture ne sont pas influencées par des différences dans les taux de pénétration de Megaupload par contre après la fermeture les pays où Megaupload était le plus populaire sont ceux qui connaissent les plus importantes variations positives de consommation, ça semble imparable….à une chose près. L’indice censé représenter le taux de pénétration de megaupload est une boite noire, ils auraient utilisé les recherches de mots-clés de google adwords et là ça me semble un peu léger (et pas franchement reproductible en tout cas j’y suis pas arrivé) comme proxy du succès de Megaupload (on remarque au passage que la France à un taux de pénétration très élevé…un lien avec Hadopi ?), comme le résultat repose sur la validité de cette variable on peut tout de même s’interroger, mais au final ces conclusions rejoignent les résultats de la section précédente où les mesures d’interdiction/régulation favorisent les ventes légales online.

Le papier [6] affronte le problème différemment  et se concentre sur les conséquences du blocage de Megaupload sur les entrées au box office. Contrairement à [3]  il tente de s’accommoder de tous les facteurs qui pourraient venir expliquer les variations des revenus du box office (avec des variables ou des méthodes qui permettent de capter chacun de ces effets), la méthode est un peu moins robuste mais ça reste intéressant . Leurs conclusions sont que pour la plupart des films ça n’a rien changé mais pour certains (au milieu de la distribution) les revenus ont  baissé (on retrouve un argument bien connu qui fait du piratage un élément permettant d’essayer avant de consommer afin de réduire l’asymétrie d’information entre producteurs et acheteurs)  alors que quelques blockbusters semblent avoir bénéficié de cette fermeture.

Alors vous allez me dire mais comment le piratage peut ne pas diminuer et les ventes légales augmenter ? D’abord ce sont les ventes légales « online » que l’ont voit augmenter et elles peuvent simplement venir se substituer aux anciens modes de consommations payants  (avec support), mais surtout alors que je termine ce billet dans un train,  je vois des écrans partout ! Des ordinateurs, des tablettes, des smartphones et tout le monde regarde des films, des séries, et que dirait Walt Disney en parcourant les files d’attente des péages d’autoroute en observant tous ces enfants regarder avec autant d’attention l’appui-tête de papa et maman ?

Et si le « temps de cerveau disponible » pour regarder des films ou des séries n’avait cessé de croître ces dernières années au rythme de la miniaturisation des composants et de l’augmentation des débits Internet ? Chacun peut en tirer les conclusions qu’il veut 😉

 

 

 

 

 

 

La presse en ligne ne sait pas chasser le cerf

Quand on parle de business model sur internet on oppose en général les modèles payants et les modèles gratuits. Ce dernier l’étant rarement on désigne par gratuit les valorisations différées du type freemium  ou les financements par la publicité (voir Anderson 2008). La presse fait partie des secteurs les plus tiraillés entre ces deux formes de valorisation. Elle a historiquement misé sur la publicité pour financer les « news » librement accessibles sur leur site web alors qu’elle continuait, dans le même temps, à faire payer le journal papier pour un contenu équivalent. D’autres se rendant compte qu’ils ne pourraient pas financer leur rédaction de journalistes avec des bannières clignotantes ont essayé le modèle payant, mais comment convaincre les internautes habitués à consommer gratuitement tout ce qui est composé de 0 et de 1 ? (voir Charon et Le Floch pour un historique et une présentation des acteurs du secteur de la presse en ligne).

Difficile d’avoir aujourd’hui une vision claire du secteur entre les dépôts de bilan, les plans sociaux,  les titres en vente, les pure players aux fortunes diverses, le New York Times qui revendique le succès du Paywall et la presse quotidienne française nationale et régionale qui…. hésite (voir cette étude de Benghozi et Lyubareva).

Après tout si le NYT y arrive pourquoi pas Le Monde et Libération. Nous voudrions illustrer ici un aspect bien précis du débat gratuit/payant dans la presse en ligne, à savoir la concurrence induite par le premier sur le second et illustrer le fait que le problème du modèle payant n’est pas tant sa rentabilité que le fait qu’il coexiste avec le modèle gratuit et qu’à choisir je préfère lire des articles gratuits plutôt que payants (ou alors il faut vraiment une grosse valeur ajoutée journalistique). Le secteur de la presse en ligne connait un problème de coordination, et pour l’illustrer invoquons….

La chasse au cerf de Rousseau

La parabole de la chasse au cerf de Rousseau est assez simple (les blogueurs économistes en ont déjà parlé par exemple Mafeco ici et @Cyril_Hedouin ici). Pour faire simple deux chasseurs ont le choix entre chasser le cerf et le lapin, le premier permet de nourrir tout le village mais nécessite que les deux chasseurs coopèrent pour l’attraper (un le rabat l’autre le tire). Le lapin ne permettra à chaque chasseur que de nourrir sa famille mais peut être chassé seul. Les deux chasseurs ont donc intérêt à s’entendre pour chasser le cerf (1er équilibre de Nash) , sauf que le cerf peut mettre un peu de temps à arriver d’où la tentation pour chaque protagoniste de partir chasser « égoïstement » le lapin, l’autre ne pouvant rabattre et tirer le cerf tout seul se voit contraint de chasser à son tour le lapin, résultat les deux chasseurs tirent des lapins (2eme équilibre de Nash) alors qu’ils pourraient s’entendre pour ramener un gibier beaucoup plus nutritif. La question est donc comment faire en sorte que les deux chasseurs s’entendent pour chasser le cerf ?

cerf

Le tableau ci-dessus reprend cette parabole, les deux chasseurs deviennent disons Le Monde et Liberation (bon ce n’est évidemment pas parfaitement substituable mais faisons comme si), le cerf est remplacé par le modèle payant et le lapin par le modèle gratuit.  Le choix en haut à gauche payant/payant devient le modèle gagnant pour la presse, puisque si tous les titres de presse deviennent payant en ligne (dans l’exemple Le Monde et Liberation représentent l’ensemble de la presse) l’internaute sera bien obligé de payer pour accéder à la presse. Si par contre, l’un des deux ne voyant pas la rentabilité du modèle payant arriver décide de basculer vers le modèle gratuit, il perçoit des revenus publicitaires (plus faibles mais non nuls) mais désormais l’internaute sera d’autant moins enclin à payer pour disons Le Monde si il peut consulter gratuitement les articles de Liberation. La conséquence est que le modèle payant risque de ne jamais dégager de profit, Le Monde est contraint de chasser le lapin…enfin d’adopter le modèle gratuit et nous voilà coincés en bas à droite dans la figure du dessus.

C’est ce que Edwy Plenel a appelé « l’erreur historique » de la presse. La croyance que la pub en ligne financerait le journalisme  ou l’incroyance que le modèle payant permettrait de la financer. Pour converger vers le bon équilibre de Nash (celui en haut à gauche), il faut que tout le monde décide plus ou moins simultanément d’adopter le modèle payant, la disparition du contenu gratuit ne laissant pas d’autres alternatives aux internautes que de payer pour du journalisme de qualité en ligne.

Pourquoi on y arrive…doucement.

Pour résoudre ce type de dilemme on invoque traditionnellement la nécessité de voir émerger la confiance entre les protagonistes, mais dans le cas de titres de presse en concurrence ça n’a pas beaucoup de sens. Une autre manière de converger vers le « bon » équilibre de Nash est de faire en sorte que les acteurs aient la même croyance, celle que le cerf va arriver, qu’il est donc préférable de ne pas céder à la tentation de chasser le lapin. La croyance que le modèle payant peut être rentable est donc primordiale et pour la favoriser il faut des « signaux ». Le New York Times est certainement l’acteur le plus observé du secteur, en clamant haut et fort le succès de son modèle payant il incite le reste de la presse quotidienne à basculer vers de nouveaux modes de tarification. Il suffit pour s’en convaincre d’observer l’épidémie de « paywall » qui a contaminé la presse en ligne ces derniers mois. A l’échelle hexagonale, Mediapart pourrait jouer ce rôle tant Edwy Plennel ne ménage pas ses efforts pour promouvoir sa stratégie du « tout payant » (le succès de Mediapart est en partie lié à l’auto-imposition d’une TVA réduite mais c’est une autre histoire) . Chaque succès du modèle payant qu’il soit réel ou romancé est une incitation à abandonner le modèle gratuit et permet de converger vers l’équilibre payant/payant qui nous l’avons vu évite la fuite vers la consommation gratuite. Paradoxalement le problème des moteurs de recherche (donc Google) qui cannibalisent la majeure partie des recettes publicitaires en ligne au détriment de la presse (qui fournit pourtant le contenu) pourrait involontairement aider à coordonner les acteurs autour de l’équilibre payant/payant.

Pourquoi on risque de ne pas y arriver.

« Vous savez comment on fait pour devenir millionnaire ? non ? et bien il faut commencer par être milliardaire et ensuite racheter un titre de presse » source : blague issue du monde des médias.

Après tout la presse a-t-elle vraiment vocation à être rentable ? Elle a toujours été un instrument de pouvoir (Stern, 2012) et il n’est pas exclu que l’audience ait plus de valeur que le résultat du compte d’exploitation. Quand Jeff Bezos rachète le Washington Post, que cherche-t-il ? ça conjecture pas mal sur le sujet (ici et ici). On peut sans trop de cynisme avancer deux hypothèses, la première est qu’il compte utiliser le contenu (le journal) pour vendre autre chose disons à tout hasard des kindle pour ensuite vous vendre des livres, du cloud, de la musique etc… seconde hypothèse : il peut être utile d’avoir un journal sous la main le jour ou le sénat discutera sérieusement de la neutralité du net (bon ça c’est cynique). De la même manière est-ce que Xavier Niel cherche vraiment la rentabilité lorsqu’il rachète Le Monde et presque rachète le Nouvel Observateur ? Et puis regardez Propublica ou encore WhoWhatWhy qui sont financés par le mécénat assumant ainsi le caractère non rival et non appropriable de l’information, dans ce cas c’est le cerf qui vous donne gentiment à manger CQFD.

Le P2P ne meurt jamais: petite histoire d’économie expérimentale.

Pour ceux qui ont connu Napster et les premiers échanges massifs de biens dématérialisés sur Internet à la fin des années 90, l’histoire et l’évolution des réseaux P2P à quelque chose de fascinant. Ce qui est remarquable c’est la manière dont ces réseaux ont évolué pour organiser leur survie et s’adapter aux problèmes que rencontrent toute action collective qui se construit autour d’un bien présentant des aspects de « non-exclusivité » (je ne peux pas ou difficilement empêcher quelqu’un de le consommer), ce problème c’est le « passager clandestin », le « free rider » ou plus simplement le comportement opportuniste.

Ce n’est pas la seule difficulté que ces réseaux ont rencontré tout au long de leur évolution. Bien évidemment ces réseaux doivent en permanence s’adapter aux contraintes judiciaires et réglementaires. Chacun peut penser ce qu’il veut mais on doit globalement reconnaître que la quasi totalité des contenus qui circulent enfreignent les droits d’auteur et de copies. Les ayants droit ont globalement tout essayé pour limiter l’impact du P2P, attaquer en justice les concepteurs de plateformes et de logiciels (Napster, Kazaa, thepiratebay) faire saisir des serveurs ou des trackers (Razorback, Oink..) ou encore poursuivre les internautes (Hadopi, affaire Jamie Thomas aux US). L’architecture décentralisée et l’existence d’un grand nombre de petites communautés rendent les deux premières mesures peu efficaces, quand à la troisième celle qui vise à punir les internautes, en plus d’être d’une grande impopularité et peu efficace, elle se heurte aux nombreuses alternatives mises à disposition des « pirates » pour se procurer illégalement du contenu (streaming, cyberlocker, newsgroup, attendre patiemment que ses amis ou collègues viennent à la maison avec leur disque dur).

Finalement le plus gros problème des réseaux P2P était de faire face aux comportements opportunistes de ces membres. Comme chaque fois qu’un bien est non exclusif la tentation est grande d’en profiter sans y contribuer. Et sur Internet l’information est très souvent non exclusive, c’est même cette « ouverture » qui a permis l’immense effet de réseau à l’origine du développement de l’Internet (cf chapitre 3 du livre en haut à droite de cette page si vous voulez en savoir plus).
Ces comportements opportunistes ne sont pas très grave si le bien est non-rival (plusieurs personnes peuvent le consommer en même temps) mais devient un problème quand il vient amputer les bénéfices de ceux qui contribuent. Le problème des réseaux P2P est que si tout le monde télécharge sans mettre à disposition des autres le produit de leur téléchargement, le système marche beaucoup moins bien. Pour résumer, un individu rationnel s’empresse de télécharger le dernier Walt Disney et le retire rapidement de son dossier de partage, il évite ainsi de mobiliser sa bande passante et par la même occasion ne prend pas le risque de se faire prendre en train d’enfreindre le droit d’auteur. Notez qu’à quelques nuances près cet arbitrage vaut également pour une contribution sur Wikipedia (je peux en profiter sans jamais contribuer sur la plateforme), sur un forum ou d’autres types de communautés contributives non exclusives. Mais le réseau P2P présente des aspects de « rivalité » qui font que le comportement opportuniste empêche le réseau de bien fonctionner pour ceux qui coopèrent (ceux qui ne contribuent pas encombrent d’une certaine manière le réseau avec leur téléchargement et empêchent les fichiers de circuler rapidement).

Le jeu du bien public

Avec Godefroy on a pris l’habitude d’utiliser l’économie expérimentale pour expliquer la « survie de la coopération » dans le contexte des communautés en ligne (en général les étudiants aiment bien jouer à ces jeux et l’enseignant aussi d’ailleurs). Les résultats synthétisent l’histoire des réseaux P2P en quelques sessions du jeu du bien public.

Pour plus de détails sur le jeu du bien public voir ici, mais pour résumer chaque joueur reçoit X jetons et choisit la part qu’il garde et la part qu’il met au pot commun, pour chaque jeton mis au pot commun TOUS les joueurs reçoivent une somme positive, ainsi chaque fois que quelqu’un abonde au pot commun il génère un effet positif pour tous les membres du jeu (si je possède 10 jetons et que j’en mets 1 au pot tous les autres joueurs recevront 1 €). La stratégie rationnelle consiste à ne jamais donner au pot et à profiter de la générosité des autres alors que pour maximiser le bien être collectif il faudrait que tous le monde mette tout ses jetons au pot. L’analogie avec le réseau P2P est assez facile chaque fois que quelqu’un met un fichier à disposition, tout les autres peuvent le télécharger et en profiter (techniquement ils peuvent même tous le télécharger en même temps dans le mesure ou les fichiers sont partagés en de nombreux petits morceaux) mais individuellement tout le monde a intérêt à le télécharger sans le partager. J’ai fait jouer 18 étudiants de la License Masertic 8 fois consécutivement en utilisant la merveilleuse plateforme veconlab et les résultats (qui sont assez classiques) sont résumés dans le graphique ci-dessous. Sur le graphique de gauche avec les points bleus (en abscisse les sessions et en ordonnée le montant du pot et donc le niveau de coopération). Sur le graphique de droite avec les points roses, le même jeu sauf que l’on donne au joueur la possibilité de punir ceux qui ne coopèrent pas (en les privant d’une partie de leur gain).

pg_graph 1

En quoi ce jeu donne une bonne illustration de l’évolution des réseaux P2P ? Une fois passé l’engouement initial pour ces nouveaux réseaux (Napster, Fasttrack, Gnutella) le niveau de coopération a rapidement chuté, les « leechers » (c’est à dire ceux qui téléchargent sans laisser leur fichier à disposition pour les autres) ont pris de plus en plus d’importance au point de menacer la survie des réseaux P2P. Le plus gros problème concernait  la disponibilité des fonds de catalogue,  les fichiers les moins « populaires » ceux qui étaient mis en partage par peu d’individus, et qui disparaissaient si les quelques individus qui les proposaient ne jouaient pas le jeu.

Bittorrent: le coopérateur masqué

Alors le réseau  a organisé sa propre survie et c’est là qu’on passe au graphique de droite (celui avec les points roses) avec dans le rôle de Zorro, Bram Cohen, qui inventa le protocole Bittorrent. Sans rentrer dans les détails, ce nouveau protocole de communication oblige les téléchargeurs à partager les fichiers au moins le temps du téléchargement (pour la petit histoire Bram Cohen affirme que le protocole Bittorrent est une application du principe de tit-for-tat bien connu des spécialistes du jeu du dilemme du prisonnier itéré, voir les tournois d’Axelrod,). Bittorent s’est révélé très efficace pour partager des fichiers de grandes tailles (les films et les séries ;-)) mais ce n’était pas suffisant ce qui a vraiment fait la différence c’est l’apparition des communautés privées (private tracker). Les « pirates » se sont regroupés en plus petit comité dans des groupes plus ou moins fermés (il faut parfois être recommandé par quelqu’un pour y entrer mais la plupart du temps il suffit de s’inscrire) et ont surtout établi des règles de partage. La plus connue est celle dite du « ratio », la communauté enregistre votre activité et plus précisément le ratio des données que vous téléchargez rapporté aux données que vous avez transférées aux autres et en dessous d’un certain seuil (défini au sein de chaque communauté) vous êtes puni, la punition peut aller d’une impossibilité de télécharger pendant quelques temps au bannissement de la communauté. Regardez l’effet sur les niveaux de coopération  de l’introduction de la possibilité de punir sur le jeu du bien public (graphique de droite avec les points roses) et bien il s’est passé à peu prés la même chose sur les réseaux P2P, les utilisateurs ont massivement coopéré. Dans ce papier on avait  suivi quelques temps ces communautés pour constater qu’effectivement les taux de partage y sont impressionnants et que la mise en place de règles comme le « ratio » joue un rôle positif sur la coopération.

L’histoire des réseaux P2P est une bonne illustration de la puissance du jeu du bien public, à la fois s’agissant d’expliquer la généralisation des comportements opportunistes mais aussi pour montrer qu’un minimum de « règle » permet de « renverser la vapeur » pour permettre à l’action collective de « survivre ». Avec un peu d’imagination on peut également tirer de ce jeu un certain nombre d’enseignements pour expliquer l’évolution des contributions dans Wikipedia ou au sein de certaines communautés d’expérience ou de pratique à la différence notable que ces dernières, parce qu’elles produisent un bien réellement non rival (des 0 et des 1 qui engorgent peu les tuyaux), rendent « les passagers clandestins » moins gênants. Notons qu’Elinor Ostrom a reçu le prix Nobel d’économie pour avoir identifié ce mécanisme de constitutions de règles. Pour plus de détails allez voir le chapitre 4 de notre ouvrage, paragraphe 1.3.2 😉