Archives pour la catégorie Marchés

kanye West pourrait bien être le prochain prix Nobel d’économie.

Kanny west est particulièrement connu pour ses tweets, ses petites amies, sa musique évidemment et d’autres choses dont nous ne parlerons pas ici par manque d’expertise..

Mais ce que l’on sait moins c’est à quel point cet artiste maîtrise la littérature en économie industrielle et particulièrement les concepts développés par notre prix Nobel national (Jean tirole en 2014), c’est dire !

Kanye West a récemment surpris tout le monde en décidant de distribuer son nouvel album The life of Pablo exclusivement sur la plateforme de streaming Tidal et donc de renoncer à le vendre sur Itunes, Deezer, Spotify et même de le distribuer au format CD (sisi ça se vend encore le CD).

Sa décision a été vivement critiquée par les fans et les observateurs au titre qu’elle contraint la diffusion de son album et prend en quelque sorte le fan en « otage » l’obligeant à s’abonner à Tidal pour pouvoir écouter le dernier opus du rappeur…et pourtant

Les marchés bifaces

Les plateformes de streaming comme toutes les plateformes sont des marchés bi-faces (nous en avons déjà parlé ici), en résumé elles sont des lieux de rencontre entre vendeurs et acheteurs, ici les vendeurs sont les artistes (ou les maisons de disques) et les acheteurs sont les consommateurs de musique. Ces plateformes génèrent une dynamique particulière appelée « effet de réseaux », plus il y a d’artistes plus les consommateurs voudront s’abonner à la plateforme et plus il y aura d’abonnés plus les artistes auront intérêt à être présents sur la plateforme. Se pose ensuite le problème classique de l’oeuf et la poule si il n’y a pas beaucoup d’artistes il n’y a peu d’abonnés et inversement d’où la difficulté de faire venir l’une des deux faces du marché en premier pour attirer l’autre…c’est LE problème des plateformes.

L’autre question qui intéresse les économistes est de savoir si plusieurs plateformes peuvent coexister ou si l’une d’entre elles va rafler toutes les parts de marché.

Le multi-homing

En observant le marché du streaming musical vous constatez que de nombreux acteurs coexistent (deezer, spotify, Apple music, Tidal, Amazon prime music, Google play music, Raphsody, Pandora…), c’est en partie parce que le « multi-homing » est une pratique courante du coté des artistes. Cela signifie qu’un artiste peut être présent sur plusieurs plateformes à la fois, voire toutes ! Du coté des internautes le « single-homing » est plutôt de mise, en règle générale on ne s’abonne pas à plusieurs plateformes on en choisit une ! L’une des conséquences est que les plateformes se battent plutôt pour avoir des internautes d’où la politique de prix attractive, les mois offerts et les écoutes gratuites, à l’inverse les artistes étant présents partout ils sont moins rares et donc moins chouchoutés par les plateformes (ce qui peut en passant expliquer les tensions entre eux et les plateformes sur la rémunération des écoutes). Retenons qu’en général le single-homing favorise la concentration du marché.

Kanye West et Tidal ont tout compris…en théorie

d’une certaine manière Kanye West inaugure le « single-homing » coté artiste et Tidal le « contrat d’exclusivité » coté plateforme….le consommateur qui souhaite écouter Kany West doit donc s’abonner sur Tidal et nulle par ailleurs ,c’est le meilleur moyen de prendre des parts de marché aux concurrents et ça semble marcher puisque la plateforme enregistre une forte croissance de ses abonnements (même si elle reste loin derrière les acteurs dominants de ce marché). Notons que Rihanna et Beyoncé avait préparé le terrain en donnant une exclusivité temporaire à la plateforme sur un album et un single …

Si les artistes font ce choix sur Tidal c’est aussi parce qu’ils sont actionnaires…

et cette stratégie prend le secteur à contre-pied, plutôt que de séduire les consommateurs pour faire payer les artistes, Tidal choisit de séduire les artistes (en leur offrant une autre forme de rémunération que les écoutes) et de faire payer les utilisateurs sur la base de l’accès à des contenus exclusifs…

C’est la bonne stratégie dans un marché naissant à fortiori lorsque vous êtes « petit ». Si vous proposez la même chose que les gros vous avez peu de chance de les rattraper il vous faut donc une stratégie qui favorise le « single-homing » … Regardons l’industrie du jeux vidéo qui est un exemple souvent donné lorsqu’on parle de marché bi-faces. Ce graphique est extrait de Landsman, et Stremersch (2011) et montre la manière dont l’industrie du jeu vidéo est passée du single au multi-homing au cours du temps (en ordonnée un indicateur de multi-homing)

multihoming

Au début il faut faire sa place, attirer les utilisateurs qui eux « single-home » (à l’exception de quelques serial gamers qui achètent toutes les consoles). Les consoles font en sorte d’avoir des jeux en exclusivité (rappelez-vous au tout début Mario_nintendo vs Sonic_sega). Puis au fil du temps lorsque le marché est mature et les consommateurs équipés il vaut mieux multiplier les contenus pour profiter des effets de réseau, d’où le passage « au multi-homing » du coté des éditeurs de jeux.

Le streaming a jusqu’à maintenant suivi le chemin inverse (multi-homing coté éditeur) d’où les très nombreuses plateformes au contenu faiblement différencié. Kany West a donc ouvert une brèche plus cohérente avec la stratégie d’un nouvel entrant faisant face à des acteurs ayant déjà une forte base installée de consommateurs et qui pourrait, si la tendance au single-homing coté artiste se généralise, lancer un grand mouvement de concentration du marché, et peut-être même « une guerre de standard » à l’issue incertaine et où avoir le bon contenu au bon moment peut s’avérer déterminant !

en tout cas il n’est pas rare en physique de voir un prix Nobel récompenser des chercheurs qui valident empiriquement des prédictions théoriques anciennes alors pourquoi Kany West ne pourrait-il pas prétendre à la récompense suprême pour ses travaux empiriques sur les marchés bifaces (prix à partager avec Jay-Z pour la stratégie générale de Tidal) ?

 

 

nb: il est important de noter qu’il y a des raisons qui peuvent expliquer le multi-homing des artistes et qui marquent une différence avec l’industrie du jeu vidéo. La principale est que sur les plateformes de streaming l’artiste n’est rémunéré pour la consommation de son oeuvre que via la plateforme alors que le « gamer » achète directement le jeu auprès de l’éditeur. On peut donc supposer que l’effet de réseau indirect coté artiste est plus faible et que son revenu n’augmente pas nécessairement avec le nombre de consommateurs (comme dit dans l’article c’est un sujet sensible dans le secteur)…cela peut expliquer la présence multiple des artistes sur les plateformes qui par ce biais essayent de maximiser leur revenu.

marchés bifaces, discrimination et concurrence : chronique des neutralités sur Internet

La neutralité du net est un beau principe, certains diraient même « romantique ».

On le doit aux universitaires américains qui, aux temps héroïques de l’Arpanet (ancêtre de l’Internet), ont eu la bonne idée d’inscrire dans les protocoles et standards de communication le principe selon lequel, pour faire court, tous les paquets de 0 et de 1 se valent :les fournisseurs d’accès ne peuvent imposer aucune discrimination en fonction de la source ou du destinataire des données.

Ce principe est l’une des raisons principales de la croissance exponentielle du réseau depuis la fin des années 80. En donnant un ticket d’entrée gratuit à tous ceux qui voulaient innover, il a déclenché l’immense effet de réseau qui aboutit à l’Internet que l’on connait aujourd’hui.

Si Marc Zuckerberg avait dû, de sa chambre à Harvard, négocier avec chaque FAI pour accéder aux internautes, mes étudiants s’ennuieraient terriblement pendant mes cours et Skype n’aurait pu se développer au nez et à la barbe de ceux qui fournissent le téléphone en même temps que l’accès au réseau. Il est d’usage de représenter ce principe à l’aide d’un marché biface (ce sera notre hommage tardif au prix Nobel de Tirole).

nn

La neutralité du net impose la gratuité aux FAI sur la face « contenus et services » les obligeant à se rémunérer uniquement par la vente d’accès aux internautes. Comme le rappellent Curien et Maxwell  pour justifier cette gratuité imposée : « la neutralité de l’Internet peut être vue comme une politique d’aide à la création et à la fourniture de contenu sur internet ».

Tout le monde à sa chance et sera traité avec les mêmes égards que Google et Facebook, les portes de l’Internet sont grandes ouvertes, entrepreneurs du monde entier levez-vous et faites fortune  !!!

Le foisonnement d’innovations sur la face subventionnée attire les internautes qui attisent dans le même temps le désir d’innovation des « startupeurs » en herbe. C’est la force de cet effet de réseau indirect qui a permis le succès fulgurant de l’Internet. Pour s’en rendre compte il faut imaginer ce qu’il serait advenu sans neutralité du net : les fournisseurs de services auraient du payer les FAI, il y aurait eu moins d’innovation et les FAI auraient pu empêcher le développement de certains services qui leur faisaient concurrence (bref AOL serait encore là). Nul doute qu’Internet serait moins attractif et donc moins d’internautes, moins de blog, moins de réponses dans les forums, moins d’articles dans Wikipedia, moins de films sur torrent411, et moins de mails de millionnaires désireux de partager leur fortune avec vous…

Malheureusement, contrairement au train, une neutralité n’en cache pas forcément une autre et ceux qui ont profité de la neutralité du net pour constituer des empires pratiquent désormais une nouvelle forme de discrimination.  Cette pratique inquiète parce qu’elle ouvre la voie  à de nombreux abus et menace, d’une certaine manière, la création et la diversité des contenus en ligne.

…..faites entrer les Géants du Web et leur principe de non neutralité des plateformes.

Pour l’essentiel, les géants du web sont des plateformes qui mettent en relation différentes faces de marché. Les utilisateurs sont toujours à droite et les fournisseurs de services et de contenus à gauche mais désormais pour rencontrer les consommateurs ils doivent faire en sorte d’être présents sur la première page d’un moteur de recherche, parmi les applications les plus téléchargées sur un store ou mis en avant dans les recommandations d’une marketplace.

nn3

Jusque là tout va bien, après tout c’est le jeu du marché : les plus offrants, les plus malins ou les plus innovants auront les meilleures places sur les plateformes et pourront rencontrer les utilisateurs…. Marc Levy, Candy Crush ou expedia.fr s’en sortent bien et c’est terriblement mérité. 😉

Mais les plateformes ont bien compris qu’en intégrant la chaîne de valeur elles pouvaient tirer pleinement partie des effets de réseaux indirects (apparition de la flèche rouge) et c’est à ce moment là que les plateformes cessent d’être neutres. 

Une discrimination insidieuse se met petit à petit en place et ses formes sont variables  mais ne manquent jamais de fausser la concurrence en favorisant les services et contenus proposés par la plateforme, menaçant d’une certaine manière la création et la diversité des contenus.

Google a ainsi pris l’habitude de manipuler les résultats de son moteur de recherche pour favoriser ses services ou tout bonnement  supprimer le compte adwords des contenus gênants. Baidu, le « Google Chinois », probablement animé par des motivations différentes, utilise également l’opacité de son algorithme pour filtrer le contenu de son moteur de recherche.

Amazon, quant à lui ne se cache pas de sanctionner les éditeurs qui refusent de baisser leurs prix et nul doute qu’à l’avenir les recommandations de leurs algorithmes feront la part belle aux contenus édités par Amazon lui même. Apple lui aussi profite de l’hégémonie de son « Store » pour évincer les empêcheurs de « vendre » ou s’arroger le droit de distinguer le vice de la vertu.

Tout ceci est-il bien légal ? Récemment le CNNUM a émis un avis sur le sujet avec des recommandations intéressantes, et la Commission européenne s’interroge sur ces pratiques.  En attendant, beaucoup d’entreprises se disent étranglées par ces comportements qui rappellent ce que faisait Microsoft à la fin des années 90 avec Netscape ou les autres développeurs innovants. La lenteur de la réaction des pouvoirs publics avait finalement permis à Microsoft de passer entre les gouttes.

Nous ne sommes probablement qu’au début de cette nouvelle forme de discrimination et il est difficile d’estimer quel sera son impact sur la diversité des contenus et l’innovation. La principale difficulté sera certainement de prouver l’existence de pratiques anticoncurrentielles (ou l’« abus de position dominante » puisque c’est comme ça que l’article L.420-2 du code de commerce considère les pratiques commerciales discriminatoires). Les « GAFAM » sauront se cacher derrière leurs algorithmes ou ouvrir le code dans de justes proportions.

Je termine par une devinette : qui a déclaré  devant la court suprême argentine Search engines are neutral platforms that do not create nor control content on the web ?

Le numérique et l’emploi….je t’aime un peu, beaucoup ou pas du tout ?

Ne pas se tromper de politique publique est forcément quelque chose de délicat. Or sur la question du numérique et de la création d’emploi, il n’est pas facile de se faire une opinion.

En 2011, deux chercheurs E. Brynjolfsson et A. Mc Afee publiaient un essai dans lequel ils dénonçaient le risque sérieux que le numérique faisait peser sur la croissance, en permettant aux machines de se substituer trop vite à l’être humain. Ils actualisèrent et étendirent ce document dans un livre paru en 2014, « The Second Machine Age ». Notant les progrès réalisés en algorithmique, traitement des données et bien sûr, capacité de sans cesse croissante de calcul des microprocesseurs, ils affirmaient que la machine remplacerait rapidement l’être humain dans des tâches auparavant considérées comme trop complexes pour être confiées à un automate , par exemple conduire une voiture. Ils en venaient à affirmer que les progrès effectués par les robots  conduiraient à des restructurations massives au sein des ateliers, des entrepôts, comme déjà le travail de bureau avait été profondément modifié par la diffusion de l’informatique. Mais surtout ils notaient que les progrès exponentiels dans les capacités des circuits intégrés (« Loi de Moore ») conduisaient ce remplacement de l’homme par la machine  à être de plus en plus rapide.

Après tout, ceci n’est pas nouveau : l’histoire de la Révolution Industrielle est un processus permanent de « substitution du capital au travail », avec son lot de misère, de drames et de révoltes. En France celle, célèbre, des canuts lyonnais contre les métiers à tisser automatiques, n’en est qu’un exemple, dont chaque pays touché par la modernité pourrait aussi apporter le témoignage. Pourtant au final, le progrès technique procure de la richesse pour tous, les emplois perdus étant remplacés par des emplois nouveaux sur lesquels finissent par se déverser ceux que la machine a mis au chômage.

Mais le « dommage collatéral » de ce que Schumpeter appelle la « destruction créatrice », pourrait, selon nos auteurs, se transformer aujourd’hui en catastrophe de la taille d’un tsunami. Leur argument est simple : avec un progrès qui suit une loi exponentielle, les emplois que l’on peut perdre, pourraient être l’an prochain en nombre égal à tous ceux que l’on a perdu depuis que le numérique est apparu. Brynjolfsson et Mc Afee utilisent la métaphore du grain de riz et du jeu d’échecs pour illustrer leur propos. Si on met un grain de riz sur la première case d’un échiquier, deux grains sur sa voisine latérale, puis 4 grains sur la suivante, 8 grains sur celle d’après etc .,  on a accumulé un certain nombre de grains lorsqu’on est à la moitié de l’échiquier, mais dans la case suivante on en mettra autant que la somme des tous les grains déposés jusque-là. Si le stock de grains de riz est limité, on aura mis longtemps à le vider à moitié en déposant les grains sur l’échiquier, mais  à l’ instant l’autre moitié sera également perdue.

Leur argument est donc simple : Le numérique provoque un rythme de remplacement de l’homme par la machine auquel la société ne peut plus répondre en créant des emplois de substitution. Cela engendre un chômage de plus en plus grand, mais surtout celui-ci va s’accélérer dans les années qui viennent. Cette thèse a ensuite été reprise et élaborée par d’autres chercheurs. Ainsi Osborne et Frey ont utilisé un protocole à la fois statistique (fondé sur l’observation du passé) et heuristique (s’appuyant sur les opinions « d’experts » en robotique) pour évaluer dans les dix prochaines années la probabilité de substitution des emplois par des robots. Ils suggèrent ainsi que si un orthophoniste ou un gérant hôtelier a 3 à 4 chances sur mille de pouvoir être remplacé par un robot ou un automate dans les dix ans à venir, la probabilité passe à 98% pour un arbitre sportif ( !), un comptable ou un agent immobilier. Cette probabilité est de 40% pour un réparateur d’ascenseur, de 54% pour un embaumeur ( !), de 55% pour un réparateur de télévision. Bien entendu tous les emplois menacés ne le seront pas instantanément, tout dépendra des coûts respectifs du robot ou de l’automate, et du salarié. Ce qu’indique l’étude de Osborne et Frey, c’est la possibilité technique de substitution avec un niveau de performance équivalent. Le papier de Osborne et Frey donne le cadre de ce que pourrait être cette accentuation du rythme de substitution des emplois humains par celui des « machines ».

Cette thèse de Brynjolfsson et Mc Afee qui reste au final difficile à vérifier, bouleverse beaucoup d’idées reçues et rompt avec un débat qui agite les spécialistes du numérique depuis près de 30 ans : quel est l’impact véritable du  numérique sur la croissance ? Depuis le paradoxe de Solow, énoncé par son auteur en 1987 (« on voit les ordinateurs partout sauf dans les statistiques » – sous- entendu celles de la croissance et de la productivité -) deux thèses s’affrontent : pour la plupart des auteurs le numérique a un impact positif sur la productivité, donc sur la croissance ; c’est ce que reprennent la plupart des gouvernements qui font des TIC un vecteur de de dynamisme dans l’économie. Dans le récent plan annoncé en décembre 2014 par le Président de la Commission Européenne J.C Juncker, le numérique figure explicitement comme une des cinq priorités. La présidence lettone de l’UE qui prend effet au 1/1/2015, mentionne également le numérique comme un de ses trois objectifs politiques.

S’appuyant également sur cet axiome,  trois rapports sont récemment parus en France, celui de Philippe Lemoine, du cabinet Roland Berger et de Mc Kinsey, qui disent tous à peu près la même chose : Le numérique bouleverse l’économie, et les entreprises françaises ont pris du retard dans son adoption, ce qui les pénalise. Une consultation publique lancée par le Conseil National du Numérique en Octobre 2014 jusqu’à la mi-janvier, va également dans cette direction et propose notamment un ensemble de mesures pour combler ce retard.

Mais si la thèse des vertus du numérique quant à la croissance est  très largement répandue, certaines voix dissonantes affirment que cet impact est loin d’être évident. C’est notamment le cas de Robert Gordon ici qui depuis le milieu des années 90, tente de montrer que la « révolution du numérique » n’a pas du tout le même impact que les autres révolutions technologiques (machine à vapeur et chemin de fer, électricité et chimie). Un de ses récents papiers suggère par exemple que les progrès actuels du  numérique (smartphones, tablettes, vidéo à la demande…) sont principalement consacrés à la consommation de loisir et n’ont aucun impact sur la productivité des entreprises. Du coup les gains de productivité se concentrent dans le secteur de production du numérique uniquement, sans affecter le reste de l’économie. Pire, Gordon considère que les USA (économie qui est de loin la plus productive en matière de numérique), sont entrés dans une phase séculaire de faible croissance de la productivité, donc d’accumulation des richesses. C’est la thèse du « déclinisme » par rapport aux économies émergentes.

Ainsi par rapport à cette question clé qui est : qu’apporte le numérique aujourd’hui, il y a, avec la récente thèse de Brynjolfsson et Mc Afee, trois visions :

  • Le numérique n’a que très peu d’impact, surtout en comparaison avec les autres révolutions industrielles (Gordon)
  • Le numérique a un impact essentiel, et tout retard dans son adoption est une erreur économique et politique (OCDE, UE, presque tous les gouvernements)
  • Le numérique a un impact trop fort, qu’on risque rapidement de ne plus maîtriser ( Brynjolfsson et Mc Afee).

Ces thèses apparaissent irréconciliables. Pourtant les mettre en regard peut masquer l’essentiel : le numérique, comme tout vecteur du progrès technique, ne réalise pleinement ses effets que si la société s’en approprie les vertus et en limite les risques. Cela passe très souvent par de profondes mutations organisationnelles, tant chez les acteurs économiques que dans la société, voire dans l’ordre juridique. Ce sont ces mutations qu’il faut analyser et comprendre pour déterminer laquelle de ces trois thèses a le plus de chances d’être vraie. Gordon pense que les mutations organisationnelles n’ont que peu à voir avec le numérique, les gouvernements pensent qu’il est de leur responsabilité de susciter un cadre propice à ces mutations (certains gouvernements comme ceux de Corée ou du Japon considèrent même qu’il faut une forte aide publique à l’investissement dans le numérique), et Brynjolfsson et Mc Afee pensent que c’est dans les activités créatrices celles que la machine mettra le plus de temps à remplacer, que réside le salut des économies avancées : On voit que les recommandations en termes de politiques publiques sont très différentes.

La Grande transformation, les plateformes et les objets connectés

L’évolution du numérique pousse vers plus de connexion d’objets, et l’on parle d’ailleurs à ce propos « d’objets connectés ». Mais dans  la situation actuelle,  ces objets sont reliés, via Internet, à des « plateformes », qui intègrent leurs données envoyées et proposent en retour des services s’appuyant sur cette intégration. Comme le réseau de communication entre ces plateformes et ces objets est l’Internet, on évoque « l’Internet des objets ».

A l’origine les objets connectés étaient simplement des ordinateurs, dont les données étaient essentiellement « abstraites ». La mise en place de réseaux d’ordinateurs a ainsi été le grand défi de l’informatique et des télécommunications dans les années 1970-180. Avec le protocole TCP/IP créé en 1983, Internet a fini par s’imposer comme le réseau universel de connexion d’ordinateurs. Toute une série d’applications et de services a pu ainsi se mettre en place, dans la frénésie de la bulle Internet (1996-2001). Après son dégonflement l’innovation a malgré tout continué de suivre le progrès technique permanent dans les semi-conducteurs, d’autant que les réseaux de communications ont connu à leur tour une véritable mutation : déploiement des réseaux de mobiles et accès de ces réseaux à Internet (technologie dite « 3G », qui a décollé dans le milieu de la décennie des années 2000, diffusion de la technologie ADSL au sein des réseaux fixes qui a permis un accès confortable des ménages à Internet ). Le commerce électronique, les moteurs de recherche, les portails, la voix sur IP et maintenant la distribution de programmes audiovisuels sont quelques illustrations de ces évolutions.

Mais le développement des technologies sans fil, la miniaturisation des composants électroniques et la traduction de signaux de toute sorte en fichiers numériques (« numérisation ») a conduit les « objets connectés »  à se multiplier, pour transmettre aux « plateformes » la traduction numérique de quasiment tout phénomène physique, biologique ou abstrait, émanant de toute sorte d’objets, macroscopique ou microscopique, fixe ou mobile. La Grande transformation, c’est ce basculement de toutes les activités matérielles vers la numérisation, où celle-ci a pour vocation, en se greffant sur les objets, de coordonner  les activités matérielles pour en assurer une exécution améliorée, voire profondément bouleversée.

Ainsi sont en train de se mettre en place ce que Kim Clark (1985) appelle des innovations architecturales, où les prestations matérielles se trouvent profondément transformées par une articulation complètement nouvelle de leur fourniture. Donnons quelques exemples :

  • Dans le domaine du transport, un service de covoiturage comme celui de Blablacar est la transformation profonde d’une activité auparavant marginale, l’autostop. Il menace directement les entreprises de transport en commun (cars routiers ou trains, voire transport aérien) de la même façon qu’au moment de la bulle Internet, les sites de vente en ligne  de billets et séjours touristiques ont menacé les agences de voyages, et les sites de téléchargement de musique (légaux ou illégaux) ont menacé la distribution de CD.
  • Toujours dans le domaine du transport, l’opérateur Uber, qui propose lui aussi la formule de covoiturage mais en ville, s’appuie sur la possession de téléphones mobiles et la disponibilité  de places en voiture, pour organiser ce covoiturage urbain. Il menace directement un pan de l’activité des chauffeurs de taxi, voire les transports en commun.
  • Dans le bâtiment, les nécessités créées par la construction ou la rénovation de « bâtiments intelligents » c’est-à-dire économes en énergie et respectueux de l’environnement, imposent de concevoir l’architecture de ces bâtiments en fonction de réseaux « domotiques » qui fournissent des services de gestion des infrastructures pour mieux réguler la consommation d’énergie et d’eau, piloter les produits « blancs »(électroménager) et « bruns » (matériel audiovisuel, informatique) ainsi que toutes les infrastructures  (volets, sanitaires, salle de bain…) que contient le bâtiment en question.
  • Dans le domaine médical, les systèmes de prothèse ou de correction (lunettes), se voient dotés de capacités de communication qui en font des « objets intelligents ». L’apparition des lunettes Google et de la montre Apple, marques globales s’il en est, montre que ces évolutions ne sont plus de l’ordre de la Science-fiction, voire du développement de prototypes, mais ont atteint un niveau de diffusion désormais grand public.
  • Les vêtements à leur tour deviennent « intelligents », incorporant des capteurs entre leurs fibres, pour des usages thérapeutiques ou de confort.

Ainsi se mettent en place des systèmes articulés, des écosystèmes diraient certains, où des plateformes centrales ou périphériques (certains objets connectés, à l’instar du smartphone, sont de véritables plateformes) relient, coordonnent et opèrent des ensembles d’objets,  en une architecture de services disponibles pour toute catégorie d’utilisateurs : individus et organisations, voire d’autres plateformes.

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) sont les archétypes d’entreprises proposant des plateformes globales, conçues pour accumuler toutes les données afin de fournir tous les services que la numérisation peut proposer. Leur activité reste largement confinée, pour l’instant, dans le maniement des données « abstraites », peu ou pas reliées à des activités matérielles. Mais dans la dynamique d’expansion qui est la leur, ces plateformes globales ont vocation à pénétrer le champ de ces activités comme le démontrent les « Google glasses », la « Google car » et l’ « Apple Watch » évoquées plus haut.

Ces mutations sont donc les témoignages de l’apparition de grappes d’innovation s’appuyant sur les réseaux, l’information stockée dans les serveurs (le « cloud ») et les capteurs matériels de données. Ces innovations sont architecturales mais pas « de rupture » (Clark, 1985), au sens où elles transforment en profondeur les activités précédentes, même si elles n’utilisent pas forcément, pour ce faire, des composants nouveaux. Cela n’enlève rien à leur potentiel.  Après tout c’est comme cela que l’I-phone s’est imposé, en intégrant une série de fonctionnalités nouvelles qui existaient auparavant sur le marché  indépendamment les unes des autres. On appelle ce genre de percée, un « dominant design », un modèle dominant (Abernathy et Utterback, 1978).

Pour qu’une innovation, architecturale ou de rupture, puisse s’imposer, il faut combiner d’une part une compréhension des besoins (latents, donc pas exprimés) que le consommateur ressent, et c’est le propre du marketing. Il faut dans le même temps offrir une solution (technique, s’agissant de produits «high tech ») qui satisfasse ce besoin, donc résoudre pas à pas des difficultés techniques. En règle générale il est assez difficile de coupler la mise au point technique de la solution et la révélation du besoin (latent), malgré ce qu’en dit Clark (1985). Si ce couplage était si aisé, on ne comprendrait pas pourquoi celui qui arrive le premier sur le marché (l’innovateur) n’est pas toujours celui qui rafle la mise, le leader (Teece, 1987). Les cadavres d’innovateurs ayant raté leur marché jonchent en effet  le long parcours du progrès technique.

Dans le cas de la « grande transformation », les innovations et les  mutations sectorielles que vont induire les plateformes et les objets connectés ne seront pas forcément  produites par les GAFAM, malgré leurs avantages indéniables : savoir-faire en manipulation de données,  présence globale, capacité à entretenir des relations privilégiées avec les individus, à les connaître grâce à leurs « traces » numériques. En effet, beaucoup d’applications potentielles sont pour l’instant des marchés de niche qui n’intéressent pas forcément des opérateurs globaux (cas du covoiturage), ou bien sont des activités réglementées où l’entrée d’un opérateur intermédiaire n’est pas forcément facilement autorisée (cas des plateformes de consultation médicale à distance par exemple).  Cela laisse donc des marges de manœuvre à des actions plus locales, soit par des acteurs de la profession capables de se coordonner pour proposer des services en ligne innovants sans toutefois devenir des cartels, soit pour des startups ou PME qui « flairent » les opportunités en raison de leur connaissance du marché local, de leur capacité à réunir rapidement des compétences nécessaires à la mise au point de ces plateformes et services innovants.

Un autre point mérite d’être souligné. La mise en place de ces services « matériels » (ou plutôt facilitant les activités matérielles) en s’appuyant sur des capteurs et des plateformes, permet de surmonter l’obstacle majeur qu’Internet fait peser sur la structure industrielle du numérique : L’indépendance du monde des infrastructures, domaine des opérateurs, de celui des services (logiciels), en raison du protocole IP. Cette indépendance a consacré la domination de « l’infomédiation » (les logiciels et des GAFAM) sur les opérateurs de réseau, confinant ces derniers à un rôle de simple sous-traitant. Avec l’Internet des objets, ils ont au contraire la possibilité de reprendre la main à condition d’étendre leur activité au monde des capteurs. Cela passe par des alliances avec des constructeurs de solution, par la mise en place de plateformes et par un rôle de coordination entre tous les acteurs (industriels, sociétés de service, instances de régulation et métiers utilisateurs). Il n’est pas sûr qu’ils aient pris conscience de ces opportunités. Ils ont du mal à s’approprier des « contenus »,  surtout lorsque ceux-ci correspondent à du savoir-faire spécifique d’une profession. Ils ont également drastiquement réduit leur potentiel de recherche, affaiblissant ainsi leur capacité à résoudre des problèmes techniques.

Un atout sur lequel les opérateurs devraient s’appuyer, c’est leur capacité à mettre en œuvre des standards, sans forcément chercher à s’accaparer les fruits de la standardisation par des brevets.  Ces innovations architecturales en effet sont le siège d’importants effets de réseau locaux, puisqu’il s’agit de coordonner des métiers. Or le risque est d’enfermer la profession dans des standards propriétaires, ou même collectifs mais décidés par la profession, les rendant inaptes à l’interopération avec ceux d’une autre profession. Comme la contrainte technique sur les capteurs

Quoi qu’il en soit, l’Europe cherche une « renaissance industrielle ». Dans le monde du numérique, il existe une voie pour cette renaissance, pas forcément grande créatrice d’emplois directs, mais en tout cas potentiellement pourvoyeuse d’innovations, de brevets et d’activité. En outre les utilisateurs de ces nouveaux services verront à terme leur productivité s’améliorer, et donc leurs marges se restaurer. Ils pourront envisager d’investir et d’embaucher. Bref c’est la croissance économique que la diffusion du numérique dans les activités matérielles va permettre. Un formidable enjeu dont il n’est pas sûr que l’Europe ait pleinement conscience, malgré son agenda H2020 qui cible spécifiquement des actions dans le domaine applicatif.

 Bibliographie :

Clark, K. B. (1985). The interaction of design hierarchies and market concepts in technological evolution. Research policy14(5), 235-251.

Abernathy, W. J., & Utterback, J. M. (1978). Patterns of industrial innovation.Journal Title: Technology review. Ariel64, 254-228.

Teece, D. J. (1986). Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research policy, 15(6), 285-305.

La presse en ligne ne sait pas chasser le cerf

Quand on parle de business model sur internet on oppose en général les modèles payants et les modèles gratuits. Ce dernier l’étant rarement on désigne par gratuit les valorisations différées du type freemium  ou les financements par la publicité (voir Anderson 2008). La presse fait partie des secteurs les plus tiraillés entre ces deux formes de valorisation. Elle a historiquement misé sur la publicité pour financer les « news » librement accessibles sur leur site web alors qu’elle continuait, dans le même temps, à faire payer le journal papier pour un contenu équivalent. D’autres se rendant compte qu’ils ne pourraient pas financer leur rédaction de journalistes avec des bannières clignotantes ont essayé le modèle payant, mais comment convaincre les internautes habitués à consommer gratuitement tout ce qui est composé de 0 et de 1 ? (voir Charon et Le Floch pour un historique et une présentation des acteurs du secteur de la presse en ligne).

Difficile d’avoir aujourd’hui une vision claire du secteur entre les dépôts de bilan, les plans sociaux,  les titres en vente, les pure players aux fortunes diverses, le New York Times qui revendique le succès du Paywall et la presse quotidienne française nationale et régionale qui…. hésite (voir cette étude de Benghozi et Lyubareva).

Après tout si le NYT y arrive pourquoi pas Le Monde et Libération. Nous voudrions illustrer ici un aspect bien précis du débat gratuit/payant dans la presse en ligne, à savoir la concurrence induite par le premier sur le second et illustrer le fait que le problème du modèle payant n’est pas tant sa rentabilité que le fait qu’il coexiste avec le modèle gratuit et qu’à choisir je préfère lire des articles gratuits plutôt que payants (ou alors il faut vraiment une grosse valeur ajoutée journalistique). Le secteur de la presse en ligne connait un problème de coordination, et pour l’illustrer invoquons….

La chasse au cerf de Rousseau

La parabole de la chasse au cerf de Rousseau est assez simple (les blogueurs économistes en ont déjà parlé par exemple Mafeco ici et @Cyril_Hedouin ici). Pour faire simple deux chasseurs ont le choix entre chasser le cerf et le lapin, le premier permet de nourrir tout le village mais nécessite que les deux chasseurs coopèrent pour l’attraper (un le rabat l’autre le tire). Le lapin ne permettra à chaque chasseur que de nourrir sa famille mais peut être chassé seul. Les deux chasseurs ont donc intérêt à s’entendre pour chasser le cerf (1er équilibre de Nash) , sauf que le cerf peut mettre un peu de temps à arriver d’où la tentation pour chaque protagoniste de partir chasser « égoïstement » le lapin, l’autre ne pouvant rabattre et tirer le cerf tout seul se voit contraint de chasser à son tour le lapin, résultat les deux chasseurs tirent des lapins (2eme équilibre de Nash) alors qu’ils pourraient s’entendre pour ramener un gibier beaucoup plus nutritif. La question est donc comment faire en sorte que les deux chasseurs s’entendent pour chasser le cerf ?

cerf

Le tableau ci-dessus reprend cette parabole, les deux chasseurs deviennent disons Le Monde et Liberation (bon ce n’est évidemment pas parfaitement substituable mais faisons comme si), le cerf est remplacé par le modèle payant et le lapin par le modèle gratuit.  Le choix en haut à gauche payant/payant devient le modèle gagnant pour la presse, puisque si tous les titres de presse deviennent payant en ligne (dans l’exemple Le Monde et Liberation représentent l’ensemble de la presse) l’internaute sera bien obligé de payer pour accéder à la presse. Si par contre, l’un des deux ne voyant pas la rentabilité du modèle payant arriver décide de basculer vers le modèle gratuit, il perçoit des revenus publicitaires (plus faibles mais non nuls) mais désormais l’internaute sera d’autant moins enclin à payer pour disons Le Monde si il peut consulter gratuitement les articles de Liberation. La conséquence est que le modèle payant risque de ne jamais dégager de profit, Le Monde est contraint de chasser le lapin…enfin d’adopter le modèle gratuit et nous voilà coincés en bas à droite dans la figure du dessus.

C’est ce que Edwy Plenel a appelé « l’erreur historique » de la presse. La croyance que la pub en ligne financerait le journalisme  ou l’incroyance que le modèle payant permettrait de la financer. Pour converger vers le bon équilibre de Nash (celui en haut à gauche), il faut que tout le monde décide plus ou moins simultanément d’adopter le modèle payant, la disparition du contenu gratuit ne laissant pas d’autres alternatives aux internautes que de payer pour du journalisme de qualité en ligne.

Pourquoi on y arrive…doucement.

Pour résoudre ce type de dilemme on invoque traditionnellement la nécessité de voir émerger la confiance entre les protagonistes, mais dans le cas de titres de presse en concurrence ça n’a pas beaucoup de sens. Une autre manière de converger vers le « bon » équilibre de Nash est de faire en sorte que les acteurs aient la même croyance, celle que le cerf va arriver, qu’il est donc préférable de ne pas céder à la tentation de chasser le lapin. La croyance que le modèle payant peut être rentable est donc primordiale et pour la favoriser il faut des « signaux ». Le New York Times est certainement l’acteur le plus observé du secteur, en clamant haut et fort le succès de son modèle payant il incite le reste de la presse quotidienne à basculer vers de nouveaux modes de tarification. Il suffit pour s’en convaincre d’observer l’épidémie de « paywall » qui a contaminé la presse en ligne ces derniers mois. A l’échelle hexagonale, Mediapart pourrait jouer ce rôle tant Edwy Plennel ne ménage pas ses efforts pour promouvoir sa stratégie du « tout payant » (le succès de Mediapart est en partie lié à l’auto-imposition d’une TVA réduite mais c’est une autre histoire) . Chaque succès du modèle payant qu’il soit réel ou romancé est une incitation à abandonner le modèle gratuit et permet de converger vers l’équilibre payant/payant qui nous l’avons vu évite la fuite vers la consommation gratuite. Paradoxalement le problème des moteurs de recherche (donc Google) qui cannibalisent la majeure partie des recettes publicitaires en ligne au détriment de la presse (qui fournit pourtant le contenu) pourrait involontairement aider à coordonner les acteurs autour de l’équilibre payant/payant.

Pourquoi on risque de ne pas y arriver.

« Vous savez comment on fait pour devenir millionnaire ? non ? et bien il faut commencer par être milliardaire et ensuite racheter un titre de presse » source : blague issue du monde des médias.

Après tout la presse a-t-elle vraiment vocation à être rentable ? Elle a toujours été un instrument de pouvoir (Stern, 2012) et il n’est pas exclu que l’audience ait plus de valeur que le résultat du compte d’exploitation. Quand Jeff Bezos rachète le Washington Post, que cherche-t-il ? ça conjecture pas mal sur le sujet (ici et ici). On peut sans trop de cynisme avancer deux hypothèses, la première est qu’il compte utiliser le contenu (le journal) pour vendre autre chose disons à tout hasard des kindle pour ensuite vous vendre des livres, du cloud, de la musique etc… seconde hypothèse : il peut être utile d’avoir un journal sous la main le jour ou le sénat discutera sérieusement de la neutralité du net (bon ça c’est cynique). De la même manière est-ce que Xavier Niel cherche vraiment la rentabilité lorsqu’il rachète Le Monde et presque rachète le Nouvel Observateur ? Et puis regardez Propublica ou encore WhoWhatWhy qui sont financés par le mécénat assumant ainsi le caractère non rival et non appropriable de l’information, dans ce cas c’est le cerf qui vous donne gentiment à manger CQFD.