Archives pour l'étiquette économie numérique

La Grande transformation, les plateformes et les objets connectés

L’évolution du numérique pousse vers plus de connexion d’objets, et l’on parle d’ailleurs à ce propos « d’objets connectés ». Mais dans  la situation actuelle,  ces objets sont reliés, via Internet, à des « plateformes », qui intègrent leurs données envoyées et proposent en retour des services s’appuyant sur cette intégration. Comme le réseau de communication entre ces plateformes et ces objets est l’Internet, on évoque « l’Internet des objets ».

A l’origine les objets connectés étaient simplement des ordinateurs, dont les données étaient essentiellement « abstraites ». La mise en place de réseaux d’ordinateurs a ainsi été le grand défi de l’informatique et des télécommunications dans les années 1970-180. Avec le protocole TCP/IP créé en 1983, Internet a fini par s’imposer comme le réseau universel de connexion d’ordinateurs. Toute une série d’applications et de services a pu ainsi se mettre en place, dans la frénésie de la bulle Internet (1996-2001). Après son dégonflement l’innovation a malgré tout continué de suivre le progrès technique permanent dans les semi-conducteurs, d’autant que les réseaux de communications ont connu à leur tour une véritable mutation : déploiement des réseaux de mobiles et accès de ces réseaux à Internet (technologie dite « 3G », qui a décollé dans le milieu de la décennie des années 2000, diffusion de la technologie ADSL au sein des réseaux fixes qui a permis un accès confortable des ménages à Internet ). Le commerce électronique, les moteurs de recherche, les portails, la voix sur IP et maintenant la distribution de programmes audiovisuels sont quelques illustrations de ces évolutions.

Mais le développement des technologies sans fil, la miniaturisation des composants électroniques et la traduction de signaux de toute sorte en fichiers numériques (« numérisation ») a conduit les « objets connectés »  à se multiplier, pour transmettre aux « plateformes » la traduction numérique de quasiment tout phénomène physique, biologique ou abstrait, émanant de toute sorte d’objets, macroscopique ou microscopique, fixe ou mobile. La Grande transformation, c’est ce basculement de toutes les activités matérielles vers la numérisation, où celle-ci a pour vocation, en se greffant sur les objets, de coordonner  les activités matérielles pour en assurer une exécution améliorée, voire profondément bouleversée.

Ainsi sont en train de se mettre en place ce que Kim Clark (1985) appelle des innovations architecturales, où les prestations matérielles se trouvent profondément transformées par une articulation complètement nouvelle de leur fourniture. Donnons quelques exemples :

  • Dans le domaine du transport, un service de covoiturage comme celui de Blablacar est la transformation profonde d’une activité auparavant marginale, l’autostop. Il menace directement les entreprises de transport en commun (cars routiers ou trains, voire transport aérien) de la même façon qu’au moment de la bulle Internet, les sites de vente en ligne  de billets et séjours touristiques ont menacé les agences de voyages, et les sites de téléchargement de musique (légaux ou illégaux) ont menacé la distribution de CD.
  • Toujours dans le domaine du transport, l’opérateur Uber, qui propose lui aussi la formule de covoiturage mais en ville, s’appuie sur la possession de téléphones mobiles et la disponibilité  de places en voiture, pour organiser ce covoiturage urbain. Il menace directement un pan de l’activité des chauffeurs de taxi, voire les transports en commun.
  • Dans le bâtiment, les nécessités créées par la construction ou la rénovation de « bâtiments intelligents » c’est-à-dire économes en énergie et respectueux de l’environnement, imposent de concevoir l’architecture de ces bâtiments en fonction de réseaux « domotiques » qui fournissent des services de gestion des infrastructures pour mieux réguler la consommation d’énergie et d’eau, piloter les produits « blancs »(électroménager) et « bruns » (matériel audiovisuel, informatique) ainsi que toutes les infrastructures  (volets, sanitaires, salle de bain…) que contient le bâtiment en question.
  • Dans le domaine médical, les systèmes de prothèse ou de correction (lunettes), se voient dotés de capacités de communication qui en font des « objets intelligents ». L’apparition des lunettes Google et de la montre Apple, marques globales s’il en est, montre que ces évolutions ne sont plus de l’ordre de la Science-fiction, voire du développement de prototypes, mais ont atteint un niveau de diffusion désormais grand public.
  • Les vêtements à leur tour deviennent « intelligents », incorporant des capteurs entre leurs fibres, pour des usages thérapeutiques ou de confort.

Ainsi se mettent en place des systèmes articulés, des écosystèmes diraient certains, où des plateformes centrales ou périphériques (certains objets connectés, à l’instar du smartphone, sont de véritables plateformes) relient, coordonnent et opèrent des ensembles d’objets,  en une architecture de services disponibles pour toute catégorie d’utilisateurs : individus et organisations, voire d’autres plateformes.

Les GAFAM (Google, Apple, Facebook, Amazon et Microsoft) sont les archétypes d’entreprises proposant des plateformes globales, conçues pour accumuler toutes les données afin de fournir tous les services que la numérisation peut proposer. Leur activité reste largement confinée, pour l’instant, dans le maniement des données « abstraites », peu ou pas reliées à des activités matérielles. Mais dans la dynamique d’expansion qui est la leur, ces plateformes globales ont vocation à pénétrer le champ de ces activités comme le démontrent les « Google glasses », la « Google car » et l’ « Apple Watch » évoquées plus haut.

Ces mutations sont donc les témoignages de l’apparition de grappes d’innovation s’appuyant sur les réseaux, l’information stockée dans les serveurs (le « cloud ») et les capteurs matériels de données. Ces innovations sont architecturales mais pas « de rupture » (Clark, 1985), au sens où elles transforment en profondeur les activités précédentes, même si elles n’utilisent pas forcément, pour ce faire, des composants nouveaux. Cela n’enlève rien à leur potentiel.  Après tout c’est comme cela que l’I-phone s’est imposé, en intégrant une série de fonctionnalités nouvelles qui existaient auparavant sur le marché  indépendamment les unes des autres. On appelle ce genre de percée, un « dominant design », un modèle dominant (Abernathy et Utterback, 1978).

Pour qu’une innovation, architecturale ou de rupture, puisse s’imposer, il faut combiner d’une part une compréhension des besoins (latents, donc pas exprimés) que le consommateur ressent, et c’est le propre du marketing. Il faut dans le même temps offrir une solution (technique, s’agissant de produits «high tech ») qui satisfasse ce besoin, donc résoudre pas à pas des difficultés techniques. En règle générale il est assez difficile de coupler la mise au point technique de la solution et la révélation du besoin (latent), malgré ce qu’en dit Clark (1985). Si ce couplage était si aisé, on ne comprendrait pas pourquoi celui qui arrive le premier sur le marché (l’innovateur) n’est pas toujours celui qui rafle la mise, le leader (Teece, 1987). Les cadavres d’innovateurs ayant raté leur marché jonchent en effet  le long parcours du progrès technique.

Dans le cas de la « grande transformation », les innovations et les  mutations sectorielles que vont induire les plateformes et les objets connectés ne seront pas forcément  produites par les GAFAM, malgré leurs avantages indéniables : savoir-faire en manipulation de données,  présence globale, capacité à entretenir des relations privilégiées avec les individus, à les connaître grâce à leurs « traces » numériques. En effet, beaucoup d’applications potentielles sont pour l’instant des marchés de niche qui n’intéressent pas forcément des opérateurs globaux (cas du covoiturage), ou bien sont des activités réglementées où l’entrée d’un opérateur intermédiaire n’est pas forcément facilement autorisée (cas des plateformes de consultation médicale à distance par exemple).  Cela laisse donc des marges de manœuvre à des actions plus locales, soit par des acteurs de la profession capables de se coordonner pour proposer des services en ligne innovants sans toutefois devenir des cartels, soit pour des startups ou PME qui « flairent » les opportunités en raison de leur connaissance du marché local, de leur capacité à réunir rapidement des compétences nécessaires à la mise au point de ces plateformes et services innovants.

Un autre point mérite d’être souligné. La mise en place de ces services « matériels » (ou plutôt facilitant les activités matérielles) en s’appuyant sur des capteurs et des plateformes, permet de surmonter l’obstacle majeur qu’Internet fait peser sur la structure industrielle du numérique : L’indépendance du monde des infrastructures, domaine des opérateurs, de celui des services (logiciels), en raison du protocole IP. Cette indépendance a consacré la domination de « l’infomédiation » (les logiciels et des GAFAM) sur les opérateurs de réseau, confinant ces derniers à un rôle de simple sous-traitant. Avec l’Internet des objets, ils ont au contraire la possibilité de reprendre la main à condition d’étendre leur activité au monde des capteurs. Cela passe par des alliances avec des constructeurs de solution, par la mise en place de plateformes et par un rôle de coordination entre tous les acteurs (industriels, sociétés de service, instances de régulation et métiers utilisateurs). Il n’est pas sûr qu’ils aient pris conscience de ces opportunités. Ils ont du mal à s’approprier des « contenus »,  surtout lorsque ceux-ci correspondent à du savoir-faire spécifique d’une profession. Ils ont également drastiquement réduit leur potentiel de recherche, affaiblissant ainsi leur capacité à résoudre des problèmes techniques.

Un atout sur lequel les opérateurs devraient s’appuyer, c’est leur capacité à mettre en œuvre des standards, sans forcément chercher à s’accaparer les fruits de la standardisation par des brevets.  Ces innovations architecturales en effet sont le siège d’importants effets de réseau locaux, puisqu’il s’agit de coordonner des métiers. Or le risque est d’enfermer la profession dans des standards propriétaires, ou même collectifs mais décidés par la profession, les rendant inaptes à l’interopération avec ceux d’une autre profession. Comme la contrainte technique sur les capteurs

Quoi qu’il en soit, l’Europe cherche une « renaissance industrielle ». Dans le monde du numérique, il existe une voie pour cette renaissance, pas forcément grande créatrice d’emplois directs, mais en tout cas potentiellement pourvoyeuse d’innovations, de brevets et d’activité. En outre les utilisateurs de ces nouveaux services verront à terme leur productivité s’améliorer, et donc leurs marges se restaurer. Ils pourront envisager d’investir et d’embaucher. Bref c’est la croissance économique que la diffusion du numérique dans les activités matérielles va permettre. Un formidable enjeu dont il n’est pas sûr que l’Europe ait pleinement conscience, malgré son agenda H2020 qui cible spécifiquement des actions dans le domaine applicatif.

 Bibliographie :

Clark, K. B. (1985). The interaction of design hierarchies and market concepts in technological evolution. Research policy14(5), 235-251.

Abernathy, W. J., & Utterback, J. M. (1978). Patterns of industrial innovation.Journal Title: Technology review. Ariel64, 254-228.

Teece, D. J. (1986). Profiting from technological innovation: Implications for integration, collaboration, licensing and public policy. Research policy, 15(6), 285-305.

Le strabisme des régulateurs du numérique

« Pendant le changement de titulaire, la vente continue ! ». La nouvelle Commission Juncker qui se met en place ces jours-ci doit reprendre à son compte les travaux lancés par la précédente. Dans le  domaine du numérique, un texte important a été présenté en Septembre 2013, visant à  réaliser un véritable marché pan-européen des télécommunications. Ceci est la seule garantie, selon l’ancienne Commission, que soient restaurés le dynamisme et la capacité d’innovation dont disposait l’Europe des télécommunications il y a plus de 20 ans. C’est en effet en 1992 qu’était lancé le GSM (ou système de communications mobile « 2G », comme on dit maintenant) qui fut le seul fleuron de la technologie européenne des télécommunications, et connut un véritable succès mondial.

Maintenant la Commission européenne explique que cette profonde langueur du marché européen, cette mauvaise santé financière et cette pusillanimité à l’investissement des opérateurs (sur la « 4G »,la nouvelle génération de téléphonie mobile ou sur la fibre), c’est la faute à la fragmentation des marchés nationaux, trop petits, trop contraints par des obligations administratives excessives (autorisation à opérer), trop soumis à la rapacité des Etats désespérément en manque de ressources financières, et qui profitent de la mise aux enchères des fréquences du spectre pour ponctionner les pauvres opérateurs. Tout ce que dit la Commission n’est pas faux, bien au contraire, mais c’est tout sauf l’essentiel.

Car le vrai problème est la régulation « ex ante », c’est-à-dire le contrôle a priori par une instance de régulation, des prix pratiqués par les opérateurs « dominants » notamment pour que leurs concurrents utilisent leurs réseaux, principe cardinal préconisé par la Commission et pratiqué par les agences nationales (l’Arcep en France). Ce contrôle a conduit, au moins en Europe,  à un effondrement des prix sans doute actuellement trop bas. Résultat, les marges des opérateurs sont laminées et ils n’ont plus aucun moyen ni incitation à investir. Ils sacrifient leur R&D, suppriment des emplois, retardent le renouvellement de leurs équipements, tout ceci pour serrer leurs coûts, et plus leurs coûts sont faibles, plus le régulateur sera tenté de leur imposer des « prix de gros » vis-à-vis de leurs concurrents, de plus en plus bas. Bref se met en place une spirale infernale baisse des coûts/ baisse des prix, qui certes bénéficie à court terme au consommateur, mais le prive à long terme d’une offre de qualité, sauf à ce que l’initiative publique (par exemple les collectivités locales) supplée cette carence des offres privées et fasse payer par l’impôt le déploiement des infrastructures avancées.

Pourtant le principe d’une régulation ex ante s’applique à des degrés divers partout dans le monde, et le contrôle des prix par une autorité semble frappé sous le coin du bon sens économique : qui ne voudrait pas de prix bas sur un marché où un opérateur dominant pourrait potentiellement faire la pluie et le beau temps? Mais en Europe ce principe de contrôle est mis en œuvre par 28 instances nationales, dont certaines rivalisent de zèle pour obtenir des opérateurs « dominants » les prix les plus bas possibles. Et la Commission encourage ces « bons élèves » et pointe du doigt les « mauvais » par la procédure de « benchmark », tant vantée dans l’Agenda de Lisbonne.

La vérité pourtant est que les opérateurs dominants ne sont plus dominants de grand-chose : L’essentiel de la valeur créée dans le numérique intervient « over the top », c’est-à-dire au-dessus de la couche IP, là où règnent les Google, Amazon, Facebook, Apple et Microsoft (GAFAM), maintenant rejoints par Twitter. Ceux-ci abusent-ils à leur tour de leur position dominante ? Beaucoup le soupçonnent et des procédures d’enquête  ont été diligentées tant aux USA qu’en Europe, notamment sur les pratiques de Google. D’autres les accusent d’évasion fiscale : Google/ Depardieu, même combat ! Mais de toute façon le contrôle des plateformes, lorsqu’il existe, est exercé a posteriori, et non a priori comme dans les télécommunications. L’impression actuelle est que ce contrôle est extrêmement « light ».

On avance, pour justifier cette mansuétude du régulateur à l’égard des grandes « plateformes » que sont les GAFAM, que celles-ci sont engagées dans une lutte globale sans merci où, pour survivre, ce ne sont pas les prix bas qui font le marché : bon nombre de leurs services sont en effet « gratuits » pour le consommateur, même quand ils ont un coût très élevé, comme la livraison de colis à domicile pour Amazon. Ce qui fait survivre les GAFAM, outre  la revente de données acquises « à l’insu du plein gré » des consommateurs, ce sont les revenus publicitaires, l’archétype étant Google avec son système d’enchère. Apple lui, se finance par la vente avec marge de terminaux beaux mais coûteux, qui placent la dépense en dehors de la consommation du service.

Mais la clef de la survie c’est selon les acteurs eux même, la capacité à innover et à se renouveler en permanence. Dès lors, il ne sert à rien de les surveiller car ils se surveillent mutuellement, à l’affût qu’ils sont des innovations des concurrents, ou de « jeunes pousses » qu’il faudra tenter de racheter quand elles commenceront à décolle, sinon elles finiront par vous écraser, comme l’a fait Google pour Yahoo! ou bien Facebook pour Myspace. Cette insécurité constante quant à leur propre futur rendrait ces plateformes « proactives », à l’écoute du consommateur, se retenant d’abuser de leur position dominante, mais cherchant au contraire à toujours améliorer leur offre de service.

Ce « storytelling » (en français cette fable !) est bien sûr largement inexacte. Beaucoup de concurrents se plaignent que ces plateformes au contraire verrouillent l’innovation en limitant la créativité des concepteurs, profitent indûment d’informations fournies gratuitement par leurs clients (par exemple les données personnelles), pratiquent la distorsion de concurrence en favorisant une application «faite maison » au détriment de celle d’un autre producteur. Ces plaintes ne sont pas faciles à étayer et les autorités de surveillance, qu’elles soient spécifiques (Arcep) ou génériques (tribunal, Conseil de la Concurrence) hésitent à les instruire, si elles ne sont pas officiellement saisies

Pourtant plusieurs éléments devraient les inciter à être moins pusillanimes : il n’y a par exemple aucune portabilité des données quand vous passez d’une plateforme à l’autre. Alors que ceci est imposé pour les numéros, rien de tel n’existe si par exemple vous changez de smartphone, passez de Samsung à Apple ou vice versa. Et pourtant cela rendrait bien des services au consommateur. De même ce que l’on fait de vos données personnelles devrait vous être connu. C’est une licence que vous octroyez, pas un transfert de propriété, sinon on pourrait s’arroger votre patronyme! Le contrat de session de droit serait alors plus équilibré.

Alors que dans les infrastructures le régulateur fait tout pour abolir toute situation de monopole quelle qu’elle soit, dans les industries « over the top », c’est-à-dire sur les plateformes, règne au contraire le monopole de contenu (dans le meilleur cas le brevet logiciel ou pire, le droit d’auteur), que l’on préserve « au nom d’une incitation à l’innovation ». A l’abri de ce monopole en béton, le détenteur du droit d’auteur fait ce qu’il veut. De même la juxtaposition entre un secteur, celui des infrastructures, où on impose la « neutralité du net » c’est-à-dire l’interdiction de discrimination, sauf motif considéré, après examen soigneux, comme « légitime », et où de l’autre côté, l’examen de la discrimination éventuelle n’est même pas envisagé car considéré comme trop complexe et susceptible de « brider l’innovation », on ne peut pas s’attendre à ce que les opérateurs soient aussi performants que les plateformes.

En résumé, les gouvernements européens (Parlement Européen compris) sont comme un conducteur de voiture atteint de strabisme et  lancé à vive allure sur une route sinueuse : Myope de son œil gauche braqué sur la route, et presbyte de son œil droit fixé sur ses pédales de frein et d’accélérateur, comment voulez-vous qu’il ne mène pas sa voiture droit dans le mur ?

Hadopi, comment la science économique contribue au débat.

On dit et écrit beaucoup de choses sur Hadopi, probablement beaucoup trop. Il est un peu frustrant de voir que l’on accorde beaucoup d’importance à des « études »  aux méthodologies parfois un peu douteuses et dont les interprétations nous font monter parfois très haut dans la stratosphère. Alors quand des décideurs publics en font en plus la promotion ce sont les larmes qui montent.

La recherche en sciences économiques s’intéresse de près à ces questions et les résultats sont plutôt robustes, en voici une synthèse à l’usage par exemple de ceux qui n’ont pas le temps d’aller chercher l’information là où elle se trouve.

Préambule

Tous les articles sélectionnés essayent d’aller au delà de la simple mise en évidence d’une corrélation en proposant d’évaluer l’existence de causalité entre les comportements de partages et/ou d’achats et la mise en place de mesures pour lutter contre le piratage (méthode des variables instrumentales, quasi expérimentation et modèle en dif-dif). Dans la littérature récente j’en sélectionne 6.

[1] Danaher, B., Smith, M. D., Telang, R., & Chen, S. (2012). The effect of graduated response anti-piracy laws on music sales: evidence from an event study in France. 

[2] Adermon, A., & Liang, C. Y. (2014). Piracy, music, and movies: A natural experiment (No. 2010: 18). Working Paper, Department of Economics, Uppsala University.

[3] Danaher, B., & Smith, M. D. (2014). Gone in 60s: The impact of the Megaupload shutdown on movie sales. International Journal of Industrial Organization33, 1-8.

[4] Arnold, M., Darmon, E., Dejean, S., & Pénard, T. (2014). Graduated Response Policy and the Behavior of Digital Pirates: Evidence from the French Three-Strike (Hadopi) Law (No. 201401). Center for Research in Economics and Management (CREM),

[5] Dejean, S., & Suire, R. (2014). Digital files dealers and prohibition in the context of the French 3 strikes (HADOPI) law (No. 201406).

[6] Peukert, C., Claussen, J., & Kretschmer, T. (2013). Piracy and movie revenues: evidence from megaupload.

alors que nous apprennent ces articles ?

Les dispositifs qui visent à sanctionner les internautes n’ont pas réduit le nombre de pirates (ou alors de manière très transitoire).

Aucun résultat ne permet d’affirmer que les mesures du type HADOPI en France ou IPRED en Suède ont significativement permis de réduire le nombre de « pirates ». Dans l’article [4] nous avons tenté d’évaluer l’effet de la probabilité perçue d’être sanctionné par la Hadopi sur les pratiques illégales. Notre analyse  empirique repose sur un modèle d’économie du crime à la Becker. Nous avons un échantillon de 2000 internautes représentatifs de la population des internautes français et une enquête par questionnaire avec les biais déclaratifs habituels mais également pas mal d’information micro sur les individus, leurs préférences, leurs caractéristiques et leurs perceptions de la loi Hadopi. Nos résultats qui utilisent la méthode des variables instrumentales pour répondre aux différents problèmes d’endogénéité (le sens de la causalité et les variables inobservées notamment) ne mettent pas en évidence d’effet dissuasif. Les individus qui pensent que la probabilité de se faire prendre par Hadopi est élevée ne fréquentent pas moins les réseaux P2P que les autres. Le point faible de cette étude est le manque de données notamment sur l’intensité d’usage des réseaux P2P ce qui implique que les écarts type de nos estimateurs sont un peu élevés…mais le résultat est suffisamment robuste. Ou pour le dire autrement si un effet dissuasif important existait nous ne serions pas passés à coté.

Dans l’article [2] les auteurs évaluent les conséquences de la mise en application de la directive européenne IPRED en Suède (mesure assez comparable à notre Hadopi). Ils utilisent un modèle en diff-diff qui consiste à mesurer un comportement (le trafic internet en Suède)   avant et après qu’un événement survienne (la mise place de la loi IPRED), ils regardent ensuite ce qu’il se passe dans un groupe contrôle (Norvège et Finlande) qui lui n’a pas été impacté par le dit événement, la différence de variation de trafic entre les deux groupes constitue en quelque sorte le résultat. Si le trafic Internet a fortement diminué dans les premiers mois qui suivirent IPRED (ce qui est tout de même le signe que les Internautes ont arrêté de faire quelque chose qui consommait beaucoup de bande passante ;-)) 6 mois après le trafic était redevenu  normal. Les auteurs justifient ce résultat par le manque de sanction prise par les juridictions compétentes, on peut d’ailleurs faire la même observation pour HADOPI puisque très  peu d’internautes ont été sanctionnés. Sans véritable sanction le rappel à la loi semble avoir des effets limités sur les pratiques illégales et c’est probablement ce qui explique qu’Hadopi n’ait pas endigué les pratiques illicites.

Un autre argument plus difficile à mettre en évidence est celui de la transformation des pratiques. Si le P2P est surveillé alors il possible que les internautes se réfugient sur des sites de streaming, utilisent des VPN et des Newsgroup ou attendent patiemment que le collègue de bureau partage son disque dur (big up à mes anciens collègues bretons). Dans [4] nous avons montré que les internautes ayant dans leur entourage des pirates ont une probabilité plus grande d’utiliser des plateformes de piratage alternatives (non P2P) en substitution des réseaux P2P.

L’article [5] va plus loin en s’intéressant au « piratage de proximité » qui consiste à acquérir du contenu en échangeant des données par l’intermédiaire de disques durs, de clés USB ou d’appareils mobiles. Cet usage est déclaré par la moitié des internautes et nous avons montré que dans ce réseau d’échange « hors ligne » les usagers se positionnaient en fonction du sentiment d’insécurité produit par HADOPI (plus j’ai peur d’HADOPI plus je prends et moins je donne et inversement pour ceux qui ne la craignent pas). Ce résultat renforce l’idée qu’il existe des interactions entre les différentes pratiques pirates et que la loi dite HADOPI a pu les influencer.

Les dispositifs qui visent à sanctionner les internautes contribuent au développement de l’offre légale « en ligne ».

C’était la conclusion du célèbre papier [1] qui avait fait polémique. Les auteurs ont habilement mis en évidence un effet positif de la Hadopi sur les ventes Itunes. Leur méthode est la même que celle décrite précédemment (pour le [2]), ils observent les ventes sur Itunes avant et après le vote de la loi Hadopi et le compare avec un groupe contrôle qui est un panier de différents pays européens dont les ventes n’ont bien évidemment pas pu être impactées par Hadopi.  Le résultat est spectaculaire +25% de ventes d’albums sur la plateforme à la pomme !! Le papier a été pas mal critiqué et pas toujours à bon escient (voir ici). Le principal problème est le groupe contrôle que l’on pourrait accuser d’être de convenance, pour que le résultat soit robuste il faut qu’en l’absence d’Hadopi les ventes sur itunes aient évolué de la même manière en France et dans ce fameux groupe contrôle. J’aurai bien regardé ce qu’il se passe si on enlève un ou deux pays ou si on en rajoute mais bon…

Là où ça devient intéressant c’est que l’on retrouve ce résultat dans [2], où en plus d’avoir momentanément réduit le trafic Internet, la mise en place de la loi Ipred en Suède a fait croître les ventes de musique de 37% . L’augmentation des ventes « numériques » compte pour une part importante de cette augmentation. Ce résultat semble assez solide, le groupe témoin est composé de pays très comparables (Danemark et Norvège) qui n’ont donc pas connu la même augmentation, l’effet informationnel des sanctions promises par la loi Ipred est donc un bon candidat pour expliquer ce résultat….le seul autre candidat pour lequel les auteurs n’ont pas de contrôle est un éventuel effet d’offre qui aurait touché la Suède et non ces voisins (Spotify par exemple mais je ne suis même pas certain que le streaming soit comptabilisé dans les ventes onlines du papier).

La fermeture de Megaupload

Que se passet-il si on coupe les circuits d’approvisionnement ?  La fermeture soudaine de Megaupload en Janvier 2012 offre un contrefactuel propice à faire de la bonne économétrie.

Les papiers [3] et [6] s’y sont essayés, leurs résultats sont moins contradictoires qu’il n’y parait. Le papier [3] regarde l’impact de la fermeture de Megaupload sur les ventes en ligne. Observer simplement la variation de ces ventes avant et après la fermeture ne suffirait pas à isoler l’impact de cette mesure puisque d’autres facteurs pourraient expliquer la variation des consommations (développement de l’offre , reprise économique #lol, saisonnalité…). Comme la fermeture de Megaupload touche tout le monde on ne peut pas non plus distinguer aisément un groupe qui subit le traitement et un autre de contrôle qui ne le subit pas. Les auteurs  construisent alors une sorte d’indice de pénétration de Megaupload par pays (j’y reviens après) et regardent si cette variable a un effet différent sur les ventes avant et après la fermeture. Les variations de consommation avant la fermeture ne sont pas influencées par des différences dans les taux de pénétration de Megaupload par contre après la fermeture les pays où Megaupload était le plus populaire sont ceux qui connaissent les plus importantes variations positives de consommation, ça semble imparable….à une chose près. L’indice censé représenter le taux de pénétration de megaupload est une boite noire, ils auraient utilisé les recherches de mots-clés de google adwords et là ça me semble un peu léger (et pas franchement reproductible en tout cas j’y suis pas arrivé) comme proxy du succès de Megaupload (on remarque au passage que la France à un taux de pénétration très élevé…un lien avec Hadopi ?), comme le résultat repose sur la validité de cette variable on peut tout de même s’interroger, mais au final ces conclusions rejoignent les résultats de la section précédente où les mesures d’interdiction/régulation favorisent les ventes légales online.

Le papier [6] affronte le problème différemment  et se concentre sur les conséquences du blocage de Megaupload sur les entrées au box office. Contrairement à [3]  il tente de s’accommoder de tous les facteurs qui pourraient venir expliquer les variations des revenus du box office (avec des variables ou des méthodes qui permettent de capter chacun de ces effets), la méthode est un peu moins robuste mais ça reste intéressant . Leurs conclusions sont que pour la plupart des films ça n’a rien changé mais pour certains (au milieu de la distribution) les revenus ont  baissé (on retrouve un argument bien connu qui fait du piratage un élément permettant d’essayer avant de consommer afin de réduire l’asymétrie d’information entre producteurs et acheteurs)  alors que quelques blockbusters semblent avoir bénéficié de cette fermeture.

Alors vous allez me dire mais comment le piratage peut ne pas diminuer et les ventes légales augmenter ? D’abord ce sont les ventes légales « online » que l’ont voit augmenter et elles peuvent simplement venir se substituer aux anciens modes de consommations payants  (avec support), mais surtout alors que je termine ce billet dans un train,  je vois des écrans partout ! Des ordinateurs, des tablettes, des smartphones et tout le monde regarde des films, des séries, et que dirait Walt Disney en parcourant les files d’attente des péages d’autoroute en observant tous ces enfants regarder avec autant d’attention l’appui-tête de papa et maman ?

Et si le « temps de cerveau disponible » pour regarder des films ou des séries n’avait cessé de croître ces dernières années au rythme de la miniaturisation des composants et de l’augmentation des débits Internet ? Chacun peut en tirer les conclusions qu’il veut 😉

 

 

 

 

 

 

Bitcoin ou le rêve libertarien d’un monde sans institution

Les « bitcoins »,  cette « monnaie électronique », officiellement interdite en Chine mais que Monoprix serait « prêt à accepter » avant la fin de l’année 2014,   a reçu récemment un beau coup de projecteur. On ne sait pas trop si c’est un gros « buzz » et si cette « monnaie sans banque » a un réel avenir. On peut penser que tout cela traduit surtout le profond ressentiment que beaucoup éprouvent  à l’égard du système financier et de ses instances de régulation, fauteurs de la plus grande crise économique que l’on ait connue depuis 50 ans, notamment en Europe : Si seulement on pouvait se passer d’un tel système!

Mais au-delà de ces incantations, l’avenir réel des «bitcoins » n’a peut être pas une grande importance, au moins à court terme. Car il s’agit surtout d’une très ingénieuse innovation à la fois technique et sociale, qui pourrait faire des émules dans bien d’autres domaines. Elle nous intéresse car elle met bien en évidence les multiples possibilités d’articulation entre l’économie du partage et l’économie des transactions. Pour le comprendre il faut malheureusement entrer dans le fonctionnement du système « bitcoin » lui-même, ce qui n’est si facile. Il y a de très bonnes références sur le net ici ou .

Comment ça marche ?

Le « protocole bitcoin » est un système « pair à pair », qui revient aux fondamentaux de l’internet, et qui tourne le dos au concept de « plateforme » devenu omniprésent dans l’Internet d’aujourd’hui. Concrètement quand, disons, SD veut transférer 10 de ses bitcoins à GDN il faut, pour que la transaction soit valide, que tous les ordinateurs connectés au système bitcoin soient au courant et qu’ils l’aient en quelque sorte validée. Bien entendu,  ils ne savent pas qui sont SD et GDN, dont les adresses ont été cryptées. Mais pourquoi tous les ordinateurs du système doivent-ils être informés ? L’absence de plateforme centrale (l’ordinateur de la banque) rend nécessaire la décentralisation complète de l’information auprès de tous les participants.

Mais peut-on faire confiance à SD ? il faut notamment que ce chenapan potentiel ne réutilise pas les mêmes bitcoins qu’il a transférés à GDN pour payer FM, durant le laps de temps pendant lequel la première transaction (avec GDN) se dénoue : si celui-ci doit, par exemple, faire livrer un colis par la poste en contrepartie, il peut s’écouler « un certain temps » comme disait Fernand Raynaud, pour que l’affaire soit soldée. Entretemps, avec la vitesse « de la lumière » à laquelle circule l’information sur le Net et la rapidité légendaire de SD qui tel Lucky Luke,  « transacte » plus vite que son ombre, la multiplication d’opérations frauduleuses pourrait submerger le Net.

Mr Nakamoto, le mystérieux créateur de Bitcoin, a imaginé un mécanisme « diabolique » pour déjouer les turpitudes de tous les SD de l’Internet. D’abord chaque bitcoin est individualisé par l’historique de toutes les transactions dans lesquelles il est intervenu : cela correspond au numéro de série d’un billet de banque, mais aussi à un extrait d’un livre de comptes chaque fois que ce bitcoin est apparu dans une transaction. Ensuite, tel le Sphinx égyptien, le système Bitcoin, pose une énigme mathématique nouvelle dès qu’il diffuse une transaction à valider à tous les ordinateurs du réseau, par exemple celle impliquant SD et GDN.  Tous les ordinateurs du Net qui le souhaitent (on les appelle des miners car littéralement ils fouillent dans leur mémoire et leur processeur pour trouver la solution) cherchent à résoudre ces énigmes, car cela leur rapporte des bitcoins nouveaux, créés par le système pour l’occasion. En moyenne la solution est trouvée en 10 minutes. L’heureux vainqueur devient le garant de la transaction par exemple entre SD et GDN, sans que cela l’engage en quoi que ce soit. Il inclut cette transaction qu’il a dûment validée dans une « chaine » de transactions valides, et la fait parvenir à tous les autres ordinateurs du réseau. Une chaine est donc un ensemble de transactions en cours de validation.

On trouve sur cette page une description précise du déroulement d’une transaction

Mais si SD dispose d’un ordinateur très puissant il pourrait, lui, résoudre l’énigme liée à sa transaction  avec FM, avant que les autres ne trouvent la solution à l’énigme liée à celle avec GDN : il bénéficierait de la livraison de GDN  tout en réclamant son dû à FM. Pour éviter cela, les ordinateurs du système contrôlés par un seul miner, ne doivent pas dépasser 50% de la capacité informatique totale. Ainsi la probabilité que SD soit plus rapide que les autres et puisse frauder, devient très faible.

Mr Nakamoto a même prévu le cas de situation d’ « ex aequo », par exemple si une partie du  Net tombe en panne  ou en cas de congestion trop importantes, ce qui pourrait permettre à certains de tricher. Les ordinateurs verraient arriver au moment de la remise en service, plusieurs chaines de validation où interviennent les mêmes bitcoins.  Par défaut le système prévoit que la chaine considérée comme prééminente est la plus longue, celle qui contient le plus de transactions en cours de validation. Car on peut supposer qu’elle provient de plusieurs sources non coordonnées, alors qu’une chaine plus courte proviendra plus vraisemblablement d’une même source (supposée frauduleuse).

 Une histoire de confiance

Le système bitcoin est intéressant car c’est un système créateur de confiance, puisque dans la monnaie c’est d’abord et avant tout de cela dont il s’agit. Or la confiance est provoquée non par une garantie donnée par un « puissant » (un Etat, ou au Moyen Age un banquier qui possède beaucoup d’or), ni par une empathie entre deux ou plusieurs êtres humains, mais bien par un « code » informatique au sens de Lessig, Rappelons que la confiance collective est un bien public, soumis au paradoxe d’Olson et de manière plus large à tous les procédés de trahison de confiance. Pour ceux intéressés par l’analyse de la confiance, nous ne saurions trop recommander deux livres qui figurent dans la bibliographie du « Numérique », celui de Tarik Tazdait et celui de Paul Seabright.

Le système bitcoin est parfaitement décentralisé et pourtant la subtilité du code permet d’éviter le paradoxe d’Olson. Grâce à la technologie, un sentiment (la confiance) peut naitre au sein d’une communauté très large d’êtres humains qui ne se connaissent pas et qui pourtant se coordonnent alors de façon efficace. Clairement le système Bitcoin est dans l’esprit « libertarien » de l’Internet vu comme « un monde à part », où les institutions sont censées ne pas entrer. En ce sens il maintient vivant l’esprit originel de l’Internet, et s’oppose à la prise de contrôle des GAFAM, de l’Etat Américain ou d’autres Etats plus autoritaires.

Cependant le système Bitcoin ne fonctionne de façon réellement décentralisée qu’en interne. Dès qu’il s’agit de transformer vos bitcoins en euros ou dollars ou tout autre monnaie, ou à l’inverse de rentrer dans le système Bitcoin en cherchant à en acquérir contre vos propres devises, il faut passer par des « plateformes », des agents de change électroniques en quelque sorte, où sont affichés les cours du bitcoin en diverses monnaies. Or ce cours est très volatile comme en témoigne ce second graphique extrait du site www.lafinancepourtous.com.

Prix-du-Bitcoin_large

De plus, la plus importante de ces plateformes, MT.Gox, sise au Japon, a fait l’objet d’une attaque de hackers qui l’a dévalisée et elle a dû déposer son bilan début 2014. Ainsi malgré tous ses avantages supposés (anonymat, transparence, élimination des frais bancaires…) le système Bitcoin a encore, pour paraphraser un de nos anciens premiers ministres, une pente raide à gravir, même si la route est droite. Il est bien possible que ce ne soit pas un bon grimpeur.

Protocole versus institution

Mais devenir, à l’instar du dollar une monnaie universelle « as good as gold », n’est peut être pas si important pour le système Bitcoin. Plus significatif est son caractère innovant du point de vue social. Le Bitcoin en effet a fait, comme beaucoup de commentateurs l’ont souligné, une « preuve de concept » montrant que l’on pouvait créer sur une base purement technique (un protocole) et non pas institutionnelle, un mécanisme de confiance entre des individus qui ne se connaissent pas. Seul jusqu’à présent le « marché » tel que l’a conceptualisé Adam Smith, avait réussi cette prouesse. Mais pour qu’il puisse fonctionner, le « marché » a besoin d’institutions qui garantissent l’exécution des contrats, qui arbitrent en cas de litiges, qui puissent recourir à la force pour contraindre une partie qui fait défaut, etc. Et pour que ces institutions puissent elles même fonctionner de façon efficace et correcte, il faut qu’elles soient contrôlées par la société, grâce à des procédures démocratiques. Car sinon elles peuvent engendrer de la corruption, de l’insécurité entrepreneuriale, une croissance moindre, des inégalités insupportables, sources de tensions sociales (c’est bien ce qui s’est passé en Europe à la fin du XIXème siècle).

Cette innovation sociale majeure que fut l’économie de marché a permis – grâce au progrès technique- l’essor de l’espèce humaine sur les 300 dernières années. Le système financier qui est au cœur de l’économie de marché, s’appuie lui-même sur des institutions fortement contrôlées, banques, banques centrales, FMI : si le contrôle s’exerce mal s’ensuit inévitablement une crise avec des conséquences dramatiques, comme celle de 2007-2008.

Or Bitcoin montre que l’on pourrait, en théorie, se passer des institutions tout en reproduisant l’efficacité même de l’économie de marché où les agents se font confiance sans se connaître (Seabright). Pour cela il « suffit » de développer la technologie et les protocoles adéquats. L’essence même de l’architecture du Net, le fonctionnement en  « pair à pair », ou si l’on veut le contrôle par les extrémités comme nous l’avons nommé dans le livre, autorise les interactions   décentralisées, sans intermédiaire et anonymes. Mais l’originalité du système Bitcoin est que par un simple artefact technique, il engendre la confiance, évite les comportements de passager clandestin, d’opportunisme au sens de Williamson, de fraude. Même s’il n’est pas parfait, la marge d’erreur n’est pas plus grande que celle que l’on trouve dans le monde réel où prédominent les institutions.

Bitcoin réalise ainsi le rêve libertarien d’une société sans institution, mais aussi sans lien social.  Il n’est pas sûr que ce soit un progrès. Mais le fait que ce soit techniquement réalisable invite quand même à réfléchir.

Le numérique, économie du partage et des transactions

 

couverture livre

Table des matières

Extrait de la conclusion:

L’internet que nous connaissons a tous les aspects d’un accident de l’histoire. Fondé par des utilisateurs universitaires ou proches de l’Université qui cherchaient à répondre à leurs propres besoins, il était destiné à être une architecture « universelle », qui permettrait de raccorder n’importe quelle machine, en réduisant la fonction des opérateurs de réseau à la portion congrue. La transmission par paquet, l’architecture en couches, le protocole TCP/IP font d’Internet un réseau « distribué » (un ensemble de réseaux interconnectés), très efficace dans la gestion et l’acheminement des flux de données. Sa conception et son évolution demeurent une œuvre collaborative et collective pour laquelle les acteurs n’avaient initialement aucune ambition marchande. « History matters » ! Cet esprit de partage et de contribution perdure aujourd’hui dans les réseaux P2P, les forums, les blogs et autres communautés en ligne.

Mais à mesure que l’Internet et le web gagnaient les foyers, cette économie du partage a laissé place à une économie basée sur les transactions de marché. Les startups qui ont su le plus habilement activer les effets de réseau sont devenues des géants du web, les désormais célèbres GAFAM. Mus par des stratégies d’expansion propres aux économies des plateformes, ces géants sont devenus omniprésents, moteurs de recherche, médias, e-commerce, petits objets électroniques communicants, partout l’internaute est confronté à la volonté d’acquisition de valeur de ces entreprises.

Face au déploiement des applications marchandes du numérique, à l’enfermement progressif des utilisateurs dans les « écosystèmes » propres à chacun des GAFAM, l’économie du partage paraît « entrer en résistance » ! Les communautés P2P survivent ou se renforcent, Wikipedia continue son expansion mais avec moins d’allant, les forums d’entraide offrent une alternative aux services d’assistance en ligne et Openstreetmap existe et se développe malgré Googlemaps. Cette opposition, entre une économie des transactions dominante et une économie du partage un peu confinée, n’est pas propre au système technique numérique, mais se retrouve dans beaucoup de questions politiques et économiques relevant d’enjeux sociétaux majeurs. Que l’on pense aux questions liées à l’environnement, à la distribution de médicaments, aux ressources énergétiques, partout l’on voit des groupements de citoyens tenter de résister et de proposer des solutions alternatives à la déferlante des marchés. Ces groupements constituent la « sous-politique » identifiée par Beck (1988), celle qui prend acte que toute innovation humaine majeure porte désormais en son sein autant de nuisances potentielles que de progrès : c’est la « société du risque ».

Mais l’originalité du numérique par rapport à ces tendances de la société est que ces rapports entre partage et transactions ne sont pas nécessairement conflictuels. C’est la force de ce système technique de pouvoir offrir des arrangements et des formes inédites de coopération entre les différentes parties prenantes. Ces rapports peuvent être de trois types :

  • Le conflit, nous venons d’en parler. Il se cristallise beaucoup au niveau institutionnel, comme on l’a vu au chapitre 6. Il se manifeste également dans les grands débats qui orientent l’avenir de l’Internet, la neutralité du Net en tête, il est moins apparent, et de fait nous en avons peu parlé, sur les questions de sécurité des données, de protection contre la malveillance, car l’économie du partage semble étrangement peu impliquée dans les questions de « cyber-sécurité », ce qu’a déjà noté Zittrain (2009). La plupart du temps le conflit est initié par le déploiement de l’économie des transactions et les partisans de l’économie du partage s’opposent.
  • La coopération : où l’économie du partage est à l’initiative souvent, et les transactions suivent. Le mouvement OpenData, les cantines, les FabLabs, ces lieux de fertilisation croisée sont des projets qui naissent de rencontres, de partage d’idées avant de devenir des applications ou des services qui s’épanouiront dans l’économie des transactions. Par ailleurs, dans les instances de normalisation du Net (l’IETF, et même l’ICANN), les citoyens « experts » côtoient les représentants des plus grands intérêts commerciaux pour élaborer ensemble les futures normes de fonctionnement du Net, avec une devise directement inspirée de l’économie du partage : « un consensus et des programmes qui marchent ». De même dans les logiciels libres la logique est bien celle du partage, mais les entreprises qui y participent sont mues par des objectifs de transactions, et les deux ne sont pas contradictoires. Dans un autre ordre d’idées, les startups « pure players » sont bien souvent un exemple de cette coopération, les plus célèbres d’entre elles (Yahoo!, Google, Facebook) sont nées sur des campus universitaires dans un esprit coopératif, avant de devenir les protégés des marchés financiers.
  • La prédation mutuelle : cette troisième forme de rapport entre économie du partage et des transactions est plus originale, elle se distingue du conflit en ce sens qu’elle permet à chaque camp de se développer en préemptant d’une certaine manière les prérogatives de l’autre, mais sans que cela conduise directement à une opposition. Les pirates des réseaux P2P, en s’arrogeant le droit de partager librement des contenus régis par un droit d’auteur, utilisent, pour leur propre bénéfice et en partie au détriment de l’économie des transactions, les spécificités techniques de l’Internet. A l’inverse, lorsqu’Amazon utilise les commentaires des internautes pour donner de la valeur à sa plateforme ou lorsque Google mobilise insidieusement les internautes (via le logiciel CAPTCHA (voir chapitre 5) pour aider à la numérisation des livres, l’économie des transactions devient le chasseur et les proies sont les contributions basées sur le partage et la coopération. Un autre exemple est celui d’Apple et de son « App-Stores » ou plusieurs centaines de milliers d’applications sont disponibles, représentant selon Colin et Verdier (2012, p. 95) plusieurs centaines de milliers « d’hommes-années » qui ne coûtent rien à Apple, qui aident à conforter un effet de réseau indirect autour de son terminal, et même des revenus puisque sur les applications payantes l’entreprise à la pomme prend 30 % des recettes !

On peut penser que la coopération prendra plus de place dans les rapports entre partage et transactions, ce que révèlent des signes avant-coureurs. Lorsque Youtube commence à rémunérer les internautes qui déposent des vidéos sur la plateforme (en fonction bien évidemment de l’audience qu’ils parviendront à générer), il fait un pas vers l’économie du partage en intégrant le « prosumer » dans son modèle économique. Le développement des plateformes de crowdfunding comme kickstarter est un autre exemple intéressant. Les internautes présentent des projets, d’autres qui ne les connaissent pas les évaluent, les commentent, participent à leur financement, à leur promotion, le cas échéant parviennent même à orienter leur évolution. Ces formes de coopération sont caractéristiques de l’économie du partage et pourtant ces plateformes ont bien comme objectif de financer des projets qui seront ensuite lancés sur le marché, créeront de l’emploi et peut-être même, n’en déplaise à Solow, des points de croissance.

Deux axes de coopération sont possibles. Selon Mueller (2012), l’économie du partage se construit sur les « biens communs » et ceux-ci sont nécessaires dans beaucoup de cas pour permettre aux biens privés d’exister. Ainsi le protocole TCP/IP, bien commun, a permis à des centaines de réseaux hétérogènes privés de s’interconnecter, et de se développer dans une économie de transactions. La leçon à en tirer est qu’il faut donc préserver le bien commun pour que les biens privés s’épanouissent. Ces situations de complémentarité sont assez nombreuses et donnent un critère de validation desdits biens communs.

L’autre axe de coopération déjà évoqué à la fin du chapitre 5, est ce que recommandent Colin et Verdier (2012) aux entreprises : capter la valeur créée par la multitude, stimuler celle-ci, échanger avec elle sur une base donnant-donnant, tracer ses comportements. Ces pratiques sont déjà mises en œuvre, notamment par les GAFAM, mais il est difficile de croire que c’est de la coopération. Cela a plutôt à voir avec l’opportunisme et la prédation, une forme de coopération dégradée, en quelque sorte.

Dans ces conditions, on peut penser que la coopération entre économie du partage et économie des transactions sera toujours quelque chose d’un peu bancal, mais qui fait partie de l’essence du numérique : c’est parce qu’il y a en permanence des innovations sociales que naissent des innovations économiquement valorisées, c’est aussi parce que l’économie des transactions a tendance à se déployer partout que certains, utilisant les caractéristiques propres du numérique (connaissance, bien public et effets de réseau), veulent pouvoir imaginer des innovations sociales fondées sur des biens communs et en rupture avec l’économie des transactions. Cette relation dialectique devrait continuer à marquer les développements du numérique.