Archives de catégorie : Institution et gouvernance

marchés bifaces, discrimination et concurrence : chronique des neutralités sur Internet

La neutralité du net est un beau principe, certains diraient même « romantique ».

On le doit aux universitaires américains qui, aux temps héroïques de l’Arpanet (ancêtre de l’Internet), ont eu la bonne idée d’inscrire dans les protocoles et standards de communication le principe selon lequel, pour faire court, tous les paquets de 0 et de 1 se valent :les fournisseurs d’accès ne peuvent imposer aucune discrimination en fonction de la source ou du destinataire des données.

Ce principe est l’une des raisons principales de la croissance exponentielle du réseau depuis la fin des années 80. En donnant un ticket d’entrée gratuit à tous ceux qui voulaient innover, il a déclenché l’immense effet de réseau qui aboutit à l’Internet que l’on connait aujourd’hui.

Si Marc Zuckerberg avait dû, de sa chambre à Harvard, négocier avec chaque FAI pour accéder aux internautes, mes étudiants s’ennuieraient terriblement pendant mes cours et Skype n’aurait pu se développer au nez et à la barbe de ceux qui fournissent le téléphone en même temps que l’accès au réseau. Il est d’usage de représenter ce principe à l’aide d’un marché biface (ce sera notre hommage tardif au prix Nobel de Tirole).

nn

La neutralité du net impose la gratuité aux FAI sur la face « contenus et services » les obligeant à se rémunérer uniquement par la vente d’accès aux internautes. Comme le rappellent Curien et Maxwell  pour justifier cette gratuité imposée : « la neutralité de l’Internet peut être vue comme une politique d’aide à la création et à la fourniture de contenu sur internet ».

Tout le monde à sa chance et sera traité avec les mêmes égards que Google et Facebook, les portes de l’Internet sont grandes ouvertes, entrepreneurs du monde entier levez-vous et faites fortune  !!!

Le foisonnement d’innovations sur la face subventionnée attire les internautes qui attisent dans le même temps le désir d’innovation des « startupeurs » en herbe. C’est la force de cet effet de réseau indirect qui a permis le succès fulgurant de l’Internet. Pour s’en rendre compte il faut imaginer ce qu’il serait advenu sans neutralité du net : les fournisseurs de services auraient du payer les FAI, il y aurait eu moins d’innovation et les FAI auraient pu empêcher le développement de certains services qui leur faisaient concurrence (bref AOL serait encore là). Nul doute qu’Internet serait moins attractif et donc moins d’internautes, moins de blog, moins de réponses dans les forums, moins d’articles dans Wikipedia, moins de films sur torrent411, et moins de mails de millionnaires désireux de partager leur fortune avec vous…

Malheureusement, contrairement au train, une neutralité n’en cache pas forcément une autre et ceux qui ont profité de la neutralité du net pour constituer des empires pratiquent désormais une nouvelle forme de discrimination.  Cette pratique inquiète parce qu’elle ouvre la voie  à de nombreux abus et menace, d’une certaine manière, la création et la diversité des contenus en ligne.

…..faites entrer les Géants du Web et leur principe de non neutralité des plateformes.

Pour l’essentiel, les géants du web sont des plateformes qui mettent en relation différentes faces de marché. Les utilisateurs sont toujours à droite et les fournisseurs de services et de contenus à gauche mais désormais pour rencontrer les consommateurs ils doivent faire en sorte d’être présents sur la première page d’un moteur de recherche, parmi les applications les plus téléchargées sur un store ou mis en avant dans les recommandations d’une marketplace.

nn3

Jusque là tout va bien, après tout c’est le jeu du marché : les plus offrants, les plus malins ou les plus innovants auront les meilleures places sur les plateformes et pourront rencontrer les utilisateurs…. Marc Levy, Candy Crush ou expedia.fr s’en sortent bien et c’est terriblement mérité. 😉

Mais les plateformes ont bien compris qu’en intégrant la chaîne de valeur elles pouvaient tirer pleinement partie des effets de réseaux indirects (apparition de la flèche rouge) et c’est à ce moment là que les plateformes cessent d’être neutres. 

Une discrimination insidieuse se met petit à petit en place et ses formes sont variables  mais ne manquent jamais de fausser la concurrence en favorisant les services et contenus proposés par la plateforme, menaçant d’une certaine manière la création et la diversité des contenus.

Google a ainsi pris l’habitude de manipuler les résultats de son moteur de recherche pour favoriser ses services ou tout bonnement  supprimer le compte adwords des contenus gênants. Baidu, le « Google Chinois », probablement animé par des motivations différentes, utilise également l’opacité de son algorithme pour filtrer le contenu de son moteur de recherche.

Amazon, quant à lui ne se cache pas de sanctionner les éditeurs qui refusent de baisser leurs prix et nul doute qu’à l’avenir les recommandations de leurs algorithmes feront la part belle aux contenus édités par Amazon lui même. Apple lui aussi profite de l’hégémonie de son « Store » pour évincer les empêcheurs de « vendre » ou s’arroger le droit de distinguer le vice de la vertu.

Tout ceci est-il bien légal ? Récemment le CNNUM a émis un avis sur le sujet avec des recommandations intéressantes, et la Commission européenne s’interroge sur ces pratiques.  En attendant, beaucoup d’entreprises se disent étranglées par ces comportements qui rappellent ce que faisait Microsoft à la fin des années 90 avec Netscape ou les autres développeurs innovants. La lenteur de la réaction des pouvoirs publics avait finalement permis à Microsoft de passer entre les gouttes.

Nous ne sommes probablement qu’au début de cette nouvelle forme de discrimination et il est difficile d’estimer quel sera son impact sur la diversité des contenus et l’innovation. La principale difficulté sera certainement de prouver l’existence de pratiques anticoncurrentielles (ou l’« abus de position dominante » puisque c’est comme ça que l’article L.420-2 du code de commerce considère les pratiques commerciales discriminatoires). Les « GAFAM » sauront se cacher derrière leurs algorithmes ou ouvrir le code dans de justes proportions.

Je termine par une devinette : qui a déclaré  devant la court suprême argentine Search engines are neutral platforms that do not create nor control content on the web ?

Le strabisme des régulateurs du numérique

« Pendant le changement de titulaire, la vente continue ! ». La nouvelle Commission Juncker qui se met en place ces jours-ci doit reprendre à son compte les travaux lancés par la précédente. Dans le  domaine du numérique, un texte important a été présenté en Septembre 2013, visant à  réaliser un véritable marché pan-européen des télécommunications. Ceci est la seule garantie, selon l’ancienne Commission, que soient restaurés le dynamisme et la capacité d’innovation dont disposait l’Europe des télécommunications il y a plus de 20 ans. C’est en effet en 1992 qu’était lancé le GSM (ou système de communications mobile « 2G », comme on dit maintenant) qui fut le seul fleuron de la technologie européenne des télécommunications, et connut un véritable succès mondial.

Maintenant la Commission européenne explique que cette profonde langueur du marché européen, cette mauvaise santé financière et cette pusillanimité à l’investissement des opérateurs (sur la « 4G »,la nouvelle génération de téléphonie mobile ou sur la fibre), c’est la faute à la fragmentation des marchés nationaux, trop petits, trop contraints par des obligations administratives excessives (autorisation à opérer), trop soumis à la rapacité des Etats désespérément en manque de ressources financières, et qui profitent de la mise aux enchères des fréquences du spectre pour ponctionner les pauvres opérateurs. Tout ce que dit la Commission n’est pas faux, bien au contraire, mais c’est tout sauf l’essentiel.

Car le vrai problème est la régulation « ex ante », c’est-à-dire le contrôle a priori par une instance de régulation, des prix pratiqués par les opérateurs « dominants » notamment pour que leurs concurrents utilisent leurs réseaux, principe cardinal préconisé par la Commission et pratiqué par les agences nationales (l’Arcep en France). Ce contrôle a conduit, au moins en Europe,  à un effondrement des prix sans doute actuellement trop bas. Résultat, les marges des opérateurs sont laminées et ils n’ont plus aucun moyen ni incitation à investir. Ils sacrifient leur R&D, suppriment des emplois, retardent le renouvellement de leurs équipements, tout ceci pour serrer leurs coûts, et plus leurs coûts sont faibles, plus le régulateur sera tenté de leur imposer des « prix de gros » vis-à-vis de leurs concurrents, de plus en plus bas. Bref se met en place une spirale infernale baisse des coûts/ baisse des prix, qui certes bénéficie à court terme au consommateur, mais le prive à long terme d’une offre de qualité, sauf à ce que l’initiative publique (par exemple les collectivités locales) supplée cette carence des offres privées et fasse payer par l’impôt le déploiement des infrastructures avancées.

Pourtant le principe d’une régulation ex ante s’applique à des degrés divers partout dans le monde, et le contrôle des prix par une autorité semble frappé sous le coin du bon sens économique : qui ne voudrait pas de prix bas sur un marché où un opérateur dominant pourrait potentiellement faire la pluie et le beau temps? Mais en Europe ce principe de contrôle est mis en œuvre par 28 instances nationales, dont certaines rivalisent de zèle pour obtenir des opérateurs « dominants » les prix les plus bas possibles. Et la Commission encourage ces « bons élèves » et pointe du doigt les « mauvais » par la procédure de « benchmark », tant vantée dans l’Agenda de Lisbonne.

La vérité pourtant est que les opérateurs dominants ne sont plus dominants de grand-chose : L’essentiel de la valeur créée dans le numérique intervient « over the top », c’est-à-dire au-dessus de la couche IP, là où règnent les Google, Amazon, Facebook, Apple et Microsoft (GAFAM), maintenant rejoints par Twitter. Ceux-ci abusent-ils à leur tour de leur position dominante ? Beaucoup le soupçonnent et des procédures d’enquête  ont été diligentées tant aux USA qu’en Europe, notamment sur les pratiques de Google. D’autres les accusent d’évasion fiscale : Google/ Depardieu, même combat ! Mais de toute façon le contrôle des plateformes, lorsqu’il existe, est exercé a posteriori, et non a priori comme dans les télécommunications. L’impression actuelle est que ce contrôle est extrêmement « light ».

On avance, pour justifier cette mansuétude du régulateur à l’égard des grandes « plateformes » que sont les GAFAM, que celles-ci sont engagées dans une lutte globale sans merci où, pour survivre, ce ne sont pas les prix bas qui font le marché : bon nombre de leurs services sont en effet « gratuits » pour le consommateur, même quand ils ont un coût très élevé, comme la livraison de colis à domicile pour Amazon. Ce qui fait survivre les GAFAM, outre  la revente de données acquises « à l’insu du plein gré » des consommateurs, ce sont les revenus publicitaires, l’archétype étant Google avec son système d’enchère. Apple lui, se finance par la vente avec marge de terminaux beaux mais coûteux, qui placent la dépense en dehors de la consommation du service.

Mais la clef de la survie c’est selon les acteurs eux même, la capacité à innover et à se renouveler en permanence. Dès lors, il ne sert à rien de les surveiller car ils se surveillent mutuellement, à l’affût qu’ils sont des innovations des concurrents, ou de « jeunes pousses » qu’il faudra tenter de racheter quand elles commenceront à décolle, sinon elles finiront par vous écraser, comme l’a fait Google pour Yahoo! ou bien Facebook pour Myspace. Cette insécurité constante quant à leur propre futur rendrait ces plateformes « proactives », à l’écoute du consommateur, se retenant d’abuser de leur position dominante, mais cherchant au contraire à toujours améliorer leur offre de service.

Ce « storytelling » (en français cette fable !) est bien sûr largement inexacte. Beaucoup de concurrents se plaignent que ces plateformes au contraire verrouillent l’innovation en limitant la créativité des concepteurs, profitent indûment d’informations fournies gratuitement par leurs clients (par exemple les données personnelles), pratiquent la distorsion de concurrence en favorisant une application «faite maison » au détriment de celle d’un autre producteur. Ces plaintes ne sont pas faciles à étayer et les autorités de surveillance, qu’elles soient spécifiques (Arcep) ou génériques (tribunal, Conseil de la Concurrence) hésitent à les instruire, si elles ne sont pas officiellement saisies

Pourtant plusieurs éléments devraient les inciter à être moins pusillanimes : il n’y a par exemple aucune portabilité des données quand vous passez d’une plateforme à l’autre. Alors que ceci est imposé pour les numéros, rien de tel n’existe si par exemple vous changez de smartphone, passez de Samsung à Apple ou vice versa. Et pourtant cela rendrait bien des services au consommateur. De même ce que l’on fait de vos données personnelles devrait vous être connu. C’est une licence que vous octroyez, pas un transfert de propriété, sinon on pourrait s’arroger votre patronyme! Le contrat de session de droit serait alors plus équilibré.

Alors que dans les infrastructures le régulateur fait tout pour abolir toute situation de monopole quelle qu’elle soit, dans les industries « over the top », c’est-à-dire sur les plateformes, règne au contraire le monopole de contenu (dans le meilleur cas le brevet logiciel ou pire, le droit d’auteur), que l’on préserve « au nom d’une incitation à l’innovation ». A l’abri de ce monopole en béton, le détenteur du droit d’auteur fait ce qu’il veut. De même la juxtaposition entre un secteur, celui des infrastructures, où on impose la « neutralité du net » c’est-à-dire l’interdiction de discrimination, sauf motif considéré, après examen soigneux, comme « légitime », et où de l’autre côté, l’examen de la discrimination éventuelle n’est même pas envisagé car considéré comme trop complexe et susceptible de « brider l’innovation », on ne peut pas s’attendre à ce que les opérateurs soient aussi performants que les plateformes.

En résumé, les gouvernements européens (Parlement Européen compris) sont comme un conducteur de voiture atteint de strabisme et  lancé à vive allure sur une route sinueuse : Myope de son œil gauche braqué sur la route, et presbyte de son œil droit fixé sur ses pédales de frein et d’accélérateur, comment voulez-vous qu’il ne mène pas sa voiture droit dans le mur ?

Bitcoin ou le rêve libertarien d’un monde sans institution

Les « bitcoins »,  cette « monnaie électronique », officiellement interdite en Chine mais que Monoprix serait « prêt à accepter » avant la fin de l’année 2014,   a reçu récemment un beau coup de projecteur. On ne sait pas trop si c’est un gros « buzz » et si cette « monnaie sans banque » a un réel avenir. On peut penser que tout cela traduit surtout le profond ressentiment que beaucoup éprouvent  à l’égard du système financier et de ses instances de régulation, fauteurs de la plus grande crise économique que l’on ait connue depuis 50 ans, notamment en Europe : Si seulement on pouvait se passer d’un tel système!

Mais au-delà de ces incantations, l’avenir réel des «bitcoins » n’a peut être pas une grande importance, au moins à court terme. Car il s’agit surtout d’une très ingénieuse innovation à la fois technique et sociale, qui pourrait faire des émules dans bien d’autres domaines. Elle nous intéresse car elle met bien en évidence les multiples possibilités d’articulation entre l’économie du partage et l’économie des transactions. Pour le comprendre il faut malheureusement entrer dans le fonctionnement du système « bitcoin » lui-même, ce qui n’est si facile. Il y a de très bonnes références sur le net ici ou .

Comment ça marche ?

Le « protocole bitcoin » est un système « pair à pair », qui revient aux fondamentaux de l’internet, et qui tourne le dos au concept de « plateforme » devenu omniprésent dans l’Internet d’aujourd’hui. Concrètement quand, disons, SD veut transférer 10 de ses bitcoins à GDN il faut, pour que la transaction soit valide, que tous les ordinateurs connectés au système bitcoin soient au courant et qu’ils l’aient en quelque sorte validée. Bien entendu,  ils ne savent pas qui sont SD et GDN, dont les adresses ont été cryptées. Mais pourquoi tous les ordinateurs du système doivent-ils être informés ? L’absence de plateforme centrale (l’ordinateur de la banque) rend nécessaire la décentralisation complète de l’information auprès de tous les participants.

Mais peut-on faire confiance à SD ? il faut notamment que ce chenapan potentiel ne réutilise pas les mêmes bitcoins qu’il a transférés à GDN pour payer FM, durant le laps de temps pendant lequel la première transaction (avec GDN) se dénoue : si celui-ci doit, par exemple, faire livrer un colis par la poste en contrepartie, il peut s’écouler « un certain temps » comme disait Fernand Raynaud, pour que l’affaire soit soldée. Entretemps, avec la vitesse « de la lumière » à laquelle circule l’information sur le Net et la rapidité légendaire de SD qui tel Lucky Luke,  « transacte » plus vite que son ombre, la multiplication d’opérations frauduleuses pourrait submerger le Net.

Mr Nakamoto, le mystérieux créateur de Bitcoin, a imaginé un mécanisme « diabolique » pour déjouer les turpitudes de tous les SD de l’Internet. D’abord chaque bitcoin est individualisé par l’historique de toutes les transactions dans lesquelles il est intervenu : cela correspond au numéro de série d’un billet de banque, mais aussi à un extrait d’un livre de comptes chaque fois que ce bitcoin est apparu dans une transaction. Ensuite, tel le Sphinx égyptien, le système Bitcoin, pose une énigme mathématique nouvelle dès qu’il diffuse une transaction à valider à tous les ordinateurs du réseau, par exemple celle impliquant SD et GDN.  Tous les ordinateurs du Net qui le souhaitent (on les appelle des miners car littéralement ils fouillent dans leur mémoire et leur processeur pour trouver la solution) cherchent à résoudre ces énigmes, car cela leur rapporte des bitcoins nouveaux, créés par le système pour l’occasion. En moyenne la solution est trouvée en 10 minutes. L’heureux vainqueur devient le garant de la transaction par exemple entre SD et GDN, sans que cela l’engage en quoi que ce soit. Il inclut cette transaction qu’il a dûment validée dans une « chaine » de transactions valides, et la fait parvenir à tous les autres ordinateurs du réseau. Une chaine est donc un ensemble de transactions en cours de validation.

On trouve sur cette page une description précise du déroulement d’une transaction

Mais si SD dispose d’un ordinateur très puissant il pourrait, lui, résoudre l’énigme liée à sa transaction  avec FM, avant que les autres ne trouvent la solution à l’énigme liée à celle avec GDN : il bénéficierait de la livraison de GDN  tout en réclamant son dû à FM. Pour éviter cela, les ordinateurs du système contrôlés par un seul miner, ne doivent pas dépasser 50% de la capacité informatique totale. Ainsi la probabilité que SD soit plus rapide que les autres et puisse frauder, devient très faible.

Mr Nakamoto a même prévu le cas de situation d’ « ex aequo », par exemple si une partie du  Net tombe en panne  ou en cas de congestion trop importantes, ce qui pourrait permettre à certains de tricher. Les ordinateurs verraient arriver au moment de la remise en service, plusieurs chaines de validation où interviennent les mêmes bitcoins.  Par défaut le système prévoit que la chaine considérée comme prééminente est la plus longue, celle qui contient le plus de transactions en cours de validation. Car on peut supposer qu’elle provient de plusieurs sources non coordonnées, alors qu’une chaine plus courte proviendra plus vraisemblablement d’une même source (supposée frauduleuse).

 Une histoire de confiance

Le système bitcoin est intéressant car c’est un système créateur de confiance, puisque dans la monnaie c’est d’abord et avant tout de cela dont il s’agit. Or la confiance est provoquée non par une garantie donnée par un « puissant » (un Etat, ou au Moyen Age un banquier qui possède beaucoup d’or), ni par une empathie entre deux ou plusieurs êtres humains, mais bien par un « code » informatique au sens de Lessig, Rappelons que la confiance collective est un bien public, soumis au paradoxe d’Olson et de manière plus large à tous les procédés de trahison de confiance. Pour ceux intéressés par l’analyse de la confiance, nous ne saurions trop recommander deux livres qui figurent dans la bibliographie du « Numérique », celui de Tarik Tazdait et celui de Paul Seabright.

Le système bitcoin est parfaitement décentralisé et pourtant la subtilité du code permet d’éviter le paradoxe d’Olson. Grâce à la technologie, un sentiment (la confiance) peut naitre au sein d’une communauté très large d’êtres humains qui ne se connaissent pas et qui pourtant se coordonnent alors de façon efficace. Clairement le système Bitcoin est dans l’esprit « libertarien » de l’Internet vu comme « un monde à part », où les institutions sont censées ne pas entrer. En ce sens il maintient vivant l’esprit originel de l’Internet, et s’oppose à la prise de contrôle des GAFAM, de l’Etat Américain ou d’autres Etats plus autoritaires.

Cependant le système Bitcoin ne fonctionne de façon réellement décentralisée qu’en interne. Dès qu’il s’agit de transformer vos bitcoins en euros ou dollars ou tout autre monnaie, ou à l’inverse de rentrer dans le système Bitcoin en cherchant à en acquérir contre vos propres devises, il faut passer par des « plateformes », des agents de change électroniques en quelque sorte, où sont affichés les cours du bitcoin en diverses monnaies. Or ce cours est très volatile comme en témoigne ce second graphique extrait du site www.lafinancepourtous.com.

Prix-du-Bitcoin_large

De plus, la plus importante de ces plateformes, MT.Gox, sise au Japon, a fait l’objet d’une attaque de hackers qui l’a dévalisée et elle a dû déposer son bilan début 2014. Ainsi malgré tous ses avantages supposés (anonymat, transparence, élimination des frais bancaires…) le système Bitcoin a encore, pour paraphraser un de nos anciens premiers ministres, une pente raide à gravir, même si la route est droite. Il est bien possible que ce ne soit pas un bon grimpeur.

Protocole versus institution

Mais devenir, à l’instar du dollar une monnaie universelle « as good as gold », n’est peut être pas si important pour le système Bitcoin. Plus significatif est son caractère innovant du point de vue social. Le Bitcoin en effet a fait, comme beaucoup de commentateurs l’ont souligné, une « preuve de concept » montrant que l’on pouvait créer sur une base purement technique (un protocole) et non pas institutionnelle, un mécanisme de confiance entre des individus qui ne se connaissent pas. Seul jusqu’à présent le « marché » tel que l’a conceptualisé Adam Smith, avait réussi cette prouesse. Mais pour qu’il puisse fonctionner, le « marché » a besoin d’institutions qui garantissent l’exécution des contrats, qui arbitrent en cas de litiges, qui puissent recourir à la force pour contraindre une partie qui fait défaut, etc. Et pour que ces institutions puissent elles même fonctionner de façon efficace et correcte, il faut qu’elles soient contrôlées par la société, grâce à des procédures démocratiques. Car sinon elles peuvent engendrer de la corruption, de l’insécurité entrepreneuriale, une croissance moindre, des inégalités insupportables, sources de tensions sociales (c’est bien ce qui s’est passé en Europe à la fin du XIXème siècle).

Cette innovation sociale majeure que fut l’économie de marché a permis – grâce au progrès technique- l’essor de l’espèce humaine sur les 300 dernières années. Le système financier qui est au cœur de l’économie de marché, s’appuie lui-même sur des institutions fortement contrôlées, banques, banques centrales, FMI : si le contrôle s’exerce mal s’ensuit inévitablement une crise avec des conséquences dramatiques, comme celle de 2007-2008.

Or Bitcoin montre que l’on pourrait, en théorie, se passer des institutions tout en reproduisant l’efficacité même de l’économie de marché où les agents se font confiance sans se connaître (Seabright). Pour cela il « suffit » de développer la technologie et les protocoles adéquats. L’essence même de l’architecture du Net, le fonctionnement en  « pair à pair », ou si l’on veut le contrôle par les extrémités comme nous l’avons nommé dans le livre, autorise les interactions   décentralisées, sans intermédiaire et anonymes. Mais l’originalité du système Bitcoin est que par un simple artefact technique, il engendre la confiance, évite les comportements de passager clandestin, d’opportunisme au sens de Williamson, de fraude. Même s’il n’est pas parfait, la marge d’erreur n’est pas plus grande que celle que l’on trouve dans le monde réel où prédominent les institutions.

Bitcoin réalise ainsi le rêve libertarien d’une société sans institution, mais aussi sans lien social.  Il n’est pas sûr que ce soit un progrès. Mais le fait que ce soit techniquement réalisable invite quand même à réfléchir.