dimanche 25 janvier 2009

Presse française : Analyse intéressante

L'état moribond de la presse française a pour effet de faire naitre régulièrement des propositions de réformes diverses et variées, toutes se retrouvant dans la "nécessité" de plus d'argent public pour soutenir un secteur aux lourdes pertes. La dernière proposition de Nicolas Sarkozy n'y déroge pas, mettant 600 millions d'argent des contribuables en plus, pour socialiser les pertes des propriétaires, rarement dans le besoin, de ces journaux, et s'acheter le syndicat du livre CGT. Ce que d'aucuns résument pudiquement en "Pas d'affrontement direct avec le syndicat du Livre, en période de tensions sociales, mais des aides publiques pour aider à sauver la presse écrite."

Le Monde publie une analyse intéressante de ces mesures, qui plus est par un homme du sérail, Frédéric Filloux, ancien directeur de la rédaction de 20 Minutes. Dans un entretien, il montre les deux problèmes essentiels de ce subventionnement permanent : une presse subventionnée ne peut pas être indépendante du pouvoir et arroser de chèques public ces entreprises, c'est retarder des réformes nécessaires. Extraits:

Ce n'est pas un service à rendre aux entreprises que de les subventionner massivement. Dans le domaine de la presse papier, c'est suppléer à l'incapacité du secteur à générer des profits. En contrepartie de ces aides étatiques, les entreprises de presse devraient investir et se restructurer. Mais je doute qu'elles le fassent. La génération actuelle de patrons de presse soutient l'idée d'un système subventionné, aidé, plutôt qu'une réelle prise de responsabilité.
Nicolas Sarkozy a décidé de satisfaire la presse écrite. Par rapport à d'autres secteurs, la dépense est faible et le bénéfice politique important. Pour dire les choses crûment, il est plus important pour le gouvernement d'aider des journaux aux tirages faibles mais à l'influence certaine dans les sphères politiques, plutôt que d'aider des sites Internet à l'audience forte mais surtout lus par des jeunes.
Le reste de l'article

lundi 19 janvier 2009

Wikipedia - Chiffres du déclin

J'apporte un léger correctif à mon article sur le déclin de Wikipédia. Les chiffres fournis semblant assez fluctuants, il est préférable de ne pas les prendre pour argent comptant. Je ne donnerai donc qu'un seul chiffre, qui lui semble stable et fiable :

Novembre 2007 : 805.000 contributions
Novembre 2008 : 590.000 contributions

Un an plus tôt, Wikipédia était donc environ 36,4% plus active. Surtout s'ils trouvent comme moi l'expérience wiki intéressante, c'est quelque chose que certains ne devraient plus faire semblant de ne pas voir sur Wikipédia.

----------------
Now playing: Nina Simone - Nobody knows you when you're down and out
via FoxyTunes

Se souvenir de Friedman

Milton Friedman, prix Nobel d’économie en 1976, est bien mal aimé en France ; considéré par la majorité comme un fanatique suppôt de l'ultralibéralisme sauvage, il est tout aussi peu aimé des partisans de l’école autrichienne, sur Liberaux.org par exemple. Pourtant nombre de ses travaux sont particulièrement d’actualité aujourd’hui, mais cela implique de ne pas se cantonner à la seule de ses théories qui soit légèrement connue en France, le monétarisme. Hors le monétarisme, Friedman a ainsi écrit sur la théorie du revenu permanent et sur la temporalité des politiques de relance, deux sujets brulants (si, si) et pour lesquels il a reçu son Prix Nobel (il l'a été pour l'analyse de la consommation, l'histoire monétaire et la démonstration de la complexité des politiques de stabilisation »)

En 1957, alors qu’il est encore peu connu, Friedman écrit A Theory of the Consumption Function dans lequel il s’en prend à l’un des fondements de la théorie keynésienne, sa fonction de consommation, qui décrit la façon dont un ménage consommera en fonction de ses revenus. Pour Keynes, la consommation est fonction du revenu disponible à l’instant t. Dès lors, si le revenu augmente temporairement par un plan de relance, le consommateur consommera plus, prenant en compte ce revenu supplémentaire. Séduisant mais largement faux. Friedman observe que la consommation des ménages est beaucoup plus régulière que leurs revenus. Pour expliquer cette différence, Friedman propose son hypothèse du revenu permanent : le revenu d’un individu a deux composantes : une composante permanente et une composante transitoire. Ce qui compte ce n’est pas le revenu des ménages, mais leur estimation de leur revenu permanent,fonction de leurs revenus passés et l’anticipation qu’ils ont de leurs revenus à long terme. Pour que la consommation des ménages change, il faut que ce soit ce revenu permanent qui change, et un chèque gouvernemental n’y fera rien si l’économie est déprimée.


Dès lors, l’argumentation keynésienne ne tient plus : à quoi servirait une politique de relance, une baisse temporaire de la TVA comme au Royaume-Uni actuellement, si les ménages accumulent l’excédent de revenu dans des bas de laine sous leurs matelas ? A peu de choses à part creuser le déficit ! Cela a été ainsi vérifié dans des études américaines sur des baisses temporaires de fiscalité dans les années 1960, ainsi que, plus généralement de manière statistique. Il serait hâtif de dire qu’il en est toujours ainsi, ne serait ce qu’en raison de l’intervention d’autres facteurs pour expliquer les variations de la consommation et pour ne pas sombrer dans l’historicisme. Mais l’argument reste valable et largement vérifié…

Friedman porta un autre coup, plus violent, aux théories keynésiennes sur l’intervention étatique en période de crise : loin d’atténuer les crises, elle ne fait que les aggraver. Les politiques contra-cycliques (destinées à lisser l’évolution économique) sont en fait pro-cycliques (elles accentuent les cycles économiques). Friedman étudia cette question dans ses Essays in Positive Economics (1953). Dans ses recueil se trouve en particulier un texte, The Effects of a Full-Employment Policy on Economic Stability, écrit en 1951. Milton Friedman y souligne que l’action de l'État, quand elle se veut contra-cyclique, est marquée par des lags, des délais. Il estime ainsi entre 10 et 24 mois les délais entre le moment critique et le moment où l'État agit concrètement. Entre les deux, il y a un délai entre le moment où le problème survient et celui ou les hommes de l'État en prennent conscience, puis à nouveau un délai jusqu’à la décision des mesures à prendre, et enfin un troisième avant que les effets de ces mesures se fassent sentir. Il résume ainsi cette analyse des lags de l’action publique en 1962 dans Capitalism and Freedom :
There is likely to be a lag between the need for action and government recognition of the need; a further lag between recognition of the need for action and the taking of action; and a still further lag between the action and its effects
Ces théories de Friedman sont cependant bien loin d'être écoutées actuellement. Si on ne s'intéresse pas aux théories alternatives, qu'est ce qui peut expliquer cette obstination de l'intervention politique alors? Montrer qu'on agit pour ne pas passer pour Mister Do-Nothing, répondre à la demande exprimée sur le marché politique en somme. Autant de questions qui mériteraient un article à part...

Liens intéressants :

samedi 17 janvier 2009

Wikipédia à l'aune de Hayek

"One can't understand my ideas about Wikipedia without understanding Hayek." C'est ce que déclarait le fondateur de Wikipédia, Jimmy Wales, au journal libertarien Reason en juin 2007. En particulier, Jimbo Wales de citer un texte de 1945, L'utilisation de la connaissance dans la société comme fondamental dans la genèse du projet d'encyclopédie librement modifiable. L’utilisation de la connaissance dans la société est l’un des textes les plus importants de Hayek à mes yeux. Cet article, paru dans l’American Economic Review de septembre de 1945 souligne en particulier que la connaissance dans la société est dispersée et ne peut être entièrement connue par une autorité centrale. De là découle pour Hayek une critique de la planification, différente de celle développée dans La Route de la servitude et plus juste et efficace selon moi. Il écrit ainsi, pour expliquer l'échec de la planification :
La raison en est que les « données » sur lesquelles se fonde le calcul économique ne peuvent et ne sont jamais « données » à un esprit unique pour le compte de la société dans son ensemble, pour en prévoir les implications. Le caractère particulier du problème de l'ordre économique rationnel est précisément déterminé par le fait que la connaissance de l'environnement dont nous pourrions avoir besoin n'existe jamais sous une forme concentrée ou agrégée, mais uniquement sous la forme d'éléments dispersés d'une connaissance incomplète et fréquemment contradictoire que tous les individus séparés possèdent en partie.
Wales tire justement les conclusions de l'analyse de Hayek en reconnaissant que l'information est dispersée et donc que chacun peut y apporter, et non seulement quelques experts. Dès lors le support wiki, en donnant à tous les moyens d'apporter sa contribution est effectivement dans la veine de la réflexion de Hayek.

En outre, en reconnaissant l'imperfection de ce projet d'encyclopédie et en laissant un processus de progrès par erreurs et corrections, il facilite une démarche éminemment libérale, dans la veine des idées de John Milton, d'Humboldt, de Popper, de Michael Polanyi et d'Hayek. Comme le disait un auteur qui m'est cher, le libéralisme est la méthode de la liberté qui « reconnaît la possibilité de toujours pouvoir tomber dans l’erreur et qui s’attend à ce que d’autres cherchent à découvrir cette erreur et à trouver la bonne voie vers la vérité. [..] [Le libéral] sait que c’est seulement à travers l’erreur que l’on arrive à la vérité ». Si critique libérale de Wikipédia il doit y avoir, ce n'est a priori pas sur ce terrain qu'elle doit avoir lieu, n'en déplaise à Alithia.

La recherche de la neutralité de point de vue peut également, dans une certaine mesure, se lire dans une perspective hayekienne : en refusant de trancher mais en laissant les principales idées être en compétition, on peut espérer que les meilleures émergeront, dans un processus évolutionniste.

Cependant, dans cette même perspective, Wikipédia pose certains problèmes :

Le premier, que j'ai évoqué par ailleurs, est le problème fondamental de la neutralité de point de vue : qui va décider de l'équilibre entre les différents points de vue et sur quels critères? La réponse de Wikipédia est grosso modo une réponse démocratique : consensus entre les intervenants, avec prime aux plus nombreux. Ce point était déjà abordé, indirectement, dans L'utilisation de la connaissance dans la société :
On peut admettre qu'en ce qui concerne la connaissance scientifique, un groupe d'experts convenablement choisis peut se trouver dans la position la plus favorable pour disposer des connaissances les plus avancées - ce qui renvoie donc à la difficulté de sélectionner lesdits experts.
Le second, est la posture sectaire de nombreux intervenants de Wikipédia face à la critique : qui n'a pas entendu la remarque "si tu n'es pas content, fais le toi-même" ? Cette réponse facile est bien trop souvent la seule réponse d'une communauté dont la bureaucratisation semble avoir supprimé la flexibilité et l'ouverture d'esprit, au profit de préoccupations politiques.

La dernière limite, probablement la plus essentielle, est celle touchant à la situation de monopole qu'a Wikipédia sur la connaissance sur Internet. Quelque soit la recherche ou presque, Wikipédia arrivera dans les trois premiers résultats, quelquesoit la qualité de l'article concerné. L'encyclopédie de l'Agora, bien souvent de meilleure qualité, est systématiquement recalée derrière comme de nombreux sites. L'internaute moyen n'allant pas au delà de ces fameux trois résultats, on peut considérer Wikipédia comme la seule source d'information pour un lecteur pressé, avec un risque réel de diffusion d'informations systématiquement biaisées (dans des sens variables d'ailleurs) ou fausses. C'est un point gênant car cette situation n'a rien de naturel mais découle des choix de Google. Pourquoi une page de Wikipédia tout juste créée devrait-elle bénéficier d'un PR (indice de notoriété) de quatre, alors que la qualité du reste de l'encyclopédie ne préjuge en rien de celle de l'article?

En outre, la présentation que Wikipédia fait d'elle même n'est pas exacte : se présenter comme une free encyclopedia that anyone can edit, c'est masquer que les informations présentées ne doivent être évaluées qu'en fonction de l'autorité de la source qui la soutient. Wikipédia n'est pas et ne pourra jamais être une encyclopédie en raison des processus par lesquelles elle se construit. L'internaute qui lit les pages de Wikipédia ne le sait pas ou n'en est pas conscient. Il y a un fossé entre ce qui est extrêmement positif dans la communauté des contributeurs (ne pas se satisfaire d'une affirmation qui ne soit fondée) et le manque d'esprit critique apparent du lecteur lambda. L'image ci-dessous est malheureusement loin de la réalité.

De là à dire qu'il faut interdire Wikipédia comme certains critiques acharnés le demandent (Alithia bis...), il y a une étape de trop. La situation actuelle ne peut pas être durable, comme on l'observe avec les critiques de plus en plus fréquentes de Wikipédia dans les médias. Wikipédia ayant de moins en moins la masse critique d'éditeurs pour conserver une qualité acceptable, elle perd et perdra encore progressivement en réputation jusqu'à être remplacé par autre chose. La nature a horreur du statu quo et des alternatives apparaitront progressivement.

Ce dernier point permet de souligner un élément essentiel : ce n'est pas Wikipédia qui est particulièrement intéressant d'un point de vue libéral. L'optimisme béat de Reason est franchement exagéré. Ce qui est fondamentalement libéral, c'est Médiawiki, le logiciel derrière, qui permet à chacun de diffuser facilement ses connaissances. Avec un tel support, et plus généralement avec les NTIC, des alternatives peuvent voir le jour aisément et les meilleures solutions émerger.

A lire également :

jeudi 15 janvier 2009

Le scandale de la rémunération des dirigeants ?


Je découvre aujourd’hui une étude intéressante de Xavier Gabaix (New York University) et Augustin Landier (NYU également) sur la rémunération des dirigeants. Il est de bon ton dans le débat politique actuel, jusqu'à l'UMP, de prendre pour bouc émissaire les « patrons rapaces » et autres capitalistes « sans foi ni loi » pour enfin « moraliser le capitalisme », comprendre égaliser et uniformiser. Or, comme le montre Xavier Gabaix et Augustin Landier, la rémunération des dirigeants est cohérente avec la valeur qu’ils apportent à l’entreprise.

Le constat de départ des auteurs est la multiplication par six de la rémunération des dirigeants entre 1980 et 2003 aux Etats-Unis. Est-ce « excessif » ? Non pour les deux auteurs pour qui la raison n’est pas du tout dans une prétendue « rapacité » ni l’évolution des incentives mais tout simplement dans la multiplication par six de la taille des entreprises qu’ils dirigent. Entre 1980 et 2003, la valeur économique la capitalisation moyenne des 500 plus grosses entreprises cotées a été multipliée par six. C’est l’évolution que l’on retrouve dans la rémunération des dirigeants. Il est intéressant de noter qu’entre 2000 et 2005 (dernière année disponible dans l’étude), on a une dissociation des deux tendances, mais dans le sens inverse à celui que le français moyen pourrait attendre : la capitalisation augmente mais les rémunérations stagnent voire baissent.

Cette analyse fonctionne relativement bien pour les autres pays étudiés, comme l’illustre ce graphique (avec des données légèrement différentes), figurant la rémunération des dirigeants avec la taille des plus grosses entreprises.


Les talents des dirigeants ne sont pas si différents, mais une différence minime a des conséquences énormes sur la rémunération avec l’effet multiplicateur de la taille de l’entreprise. Le postulat de départ, critiquable mais fonctionnant relativement bien, est que les meilleurs CEO dirigent les plus grandes entreprises car c’est là que leurs talents seront les mieux utilisés. Si le 250e CEO par talent remplaçait le 1er à la tête de la plus grosse entreprise, la valeur de l’entreprise ne déclinerait que de 0.016%. Mais cette différence minime justifie une différence de salaire de 500% étant donné ce que ces 0.016% de plusieurs dizaines de milliards représentent !

Une seconde explication avancée par les le reste de la littérature académique déjà existante est l’évolution du métier de patron et en particulier le plus grand risque d’être licencié qu’auparavant avec la plus grande vigilance des actionnaires.

J’ai coupé la partie mathématisation de l’étude qui, en plus d’être peu digeste, aurait rebuté les plus autrichiens ;) On pourrait également trouver beaucoup à redire sur les hypothèses comme celles liant le talent à la taille de l'entreprise. Cela est probablement en bonne partie vraie mais, si la simplification passe dans une modélisation mathématique forcément incomplète, on peut douter qu'il en soit de même dans la réalité. Quid des rémunérations non matérielles comme le prestige, ou des satisfactions morales comme la volonté d'apporter quelque chose au monde de plus durable que des lessives?

En outre, on peut reprocher aux conclusions de l'étude un certain optimisme excessif : les dérives existent et existeront toujours. Cela tient probablement à la volonté des auteurs d'insister sur l'efficacité de leur modèle, quitte à gommer les nuances. Les dérives existeront toujours et la véritable erreur consiste à croire qu'un système parfait puisse exister. Les auteurs soulignent qu'il y a une logique dans l'évolution des rémunérations, c'est déjà beaucoup. Ne croyons pas qu'elle explique tout!

Xavier Gabaix est un économiste français qui enseigne à l’université de Princeton. Il est considéré par le panel de chercheurs de The Economist comme l’un des huit jeunes économistes les plus prometteurs à travers le monde.

Augustin Landier est un économiste français qui enseigne la finance à la New York University. Il a co-écrit avec David Thesmar Le grand méchant marché ainsi que de nombreux articles dans la presse française et internationale.

----------------
Now playing: Jean Ferrat - Ma France
via FoxyTunes

lundi 12 janvier 2009

Eurobilltracker


Plus encore que les pièces, les billets en euro sont identifiables. Pour les premières, la face nationale des pièces permet de connaître le pays dans laquelle la pièce a été frappée. Pour les seconds, la première lettre du numéro de série permet d'identifier le pays d'émission : T pour l'Irlande, U pour la France, X pour l'Allemagne, Z pour la Belgique. De l'autre côté du billet, un code à 5 éléments, composé d'une lettre, suivie de trois chiffres, puis une lettre et à nouveau d'un chiffre. Il permet d'identifier l'imprimeur et les détails de l'impression.

Avec tous ces éléments permettant de tracer les billets, de nombreux sites se sont créées pour suivre le trajet que faisaient ces billets une fois lâchés dans la nature. Eurobilltracker est l'un d'entre eux, que j'ai découvert récemment. Rien à y gagner mais l'amusement de retrouver parfois un des billets qu'on a eu dans son portefeuille a quelques centaines de kilomètres... ou à la porte à côté.

vendredi 9 janvier 2009

Le déclin de Wikipédia

Avertissement : les chiffres publiés changeant chaque jour, les chiffres cités ici ne sont plus les mêmes que ceux publiés. Les chiffres utilisés sont les chiffres officiels à l'écriture de l'article. Une mise à jour rapide a été postée ici.

Wikimedia, l’association qui gère les différents projets Wikipedia, avait cessé de communiquer sur les statistiques du projet francophone en mai 2007. Ce silence laissait présager une mauvaise situation qu’on essayait de masquer, malgré la baisse évidente du nombre de votants pour les élections par exemple. Les derniers chiffres révélés après un an et demi de coupure le montrent, la situation est en fait bien pire que ce que l’on pouvait imaginer.
  • Les chiffres
Commençons par les nouveaux articles, révélateurs de la croissance de Wikipédia sur de nouveaux domaines :


Les partisans de Wikipédia diront que c’est normal, Wikipédia couvrant désormais presque tout les champs de la connaissance. Ce n’est qu’à peine vrai, en témoigne la liste des articles demandés qui enfle. En outre, si Wikipédia n’était pas en perte de vitesse, cette chute devrait être compensée par des articles de meilleure qualité. Las, c’est le contraire qui se passe, la longueur moyenne des articles baisse (cliquer pour agrandir) :


Non seulement Wikipédia en français ne progresse plus mais tend à régresser. D’ailleurs, la version allemande a désormais 100.000 articles de plus que la version française, et la version japonaise vient de dépasser la version française en nombre d’articles. La raison en est simple, il y a de moins en moins de contributeurs réguliers sur Wikipédia :

Cela est dû au fonctionnement de Wikipédia, qui récompense non les personnes compétentes mais ceux qui insistent, motivés par un but politique ou, au moins autant, ceux qui cherchent de la reconnaissance.

Cela se retrouve ainsi dans le comportement des patrouilleurs, ceux qui traquent le vandalisme en langage Wikipédia. Las, il s'agit surtout de révoquer pour faire grimper l'editcount, compteur du nombre de "contributions". Phénomène d'ailleurs dénoncé régulièrement sur le bistro. C'est probablement l'une des causes de la baisse du nombre de nouveaux.

Autre problème plus essentiel, les fondamentaux de Wikipédia sont en train d'être perdus : sous la pression des attaques sur la fiabilité de Wikipédia, ses contributeurs refusent la possibilité même de l’erreur et demande une sécurité impossible à trouver. La compétence, impossible à remplacer, a un succédané, la sourcite aiguë. Cette maladie actuelle de Wikipédia consiste à demanders des sources pour tout et n'importe quoi, en croyant pouvoir assurer ainsi la fiabilité d'un article. L'article Counter-strike est un bon exemple de cette affection.

C'est oublier que, avec ou sans sources, un article ne peut être fiable que si quelqu'un connaissant le sujet connaissant le sujet peut décider de la part à accorder à chaque point de vue et de la fiabilité des différentes sources. Faute de ces personnes compétentes, le principe de la référence est structurellement inefficace.

  • Quel avenir

Wikipédia perd ses contributeurs en les dégoutant. C’est un problème pour l’amélioration des articles, on l’a vu. C’est aussi un problème financier, car les auteurs sont souvent des donateurs lors des levées de fond et la situation financière de l’association n'est pas glorieuse. Une disparition de Wikipédia à moyen terme n'est pas à exclure.

Serait-ce une grosse perte? Le contenu ne sera pas pour autant perdu, étant déjà largement diffusé par un réseau de sites miroirs ou de pillage plus ou moins légal. En outre, force est de constater que Wikipédia n'est pas et ne sera jamais une encyclopédie. Les statistisques de consultations des articles sont éclairantes : sur les images les plus consultées par exemple, on n'a que des Category:Vulva, Category:Erotic ou Category:Sex positions et mieux encore Category:Shaved genitalia (female). Certes, il y a quelques articles intéressants en sciences humaines mais ils sont extrêmement minoritaires (500 articles de qualités pour quelques centaines de milliers d'articles) et bien souvent sur des sujets anecdotiques.

Point plus important encore, l'hégémonie actuelle de Wikipédia est dangereuse car elle a un quasi monopole quand on cherche des informations sur un sujet grâce à son référencement Google qui la met en tête à chaque fois. Prenons l'exemple de János Kornai, un économiste hongrois. L'article Wikipédia a à peine quelques phrases et a plus de mise en forme standard que de contenu. Il sort premier... Sa présentation par Harvard (plusieurs pages) ou encore Wikibéral sont loin derrière alors qu'elles sont beaucoup plus riches. L'internaute lambda s'arrêtera à Wikipédia et aura un contenu faiblard et pas franchement toujours exact.

Le concept du wiki n'est pas à abandonner pour autant, mais l'avenir est aux wikis spécialisés, sur un champ particulier, qui ne sont pas amenés à couvrir tout. Les contributeurs spécialistes d'un domaine peuvent y apporter beaucoup plus sans la lourdeur administrative de Wikipédia qui les fait fuir en ne reconnaissant pas leurs compétences. En outre, la question du monopole dans les résultats de recherche n'existe plus. Wait & see !

samedi 3 janvier 2009

Figaro et Vaclav Klaus

Le pastiche du Figaro que Jalons avait fait s'appelait fort à propos Figagaro. La situation ne s'est pas améliorée entre temps et le journaliste Maurin Picard de nous le prouver plutôt deux fois qu'une avec un article (ou plutôt une tribune à charge) sur le président tchèque Václav Klaus.

Dès le titre, le ton est donné, le nom est écorché, preuve s'il en est de la connaissance du sujet par le "journaliste". Le á signifie en l'occurrence que la voyelle est accentuée et correspond en phonétique à /aː/. Mais gageons que Maurin Picard ne se formaliserait pas si on l'appellait Morin Picart...

Le reste de l'article est à l'avenant mais lister les approximations, erreurs et présentations mensongères serait trop long. Passons directement au plus intéressant et révélateur des méthodes dudit journaliste. Pour discréditer Klaus, il ne trouve rien de mieux que citer... la police secrète communiste dans les années 1980. Autant citer la Gestapo pour discréditer les opposants au nazisme.

Pour ne citer qu'une des erreurs suivantes de l'auteur, mentionnons simplement le chapeau de l'article:
Vaclav Klaus, a juré de saboter les efforts du gouvernement de Mirek Topolanek
Oublierait-il que Topolánek (encore une autre erreur d'écriture monsieur Piquar), lorsqu'il a annoncé le slogan polémique de la présidence tchèque de l'Europe (Evropě to osladíme), a reconnu le caractère « volontairement provocateur » de ce slogan qui signifie "nous allons sucrer l'Europe". (Le jeu de mot est impossible à restituer ici mais on pourra lire l'article de Nathalie Frank sur la question ici.

Un seul point positif dans tous cela, Maurin Picard n'utilise pas le terme ultralibéral sauvage et dévoreur d'enfants. Probablement car là encore il ne connait pas les positions de Klaus... Précisions quelques points sur Klaus:

Economiste reconnu sous le régime totalitaire communiste, il réussit à étudier les auteurs non socialistes et s'oppose à l'idéologie du régime en se rapprochant de l'école autrichienne. Klaus de déclarer ainsi : « Hayek a eu sur moi une grande influence. Mais je pense que ce qui m’a le plus appris a été Human Action de Mises, et cela est resté vrai jusqu’à aujourd’hui ». Il est également membre de la Société du Mont-Pèlerin, une prestigieuse société de pensée libérale. Les mesures qu'il a mené cependant sont beaucoup moins libérales que ses écrits, là encore malgré les affirmations hâtives du "journaliste" du Figaro.

Enfin, s'il déclence tant de réactions enragées, c'est car il dit avec force que l'environnement ne doit pas servir de nouveau prétexte à la mise en danger des fondements des démocraties libérales actuelles. Point de vue qu'il a amplement développée et qu'il résume par « la menace communiste a été remplacée par celle d’un environnementalisme ambitieux ». Le réchauffement climatique, comme toute question scientifique ne doit pas être un dogme. En hurlant avec les loups qui voudraient faire taire toute voix dissidente, M. Picard rend un très mauvais service à l'environnement, que seul le progrès scientifique peut durablement aider, et à la liberté d'expression.

Pour compléter :