Extreme Weather and Global Growth

Intéressant article
Le signal économique global serait déterminé plus qu’on n’a bien voulu le modéliser jusqu’à aujourd’hui, par les phénomènes climatiques majeurs
Or nous vivons cet hiver un El Nino spectaculaire
à suivre

(suite…)

Posted in: Non classé by admin No Comments

Coup de frein sur les voitures autonomes, les Google cars remises en cause – InformatiqueNews.fr

Coup de frein sur les voitures autonomes, les Google cars remises en cause

Source : Coup de frein sur les voitures autonomes, les Google cars remises en cause – InformatiqueNews.fr

Depuis mercredi dernier, Google affronte, dans la presse et sur le terrain, les fonctionnaires californiens du DMV (Department of Motor Vehicles) sur les projets de règlements de voitures « autoconduites ». Après avoir investi 60 millions de dollars dans l’intelligence artificielle automobile, Google attendait depuis 2012 que l’état de Californie en termine avec ses études de faisabilité.

Mais depuis mercredi dernier, c’est la douche froide, le DMV a publié un rapport, trés orienté sécurité, qui impose une floppée de contraintes qui remettent ses projets d’autonomie aux calendes grecques. La directrice du DMV, Jean Shiomoto ( photo) a précisé dans le communiqué accompagnant le nouveau règlement que l’objectif principal de la législation proposée « est la sécurité des véhicules autonomes et la sécurité du public qui va partager la route avec ces véhicules « . Le gouvernement californien, en invoquant la sécurité, ne veut surtout pas, à notre avis, remettre en cause les firmes impliquées dans la situation économique actuelle du secteur automobile. Ainsi, il faudra disposer d’un permis et passer une qualification, ce qui démolit l’objectif original des Google cars, des sortes de taxis pour personnes dépendantes que l’on pourrait piloter en entrant une adresse de destination. Dans le même document, sorte de règlement publié mercredi, un détenteur de permis de conduire devrait être dans la voiture, prêt à prendre le relais en cas de besoin, ce qui impose des pédales de frein, d’accélérateur et un volant, trois éléments absents de googles cars actuelles. Le pilote sera responsable de toutes les violations de la circulation. C’est d’ailleurs cette notion de responsabilité des accidents qui a pesé lourd dans les choix du DMV.

Un conducteur classique serait plus fiable qu’un ordinateur ?

Google est en désaccord total avec cette idée d’homme « plus sûr que la machine », précisant que toute la technologie développée jusque-là avait pour but d’aider les gens qui ne peuvent pas conduire, comme les handicapés et les personnes âgées. Google qui, en quatre ans, a créé une voiture autonome l’aurait fait rouler sur plus de 1,6 million de kilomètres en Californie et au Texas sans accidents notoires. Pour Google, sa technologie serait donc suffisamment aboutie pour passer dans une nouvelle phase, immédiatement d’ailleurs, dans des lieux moins fréquentés que les routes de campagne comme des campus universitaires ou de ceux de grandes entreprises.

Les espoirs liés au projet de Jerry Brown paraissent abandonnés

On est désormais loin de la signature du projet de loi signé par le sénateur Jerry Brown en Septembre 1992. (photo avec Sergei Brin au premier plan). Ce jour-là, le cofondateur de Google, Sergey Brin avait prédit que les véhicules autonomes seraient disponibles dans les cinq ans. Le porte-parole de Google, Johnny Luu dans son  communiqué ajoutait : « Nous sommes gravement déçus que la Californie soit déjà en train de limiter le potentiel des voitures entièrement autonomes pour la conduite pour aider tous ceux qui vivent ici ». D’autres contraintes seront imposées aux constructeurs automobiles qui devront passer des tests pour vérifier que la voiture sans conducteur est prête pour les routes publiques. Plus compliqués à suivre, ces véhicules devront être surveillés par des rapports mensuels sur les performances, l’utilisation et la sécurité. En outre , les voitures ne  pourraient être que louées — mais pas vendues — au public. Google qui se présente comme la victime expiatoire d’un groupe de fonctionnaires ‘peureux’ n‘est pas la seule à voir ses projets de développement remis en cause. Tesla, Nissan, BMW et Mercedes-Benz, qui testent depuis plusieurs années des véhicules autonomes font la grimace, selon nos confrères américains. A qui profite ce coup de frein ? Les mauvaises langues rappelaient que la puissance des lobbys des géants de Detroit favorisait toujours les constructeurs historiques locaux au détriment des nouveaux arrivants et des étrangers.

Google a ce projet compromis en travers de la gorge

Le porte-parole de Google, Johnny Luu, a déclaré que la priorité absolue de Google était aussi la sécurité, et que les voitures sans conducteur visent à réduire le nombre d’accidents causés par une erreur humaine. Certains experts disent que la présence d’un conducteur détenteur de permis et donc responsable d’un véhicule autonome ne le rendrait pas plus sécurisé. Don Norman, professeur et directeur du Design Lab à l’UC San Diego avait d’ailleurs récemment rappelé que « Les  véhicules autonomes les plus dangereux sont ceux qui requièrent la surveillance humaine. Les gens sont incapables de contrôler quelque chose sur de longues périodes, puis prendre le contrôle quand une urgence survient. Des décennies de recherches scientifiques et l’expérience acquise avec des pilotes bien formés, dans l’aviation commerciale, le démontrent tous les jours. »

La déception ne va pas se limiter aux USA

En France, l’Observatoire Cetelem de l’Automobile 2016 a justement remis cette semaine un rapport sur les véhicules autonomes. Il a interrogé sur ce sujet plusieurs milliers d’automobilistes, dans quinze grands pays du monde, par le bureau d’étude TNS Sofres. Ceux-ci estimaient à 75 % que la voiture autonome deviendrait une réalité. 55 % d’entre eux songent même à terme d’acheter une Google Car ou une hypothétique Apple Car. Paradoxalement, les plus enthousiastes en matière de véhicules autonomes n’étaient pas les Américains à 27 % mais les Chinois à 91 %. Ces chiffres varient énormément de 41 % chez les Français, 65 % chez les Italiens, 73 % chez les Brésiliens ou encore 81 % chez les Turcs. Pour Flavien Neuvy de Cetelem (photo) : « Au niveau global, les sondés ont aussi indiqué que les acteurs les plus légitimes pour faire évoluer la voiture traditionnelle vers la voiture connectée étaient dans l’ordre décroissant les constructeurs, les spécialistes des nouvelles technologies et les équipementiers, 77 % de sondés ont estimé qu’une voiture connectée doit avoir pour ‘mission la sécurité (77 % des économies et 50 % l’optimisation du temps de trajet).

De l’autonomie à l’aide au pilotage.

Face aux voitures autonomes, Carlos Goshn, le PDG de Renault/Nissan avait, lors du salon de Tokyo, (photo ci-dessous)  pour sa part, mis en valeur la technologie maison, le »Nissan Intelligent driving « qui aiderait le conducteur à voir, penser et réagir plus vite. Lors du même salon nippon, Volvo, qui a fait de la sécurité son cheval de bataille, a promis qu’en 2020, il n’y aurait plus de morts ni de blessés graves dans les véhicules de sa marque grâce à ses aides au pilotage. Ce qui est actuellement sûr, c’est qu’il n’y aura pas de voitures autonomes en 2016 et que si elles apparaissent en 2017, il ne s’agirait que de véhicules où l’autonomie viendrait au secours du pilote comme chez Nissan. L’Europe aura-t-elle le temps d’imposer d’autres réflexions ? Des débats de ce type ont déjà eu lieu avec les pilotes automatiques des avions, ceux des grands bateaux et ceux des métros et à chaque fois, les solutions techniques étaient remises en cause par les législations existantes. Seul le métro autonome comme celui des lignes de la RATP 1 et 14, a réussi à s’imposer. Avec l’automobile, les probabilités de contacts accidentels sont malheureusement bien plus grandes.

Posted in: Non classé by admin No Comments

Lettre aux français de Maurice Allais, dans Marianne (voir à la suite l’article de présentation de cette lettre)

J’ai trouvé ca sur le site « Les crises », avec des extraits des ouvrages de Maurice Allais

 

Le point de vue que j’exprime est celui d’un théoricien à la fois libéral et socialiste. Les deux notions sont indissociables dans mon esprit, car leur opposition m’apparaît fausse, artificielle. L’idéal socialiste consiste à s’intéresser à l’équité de la redistribution des richesses, tandis que les libéraux véritables se préoccupent de l’efficacité de la production de cette même richesse. Ils constituent à mes yeux deux aspects complémentaires d’une même doctrine. Et c’est précisément à ce titre de libéral que je m’autorise à critiquer les positions répétées des grandes instances internationales en faveur d’un libre-échangisme appliqué aveuglément.

Le fondement de la crise : l’organisation du commerce mondial

La récente réunion du G20 a de nouveau proclamé sa dénonciation du « protectionnisme » , dénonciation absurde à chaque fois qu’elle se voit exprimée sans nuance, comme cela vient d’être le cas. Nous sommes confrontés à ce que j’ai par le passé nommé « des tabous indiscutés dont les effets pervers se sont multipliés et renforcés au cours des années » (1). Car tout libéraliser, on vient de le vérifier, amène les pires désordres. Inversement, parmi les multiples vérités qui ne sont pas abordées se trouve le fondement réel de l’actuelle crise : l’organisation du commerce mondial, qu’il faut réformer profondément, et prioritairement à l’autre grande réforme également indispensable que sera celle du système bancaire.

Les grands dirigeants de la planète montrent une nouvelle fois leur ignorance de l’économie qui les conduit à confondre deux sortes de protectionnismes : il en existe certains de néfastes, tandis que d’autres sont entièrement justifiés. Dans la première catégorie se trouve le protectionnisme entre pays à salaires comparables, qui n’est pas souhaitable en général. Par contre, le protectionnisme entre pays de niveaux de vie très différents est non seulement justifié, mais absolument nécessaire. C’est en particulier le cas à propos de la Chine, avec laquelle il est fou d’avoir supprimé les protections douanières aux frontières. Mais c’est aussi vrai avec des pays plus proches, y compris au sein même de l’Europe. Il suffit au lecteur de s’interroger sur la manière éventuelle de lutter contre des coûts de fabrication cinq ou dix fois moindres – si ce n’est des écarts plus importants encore – pour constater que la concurrence n’est pas viable dans la grande majorité des cas. Particulièrement face à des concurrents indiens ou surtout chinois qui, outre leur très faible prix de main-d’œuvre, sont extrêmement compétents et entreprenants.

Il faut délocaliser Pascal Lamy !

Mon analyse étant que le chômage actuel est dû à cette libéralisation totale du commerce, la voie prise par le G20 m’apparaît par conséquent nuisible. Elle va se révéler un facteur d’aggravation de la situation sociale. À ce titre, elle constitue une sottise majeure, à partir d’un contresens incroyable. Tout comme le fait d’attribuer la crise de 1929 à des causes protectionnistes constitue un contresens historique. Sa véritable origine se trouvait déjà dans le développement inconsidéré du crédit durant les années qui l’ont précédée. Au contraire, les mesures protectionnistes qui ont été prises, mais après l’arrivée de la crise, ont certainement pu contribuer à mieux la contrôler. Comme je l’ai précédemment indiqué, nous faisons face à une ignorance criminelle. Que le directeur général de l’Organisation mondiale du commerce, Pascal Lamy, ait déclaré : « Aujourd’hui, les leaders du G20 ont clairement indiqué ce qu’ils attendent du cycle de Doha : une conclusion en 2010 » et qu’il ait demandé une accélération de ce processus de libéralisation m’apparaît une méprise monumentale, je la qualifierais même de monstrueuse. Les échanges, contrairement à ce que pense Pascal Lamy, ne doivent pas être considérés comme un objectif en soi, ils ne sont qu’un moyen. Cet homme, qui était en poste à Bruxelles auparavant, commissaire européen au Commerce, ne comprend rien, rien, hélas ! Face à de tels entêtements suicidaires, ma proposition est la suivante : il faut de toute urgence délocaliser Pascal Lamy, un des facteurs majeurs de chômage !

Plus concrètement, les règles à dégager sont d’une simplicité folle : du chômage résulte des délocalisations, elles-mêmes dues aux trop grandes différences de salaires… À partir de ce constat, ce qu’il faut entreprendre en devient tellement évident ! Il est indispensable de rétablir une légitime protection. Depuis plus de dix ans, j’ai proposé de recréer des ensembles régionaux plus homogènes, unissant plusieurs pays lorsque ceux-ci présentent de mêmes conditions de revenus, et de mêmes conditions sociales. Chacune de ces « organisations régionales » serait autorisée à se protéger de manière raisonnable contre les écarts de coûts de production assurant des avantages indus a certains pays concurrents, tout en maintenant simultanément en interne, au sein de sa zone, les conditions d’une saine et réelle concurrence entre ses membres associés.

Un protectionnisme raisonné et raisonnable

Ma position et le système que je préconise ne constitueraient pas une atteinte aux pays en développement. Actuellement, les grandes entreprises les utilisent pour leurs bas coûts, mais elles partiraient si les salaires y augmentaient trop. Ces pays ont intérêt à adopter mon principe et à s’unir à leurs voisins dotés de niveaux de vie semblables, pour développer à leur tour ensemble un marché interne suffisamment vaste pour soutenir leur production, mais suffisamment équilibré aussi pour que la concurrence interne ne repose pas uniquement sur le maintien de salaires bas. Cela pourrait concerner par exemple plusieurs pays de l’est de l’Union européenne, qui ont été intégrés sans réflexion ni délais préalables suffisants, mais aussi ceux d’Afrique ou d’Amérique latine.

L’absence d’une telle protection apportera la destruction de toute l’activité de chaque pays ayant des revenus plus élevés, c’est-à-dire de toutes les industries de l’Europe de l’Ouest et celles des pays développés. Car il est évident qu’avec le point de vue doctrinaire du G20, toute l’industrie française finira par partir à l’extérieur. Il m’apparaît scandaleux que des entreprises ferment des sites rentables en France ou licencient, tandis qu’elles en ouvrent dans les zones à moindres coûts, comme cela a été le cas dans le secteur des pneumatiques pour automobiles, avec les annonces faites depuis le printemps par Continental et par Michelin. Si aucune limite n’est posée, ce qui va arriver peut d’ores et déjà être annoncé aux Français : une augmentation de la destruction d’emplois, une croissance dramatique du chômage non seulement dans l’industrie, mais tout autant dans l’agriculture et les services.

De ce point de vue, il est vrai que je ne fais pas partie des économistes qui emploient le mot « bulle ». Qu’il y ait des mouvements qui se généralisent, j’en suis d’accord, mais ce terme de « bulle » me semble inapproprié pour décrire le chômage qui résulte des délocalisations. En effet, sa progression revêt un caractère permanent et régulier, depuis maintenant plus de trente ans. L’essentiel du chômage que nous subissons —tout au moins du chômage tel qu’il s’est présenté jusqu’en 2008 — résulte précisément de cette libération inconsidérée du commerce à l’échelle mondiale sans se préoccuper des niveaux de vie. Ce qui se produit est donc autre chose qu’une bulle, mais un phénomène de fond, tout comme l’est la libéralisation des échanges, et la position de Pascal Lamy constitue bien une position sur le fond.

Crise et mondialisation sont liées

Les grands dirigeants mondiaux préfèrent, quant à eux, tout ramener à la monnaie, or elle ne représente qu’une partie des causes du problème. Crise et mondialisation : les deux sont liées. Régler seulement le problème monétaire ne suffirait pas, ne réglerait pas le point essentiel qu’est la libéralisation nocive des échanges internationaux, Le gouvernement attribue les conséquences sociales des délocalisations à des causes monétaires, c’est une erreur folle.

Pour ma part, j’ai combattu les délocalisations dans mes dernières publications (2). On connaît donc un peu mon message. Alors que les fondateurs du marché commun européen à six avaient prévu des délais de plusieurs années avant de libéraliser les échanges avec les nouveaux membres accueillis en 1986, nous avons ensuite, ouvert l’Europe sans aucune précaution et sans laisser de protection extérieure face à la concurrence de pays dotés de coûts salariaux si faibles que s’en défendre devenait illusoire. Certains de nos dirigeants, après cela, viennent s’étonner des conséquences !

Si le lecteur voulait bien reprendre mes analyses du chômage, telles que je les ai publiées dans les deux dernières décennies, il constaterait que les événements que nous vivons y ont été non seulement annoncés mais décrits en détail. Pourtant, ils n’ont bénéficié que d’un écho de plus en plus limité dans la grande presse. Ce silence conduit à s’interroger.

Un prix Nobel… téléspectateur

Les commentateurs économiques que je vois s’exprimer régulièrement à la télévision pour analyser les causes de l’actuelle crise sont fréquemment les mêmes qui y venaient auparavant pour analyser la bonne conjoncture avec une parfaite sérénité. Ils n’avaient pas annoncé l’arrivée de la crise, et ils ne proposent pour la plupart d’entre eux rien de sérieux pour en sortir. Mais on les invite encore. Pour ma part, je n’étais pas convié sur les plateaux de télévision quand j’annonçais, et j’écrivais, il y a plus de dix ans, qu’une crise majeure accompagnée d’un chômage incontrôlé allait bientôt se produire, je fais partie de ceux qui n’ont pas été admis à expliquer aux Français ce que sont les origines réelles de la crise alors qu’ils ont été dépossédés de tout pouvoir réel sur leur propre monnaie, au profit des banquiers. Par le passé, j’ai fait transmettre à certaines émissions économiques auxquelles j’assistais en téléspectateur le message que j’étais disposé à venir parler de ce que sont progressivement devenues les banques actuelles, le rôle véritablement dangereux des traders, et pourquoi certaines vérités ne sont pas dites à leur sujet. Aucune réponse, même négative, n’est venue d’aucune chaîne de télévision et ce durant des années.

Cette attitude répétée soulève un problème concernant les grands médias en France : certains experts y sont autorisés et d’autres, interdits. Bien que je sois un expert internationalement reconnu sur les crises économiques, notamment celles de 1929 ou de 1987, ma situation présente peut donc se résumer de la manière suivante : je suis un téléspectateur. Un prix Nobel… téléspectateur, Je me retrouve face à ce qu’affirment les spécialistes régulièrement invités, quant à eux, sur les plateaux de télévision, tels que certains universitaires ou des analystes financiers qui garantissent bien comprendre ce qui se passe et savoir ce qu’il faut faire. Alors qu’en réalité ils ne comprennent rien. Leur situation rejoint celle que j’avais constatée lorsque je m’étais rendu en 1933 aux États-Unis, avec l’objectif d’étudier la crise qui y sévissait, son chômage et ses sans-abri : il y régnait une incompréhension intellectuelle totale. Aujourd’hui également, ces experts se trompent dans leurs explications. Certains se trompent doublement en ignorant leur ignorance, mais d’autres, qui la connaissent et pourtant la dissimulent, trompent ainsi les Français.

Cette ignorance et surtout la volonté de la cacher grâce à certains médias dénotent un pourrissement du débat et de l’intelligence, par le fait d’intérêts particuliers souvent liés à l’argent. Des intérêts qui souhaitent que l’ordre économique actuel, qui fonctionne à leur avantage, perdure tel qu’il est. Parmi eux se trouvent en particulier les multinationales qui sont les principales bénéficiaires, avec les milieux boursiers et bancaires, d’un mécanisme économique qui les enrichit, tandis qu’il appauvrit la majorité de la population française mais aussi mondiale.

Question clé : quelle est la liberté véritable des grands médias ? Je parle de leur liberté par rapport au monde de la finance tout autant qu’aux sphères de la politique.

Deuxième question : qui détient de la sorte le pouvoir de décider qu’un expert est ou non autorisé à exprimer un libre commentaire dans la presse ?

Dernière question : pourquoi les causes de la crise telles qu’elles sont présentées aux Français par ces personnalités invitées sont-elles souvent le signe d’une profonde incompréhension de la réalité économique ? S’agit-il seulement de leur part d’ignorance ? C’est possible pour un certain nombre d’entre eux, mais pas pour tous. Ceux qui détiennent ce pouvoir de décision nous laissent le choix entre écouter des ignorants ou des trompeurs.

Maurice Allais.

 

 

Présentation par Marianne

Le Prix Nobel iconoclaste et bâillonné

La « Lettre aux Français » que le seul et unique prix Nobel d’économie français a rédigée pour Marianne aura-t-elle plus d’écho que ses précédentes interventions ? Il annonce que le chômage va continuer à croître en Europe, aux États-Unis et dans le monde développé. Il dénonce la myopie de la plupart des responsables économiques et politiques sur la crise financière et bancaire qui n’est, selon lui, que le symptôme spectaculaire d’une crise économique plus profonde : la déréglementation de la concurrence sur le marché mondial de la main-d’œuvre. Depuis deux décennies, cet économiste libéral n’a cessé d’alerter les décideurs, et la grande crise, il l’avait clairement annoncée il y a plus de dix ans.

Éternel casse-pieds

Mais qui connaît Maurice Allais, à part ceux qui ont tout fait pour le faire taire ? On savait que la pensée unique n’avait jamais été aussi hégémonique qu’en économie, la gauche elle-même ayant fini par céder à la vulgate néolibérale. On savait le sort qu’elle réserve à ceux qui ne pensent pas en troupeau. Mais, avec le cas Allais, on mesure la capacité d’étouffement d’une élite habitée par cette idéologie, au point d’ostraciser un prix Nobel devenu maudit parce qu’il a toujours été plus soucieux des faits que des cases où il faut savoir se blottir.

« La réalité que l’on peut constater a toujours primé pour moi. Mon existence a été dominée par le désir de comprendre ce qui se passe, en économie comme en physique ». Car Maurice Allais est un physicien venu à l’économie à la vue des effets inouïs de la crise de 1929. Dès sa sortie de Polytechnique, en 1933, il part aux États-Unis. « C’était la misère sociale, mais aussi intellectuelle : personne ne comprenait ce qui était arrivé. » Misère à laquelle est sensible le jeune Allais, qui avait réussi à en sortir grâce à une institutrice qui le poussa aux études : fils d’une vendeuse veuve de guerre, il a, toute sa jeunesse, installé chaque soir un lit pliant pour dormir dans un couloir. Ce voyage américain le décide à se consacrer à l’économie, sans jamais abandonner une carrière parallèle de physicien reconnu pour ses travaux sur la gravitation. Il devient le chef de file de la recherche française en économétrie, spécialiste de l’analyse des marchés, de la dynamique monétaire et du risque financier. Il rédige, pendant la guerre, une théorie de l’économie pure qu’il ne publiera que quarante ans plus lard et qui lui vaudra le prix Nobel d’économie en 1988. Mais les journalistes japonais sont plus nombreux que leurs homologues français à la remise du prix : il est déjà considéré comme un vieux libéral ringardisé par la mode néolibérale.

Car, s’il croit à l’efficacité du marché, c’est à condition de le « corriger par une redistribution sociale des revenus illégitimes ». Il a refusé de faire partie du club des libéraux fondé par Friedrich von Hayek et Milton Friedman : ils accordaient, selon lui, trop d’importance au droit de propriété… « Toute ma vie d’économiste, j’ai vérifié la justesse de Lacordaire : entre le fort et le faible, c’est la liberté qui opprime et la règle qui libère”, précise Maurice Allais, dont Raymond Aron avait bien résumé la position : « Convaincre des socialistes que le vrai libéral ne désire pas moins qu’eux la justice sociale, et des libéraux que l’efficacité de l’économie de marché ne suffit plus à garantir une répartition acceptable des revenus. » Il ne convaincra ni les uns ni les autres, se disant « libéral et socialiste ».

Éternel casse-pieds inclassable. Il aura démontré la faillite économique soviétique en décryptant le trucage de ses statistiques. Favorable à l’indépendance de l’Algérie, il se mobilise en faveur des harkis au point de risquer l’internement administratif. Privé de la chaire d’économie de Polytechnique car trop dirigiste, « je n’ai jamais été invité à l’ENA, j’ai affronté des haines incroyables ! » Après son Nobel, il continue en dénonçant « la chienlit laisser-fairiste » du néolibéralisme triomphant. Seul moyen d’expression : ses chroniques touffues publiées dans le Figaro, où le protège Alain Peyrefitte. À la mort de ce dernier, en 1999, il est congédié comme un malpropre.

Il vient de publier une tribune alarmiste dénonçant une finance de « casino» : « L’économie mondiale tout entière repose aujourd’hui sur de gigantesques pyramides de dettes, prenant appui les unes sur les autres dans un équilibre fragile, jamais dans le passé une pareille accumulation de promesses de payer ne s’était constatée. Jamais, sans doute, il est devenu plus difficile d’y faire face, jamais, sans doute, une telle instabilité potentielle n’était apparue avec une telle menace d’un effondrement général. » Propos développés l’année suivante dans un petit ouvrage très lisible* qui annonce l’effondrement financier dix ans à l’avance. Ses recommandations en faveur d’un protectionnisme européen, reprises par Chevènement et Le Pen, lui valurent d’être assimilé au diable par les gazettes bien-pensantes. En 2005, lors de la campagne sur le référendum européen, le prix Nobel veut publier une tribune expliquant comment Bruxelles, reniant le marché commun en abandonnant la préférence communautaire, a brisé sa croissance économique et détruit ses emplois, livrant l’Europe au dépeçage industriel : elle est refusée partout, seule l’Humanité accepte de la publier…

Aujourd’hui, à 98 ans, le vieux savant pensait que sa clairvoyance serait au moins reconnue. Non, silence total, à la notable exception du bel hommage que lui a rendu Pierre-Antoine Delhommais dans le Monde. Les autres continuent de tourner en rond, enfermés dans leur « cercle de la raison » •

Éric Conan

* La Crise mondiale aujourd’hui, éditions Clément Juglar, 1999.

Source : Marianne, n°659, décembre 2009.

Posted in: Non classé by admin No Comments

Philippe Aghion – Économie des institutions, de l’innovation et de la croissance

Leçon inaugurale le 1er octobre 2015 à 18h00 « Les énigmes de la croissance »

Sa fiche Wikipedia nous apprend qu’il s’intéresse à la situation de la France :

L’économiste Philippe Aghion est nommé au Collège de France, titulaire de la chaire Économie des institutions, de l’innovation et de la croissance.

Après 15 années passées à Harvard, Philippe Aghion est nommé au Collège de France, titulaire de la chaire Économie des institutions, de l’innovation et de la croissance, avec un grand projet : la création d’un centre de recherche, de réflexion et d’échanges autour de l’économie de la croissance et de l’innovation. Les travaux de Philippe Aghion, et notamment sa nouvelle théorie « Schumpetérienne » de la croissance, ont largement participé à renouveler un domaine qui s’est considérablement transformé au cours des 25 dernières années. Faisant fi des segmentations habituelles, il a contribué à une compréhension plus articulée des mécanismes économiques, mêlant macro et micro-économie, théorie et analyse empirique, étude du comportement des acteurs et analyse des systèmes, appréhension globale des mécanismes de la croissance et du développement ainsi que de leurs liens à l’innovation. Repenser la croissance économique « Mes travaux de recherche se situent depuis 30 ans à l’intersection de la macroéconomie de la croissance et de la microéconomie des marchés, des contrats et des organisations. Mon but a été de développer une nouvelle théorie de la croissance dotée de solides fondements microéconomiques afin : 1/ de mieux comprendre le lien entre croissance et fonctionnement des marchés, entre croissance et organisations internes des entreprises, entre croissance et institutions économique et politiques ; 2 / de penser la notion de politique de croissance et de pouvoir formuler des recommandations qui soient adaptées au contexte institutionnel et au niveau de développement technologique du pays ou de la région concernée », explique Philippe Aghion. « Je me soumets en permanence au test des données et à l’épreuve des chiffres. Faire dialoguer sans cesse théorie et analyses empiriques permet d’affiner les modèles, de mieux comprendre la complexité des interactions, de lutter contre les fausses croyances et donc de sortir de l’idéologie », précise-t-il, plaçant résolument l’économie du côté de la science. Philippe Aghion est également reconnu pour des contributions majeures dans les domaines de l’organisation industrielle, de la théorie des institutions ou de l’économie politique, questionnant par exemple le lien entre dynamique économique et dynamique des institutions. Inventer un nouveau type de croissance fondée sur l’innovation L’arrivée de Philippe Aghion au Collège de France sera marquée par la création et le développement d’un important pôle de recherche économique : Le Centre pour l’Innovation et la croissance. Développer des banques de données économiques internationales ; fédérer les grands pôles français de recherche en économie ; devenir une place centrale permettant de réunir les universitaires qui travaillent sur différents aspects de l’innovation, les praticiens du monde de l’entreprise, les Français de la Silicon Valley ou de Boston ou encore les politiques : sont quelques-uns des objectifs de ce centre

« Déclencher l’innovation est vital pour nos sociétés. En analyser les mécanismes et confronter la recherche pure à l’économie réelle permettra de dépasser les approches empiriques et de donner aux acteurs politiques et économiques les outils nécessaires à l’invention d’un nouveau type de croissance fondée sur l’innovation », explique Philippe Aghion. « Ce centre sera largement ouvert aux jeunes chercheurs. J’aimerais qu’il soit également un moyen de changer la manière de penser l’économie à travers l’éducation. Nous mènerons donc des actions en direction des professeurs, des relais d’opinion ou encore des lycéens. Les jeunes sont ma propre destruction créatrice, affirme Philippe Aghion, en référence à Schumpeter. Les cours de Philippe Aghion pour l’année 2015/2016 auront lieu les mardis à partir du 6 octobre sur le thème Théorie et politiques de la croissance. Il donnera sa leçon inaugurale, Les énigmes de la croissance, le 1er octobre à 18h00. Un colloque, Innovation, inégalités et croissance, aura lieu les 13 et 14 juin 2016. L’ensemble de son enseignement sera disponible sur www.collegedefrance.fr en français et en anglais.

 

« Les énigmes de la Croissance » Leçon inaugurale du Pr Philippe Aghion – Le jeudi 1er octobre 2015 à 18h00 – Lors de sa leçon inaugurale, Philippe Aghion entend faire partager la « formidable aventure intellectuelle » qu’a été pour lui l’élaboration d’une nouvelle théorie Schumpetérienne de la croissance, ainsi que les profonds bouleversements opérés dans l’approche et les manières de travailler : « L’histoire d’une profonde transformation de l’objet et du sujet », où modélisation et analyse empirique sont dorénavant mises en dialogue constant. Il reviendra sur le cheminement et les raisons qui l’ont amené, avec d’autres économistes, à reconsidérer les théories de la croissance « qui apparaissaient insuffisantes tant sur le plan théorique que d’un point de vue empirique » et à approfondir les intuitions Schumpetérienne, notamment en ce qui concerne la place centrale de l’innovation comme moteur de croissance et le concept de « destruction créatrice ». « Ce dialogue entre une théorie Schumpetérienne de la croissance en cours d’élaboration et une nouvelle économétrie de la croissance plus microéconomique qu’auparavant parce que d’avantage centrée sur les entreprises et les secteurs, a permis : (i) d’affiner notre modèle Schumpetérien et d’en éliminer les hypothèses ou aspects « contrefactuels » ; (ii) d’éclairer plusieurs énigmes de la croissance ; (iii) de réfléchir de façon plus systématique aux politiques de croissance ». Philippe Aghion exposera par exemple le cheminement opéré autour de trois grandes idées Schumpetériennes : « La croissance de long-terme résulte de l’innovation » ; « L’innovation ne tombe pas du ciel, elle est un processus social » ; « Les nouvelles innovations rendent les innovations antérieures obsolètes. Ce que Schumpeter appelle – la destruction créatrice – ». À travers des exemples – comme celui du rapport entre innovation, inégalités, et mobilité sociale – , il reviendra sur la manière dont «l’approche Schumpétérienne et le dialogue entre théorie et analyse empirique que cette approche rend possible, permettent ensemble d’éclairer certains mystères, de résoudre certaines « énigmes » de la croissance ». Philippe Aghion abordera par ailleurs la question du positionnement du chercheur en économie, de son engagement ou non dans les débats de politique économique, sachant que pour lui politiques et interventions publiques sont quoiqu’il en soit « des variables instrumentales » à analyser pour mieux repenser les politiques de croissance. « Mieux appréhender les énigmes de la croissance, la relation entre croissance et innovations et le rôle des institutions dans le développement économique fera avancer non seulement la science mais la société dans son ensemble ».

 

 

Posted in: Non classé by admin No Comments

« Dieu se rit des hommes qui déplorent les effets dont ils chérissent les causes. » Bossuet

Posted in: Non classé by admin No Comments

Attentats de Paris – Kamel Daoud : « Mais que dire ? Que penser ? Que faire ? »

La tribune de Kamel Daoud, qui mérite d’être lue : je voudrais l’avoir écrite si j’étais basané, comme lui.

TRIBUNE. Derrière ces trois questions, l’écrivain algérien interroge et s’interroge sur ce non-sens brutal et insensé que veulent imposer les djihadistes.

 

Que dire ?

La nouvelle est tombée de nuit, sur ma tête, à Brooklyn. Une peur noire, étouffante, sèche. Car j’étais algérien, et je savais ce que cela signifiait, une guerre : la ruine de l’humain, la rupture, le triomphe des aveuglements. Quelque chose que je vois se dessiner depuis des années au coeur du monde pour le tuer. Je me suis donc senti traqué, acculé, pestiféré à cause de ma géographie : j’étais entre le monde qui tue et le monde qu’on assassine. À quoi pouvaient servir désormais des gens comme moi en temps de guerre ouverte ?

Ma première inquiétude, après le choc des morts, était la nationalité des tueurs. Car, aujourd’hui, le tueur tue sa victime mais aussi son pays d’origine.

Le plus dur était de réagir. Et il ne resterait rien à dire justement. La condoléance est usée et proclamer son indignation était insuffisant, banal, comme serrer la main d’un mort. L’humanité n’avait pas ma peau et le barbare avait mon visage. Toute la tragédie de l’otage. J’étais un homme brun entre deux rives, vendeur d’une vision du monde que démentait la déflagration. Ce cri, je l’entendrais souvent et il me terrorisait, « Allahou akbar », Dieu est grand. Et là, il venait encore de retentir, dans la bouche des tueurs, pour faire rétrécir le monde, apportant accusations, racismes, méfiance, insultes et cadavres. « Dieu est grand » vous fait sentir petit et présage la mort, pas l’extase face à une divinité. Que dire à ce pays qu’il n’a déjà entendu et peine à croire désormais malgré ses hommes de bonne volonté : dire que l’islam n’est pas l’islamisme ? Que les terroristes me tuent autant qu’ils vous tuent ? Qu’ils tuent plus de musulmans que d’Occidentaux (comme pour consoler en comparant les cimetières) ? Qu’il ne faut pas ressembler aux tueurs en tuant la tolérance et la bienveillance ? Qu’il faut que les musulmans sortent dans la rue ? Mais comment parler à des gens qui viennent de perdre la raison par la peur et la douleur ? Mais que valent mes mots qui sont une poignée de sable ?

J’ai mis donc deux jours à réagir, car je ne vois pas en quoi un mot peut permettre de reprendre raison. Le 11 septembre universel dure maintenant depuis une décennie et il passe de l’avion précipité à la guerre ouverte. À New York, où je suis depuis quelques semaines, dans les milieux des journalistes, j’ai été frappé par la sourde routine de la réaction après les attaques à Paris. On s’est précipité, on a écrit, commenté, mais en « creux », dans la désarticulation de la fatigue : comme si l’indignation ou le cri ne pouvaient plus rattraper le fait. Comme s’il n’y avait rien à ajouter à la fin du monde, au bout de la phrase. Tout a été dit. La guerre est désormais routine.

Que penser ?

D’abord la peur. Il n’y a pas pire et plus rigoureux que l’effet papillon de l’attentat : on pense à sa peau et à ceux qui ont la même couleur de peau et qui vont « payer » le crime en France et en Occident : immigrés, réfugiés, expatriés… Daech a frappé la France pour ce qu’elle représente : sa laïcité et sa diversité. Daech sait qu’il fallait frapper là, précisément, pour provoquer des suites de rejets, racismes, des hystéries et la montée des extrêmes. Du pain bénit pour ses futurs recrutements : ce monstre se nourrit des ruptures et des vieux textes messianiques. Un livre, un désert, un but. La série d’attaques ne pouvait avoir du sens que si elle frappait un pays qui héberge la plus grande communauté musulmane en Europe. Cela permet le pire. La France est riche et fragile par ses diversités. Et ces diversités vont souffrir. Le monde se fermera encore plus. Et Daech aura raison.

Ensuite, les attaques portent les signes d’organisation et de patience d’un État. État islamique ou un autre État-voyou qui réagit à des pressions internationales devenues intolérables. On passe de « Assad doit partir », à « Hollande doit partir » disent les soupçonneux. Cette attaque est l’aubaine des diables du monde. Ainsi, la France est poussée à opter pour une guerre interne contre les siens, au nom des siens, pour croire se défendre. Les attaques ont tué 129 personnes, mais tueront plus, ailleurs, avec une Europe qui va fermer ses portes aux réfugiés. Se cloîtrer et surveiller les bruits de pas autour de son continent. Le cycle nourrira les exclus du monde, les islamismes rampants dans mon monde et provoquera la guerre. Car une guerre est là, elle est presque inévitable : on peine à comprendre, au nord, l’effondrement du Sud dans l’utopie sinistre de Daech. Ce n’est plus un État fantasmé, mais un fantasme de puissance et de vengeance qui consume désormais des générations. Le dire ainsi, brutalement, irrite les bonnes volontés qui luttent dans ma géographie contre le Monstre, mais c’est une bataille qu’on est en train de perdre. On évite de se l’avouer.

La guerre ouverte a déjà des cadavres et des vautours : extrémismes, voleurs de deuils, bonimenteurs de la race ou du « tuez-les tous ! »

Que faire ?

C’est la bonne question. Parce qu’encore sans réponse. Aux uns, l’arme à la main, aux autres le cri de vengeance. Que faire des islamistes ou face à eux ? C’est la vieille question d’un siècle trop jeune. L’islamisme est un fascisme. Sa vision est bâtie sur une prétention mondiale, un totalitarisme sournois et une ruse de guerre : il ne peut être modéré, il est seulement patient. Il ronge l’humanité au nom d’une religion, mais la religion ne lui est qu’un moyen. Il ne défend pas Dieu, il veut le remplacer. Que faire donc ? Le tuer ne fait que lui donner raison. Sa mécanique est celle du martyr : plus on le tue, plus il est éternel et plus il a raison. La guerre contre le terrorisme est elle-même terrorisme parfois. Elle est nécessaire mais insuffisante. L’idée est d’éradiquer le terrorisme aujourd’hui, mais cela ne peut être une victoire que si on l’empêche de renaître demain. Car on ne naît pas djihadiste, on le devient : des livres, des chaînes TV, des mosquées, des désespoirs, des frustrations. Tout cela vient d’une matrice, d’un pays, un royaume : il ne sert à rien de lutter contre le Daech mal habillé en Syrie et de serrer la main du Daesh bien habillé de l’Arabie saoudite. C’est surseoir à l’attaque, pas l’éviter ; l’idéalisme est une idéologie qui a de l’argent et qui se répand. Comprendre cela permet de mieux réagir et pas seulement en « mode avions qui tuent » ou option de l’extrême droite pour des élections.

L’idée est de ne pas faire le jeu des islamistes, de ne pas les nourrir, mais surtout de ne pas les laisser venir au monde pour nous tuer. L’idée de fermer la France aux siens ou au reste du monde est un réflexe attendu, mais il n’est pas le bon. Il n’y a pas de zone offshore face à ce fascisme, et fermer les yeux n’est pas éteindre le feu. Il n’y a que des engagements, humains, et des fermetés. Daesh tue, rompt, exclut, terrorise, ment, profite, recrute le désespoir, sépare et déshumanise. Il faut donc l’éradiquer partout, mais sans lui ressembler, en France ou ailleurs. Le pouvons-nous ? J’ai parfois des doutes. Mais j’ai aussi des enfants et donc un devoir.

Peur pour la France, mais peur que la France ne réagisse mal et fasse mal aux siens. Les tueurs venaient d’ailleurs, mais aussi de son ventre.

Posted in: Nouvelles by admin No Comments

What ‘doing digital’ really means, in one simple map

Article dans MWD Advisor

Friday, November 13, 2015 by

In my earlier post (Making sense of Digital: is “look at Uber and Airbnb” the best we can do?) I highlighted how we might be in danger of obsessing over what companies like Uber and Airbnb do, and how they’re disrupting existing industries; and thereby missing a bigger picture.

Uber and Airbnb are of course attention-grabbing, because they’ve used digital technologies to enable them to grow fast and serve massive customer bases – by co-ordinating external resources and managing market information (matching supply and demand) in new, more efficient ways. But digital technologies are also important because they can enable large, established organisations to act small, at scale.

So clearly there’s more to ‘what doing digital’ really means than ‘doing an Uber’. But we urgently need to find a way to lay everything out clearly – because everywhere we turn, we find that different people talk about ‘digital’ while meaning completely different things.

Here�are the four groups we come across most often:

  • When�we listen�to HR and Communications leaders talk about ‘doing�digital’, they’re talking about how social, mobile and cloud technologies in particular affect the workplace and the ways that employees engage with each other and with the broader organisation/corporation.
  • When we listen to marketing leaders talk about ‘doing digital’, they’re talking about how social, mobile, cloud, and analytics technologies are changing how the organisation needs to create experiences and engage differently with customers (other leaders may also be thinking about implications for partner and supplier engagement, too).
  • When we listen to operational leaders, they’re thinking about�how digital technologies can help the organisation�co-ordinate internal processes and ‘things’ to create ‘digital operations’ capabilities.
  • And lastly there’s strategists. They inhabit the realm of Uber, Airbnb, Upwork, Zopa, open innovation networks, and so on. These�people are tasked with looking at digitally-powered strategies for new product approaches and changes to business models.

How are all these things connected?

Let’s start by backing up, and considering this:

Digital technologies are important because�in combination, they can be used to co-ordinate resources (people, plant, machinery, infrastructure, market information, goods, materials, knowledge) more efficiently.

Now look at the picture below. What I’ve done�here is split up the universe of ‘resources’ into internal and external resources (that’s the horizontal�axis); and also (vertical axis) into resources which revolve principally around people and their knowledge, and other�resources which revolve principally around processes and ‘things’ (plant, machinery, infrastructure, materials, assets etc).

I’ve also labelled four distinct digital domains – driven by very particular business priorities – one for each quadrant.

Slide1

  • When HR and Communications leaders talk about ‘doing�digital’, they’re starting their exploration from the top-left quadrant.
  • When marketing leaders talk about ‘doing digital’, they’re starting their exploration from the top-right quadrant.
  • When operational leaders�talk about ‘doing digital’, they’re�starting their exploration from the bottom-left quadrant.
  • And lastly, strategists tend to start their work in the bottom-right quadrant.

Of course when we dig a little deeper, we see that things are never as simple as they first seem. Different groups tend to start their explorations in one particular quadrant, but very soon (if they’re really exploring the potential opportunities and challenges of digital technologies correctly) they start to have to consider other quadrants too.

So actually the picture looks a little bit more complicated. Like this:

Slide2

Nevertheless I hope you agree that this map of digital strategies is�still pretty easy to get your head around.

Now we’re currently in the final stages�of a�major planning and design exercise here at MWD Advisors for 2016, and this map�will play a big part in how we shape and present our research and services in 2016 and beyond.

What do you think? Does this map help you place and position different conversations and ideas about digital strategy? Let me know in the comments!

Supercalculateurs : montée en puissance de la Chine

Alors que les Etats-Unis n’ont jamais été aussi bas, la Chine poursuit sa politique de développement de sa puissance informatique. La France est à un étiage médiocre.

Le Top500 a donc publié sa liste de novembre 2015 – la 46e, la première a été publiée en 1993 – à l’occasion de la SC15 Conference sur le HPC (High Performance Computing, Networking, Storage and Analysis) qui se tient actuellement à Austin (Texas). Cette liste est publiée deux fois par an ce qui peut paraître excessif mais les évolutions sont telles que cette fréquence se justifie, même si le taux de croissance de la puissance de calcul connait un certain ralentissement. Entre 1994 et 2008, le taux de croissance a été 90 %, depuis il est tombé à 55 %, ce qui est déjà très rapide.

Le fait majeur à remarquer à l’occasion de ce nouveau Top500 est la montée en puissance qui n’a jamais été aussi haut avec 108 supercalculateurs alors que dans le même temps les Etats-Unis n’en compte que 200, le niveau le plus bas jamais observé depuis le début de ce palmarès. Une chute assez rapide puisqu’on en comptait 231 dans la dernière liste en juin dernier. Le niveau le plus élevé a été atteint en novembre 2005 avec 305 systèmes. En termes de puissance, la répartition est relativement plus favorable pour les Etats-Unis (45 %) et un peu moins pour la Chine (14 % pour la Chine).

La situation de la France n’est pas reluisante avec seulement 18 systèmes alors qu’elle avait le niveau de 34 supercalculateurs dans ce Top500 en 2008, un niveau comparable à celui du Royaume-Uni mais deux fois moindre que celui de l’Allemagne. Globalement, l’Europe se situe au même niveau de la Chine, 108 contre 109 systèmes. Rapporté au PIB, la puissance de calcul du Vieux Continent est donc 60 % inférieure. L’autre élément à noter est que non seulement la Chine utilise des supercalculateurs mais elle en fabrique désormais en nombre significatif. Lenovo possède 25 systèmes dans cette liste contre 3 seulement dans le classement de juin (dont 9 labellisés IBM/lenovo et 5 Lenovo/IBM). Sugon a supplanté IBM en nombre de systèmes dans le Top500 avec 49 unités même si en puissance IBM est toujours devant. Cette société a été créée en 1990 sous le nom de Danwing avec le soutien du National Research Center for Intelligent Computing Systems (NCIC).

Alors qu’IBM et HP dominaient ce classement du Top500, on a vu la renaissance de Cray qui est redevenu le leader avec un quart des systèmes installés et une puissance à peu près comparable. L’histoire du constructeur a été assez tourmentée (Supercalculateurs : la renaissance de Cray) mais le retour au premier plan de la firme américaine est assez éclatant.

Le National Super Computer Center in Guangzhou est arrimé à la première place pour la sixième fois consécutive. C’est un véritable monstre qui déroule 33 Pflops avec plus de 3 millions de coeurs, deux fois plus que le numéro 2, le Titan de Cray installé au Oak Ridge National Laboratory utilisé par le Department of Energy. A lui seul,le système chinois représente plus de 7 % de la puissance totale du Top500.

Pour remettre les choses en perspective, le système le plus performant du Top500 de 1993, le CM-5/1024 Thinking Machines installé au Los Alamos National Laboratory, était crédité d’une puissance de 59,7 GFlops. En 22 ans, la puissance du numéro 1 du Top500 a donc été multipliée par 567 000.

TOP 10 Sites for November 2015

Rank Site System Cores Rmax (TFlop/s) Power (kW)
1 National Super Computer Center in Guangzhou
China
Tianhe-2 (MilkyWay-2) – TH-IVB-FEP Cluster, Intel Xeon E5-2692 12C 2.200GHz, TH Express-2, Intel Xeon Phi 31S1P
NUDT
3,120,000 33,862.7 17,808
2 DOE/SC/Oak Ridge National Laboratory
United States
Titan – Cray XK7 , Opteron 6274 16C 2.200GHz, Cray Gemini interconnect, NVIDIA K20x
Cray Inc.
560,640 17,590.0 8,209
3 DOE/NNSA/LLNL
United States
Sequoia – BlueGene/Q, Power BQC 16C 1.60 GHz, Custom
IBM
1,572,864 17,173.2 7,890
4 RIKEN Advanced Institute for Computational Science (AICS)
Japan
K computer, SPARC64 VIIIfx 2.0GHz, Tofu interconnect
Fujitsu
705,024 10,510.0 12,660
5 DOE/SC/Argonne National Laboratory
United States
Mira – BlueGene/Q, Power BQC 16C 1.60GHz, Custom
IBM
786,432 8,586.6 3,945
6 DOE/NNSA/LANL/SNL
United States
Trinity – Cray XC40, Xeon E5-2698v3 16C 2.3GHz, Aries interconnect
Cray Inc.
301,056 8,100.9
7 Swiss National Supercomputing Centre (CSCS)
Switzerland
Piz Daint – Cray XC30, Xeon E5-2670 8C 2.600GHz, Aries interconnect , NVIDIA K20x
Cray Inc.
115,984 6,271.0 2,325
8 HLRS – Höchstleistungsrechenzentrum Stuttgart
Germany
Hazel Hen – Cray XC40, Xeon E5-2680v3 12C 2.5GHz, Aries interconnect
Cray Inc.
185,088 5,640.2
9 King Abdullah University of Science and Technology
Saudi Arabia
Shaheen II – Cray XC40, Xeon E5-2698v3 16C 2.3GHz, Aries interconnect
Cray Inc.
196,608 5,537.0 2,834
10 Texas Advanced Computing Center/Univ. of Texas
United States
Stampede – PowerEdge C8220, Xeon E5-2680 8C 2.700GHz, Infiniband FDR, Intel Xeon Phi SE10P
Dell
462,462 5,168.1

 

Système de soutien aux énergies renouvelables : le gouvernement doit revoir sa formule – Construction21

Système de soutien aux énergies renouvelables : le gouvernement doit revoir sa formule

Source : Système de soutien aux énergies renouvelables : le gouvernement doit revoir sa formule – Construction21

Le Conseil supérieur de l’énergie étudiera aujourd’hui la réforme du système de soutien à l’électricité renouvelable. Au terme d’une concertation qui aura duré pas moins de deux ans sans aucune évolution notable, le Ministère de l’écologie vient de publier des propositions de décret dessinant son futur cadre. Bien loin des ambitions affichées, cette évolution va au mieux conduire la filière à stagner au pire contribuer à l’affaiblir.

Tant que ces décrets ne sont pas signés, il est encore temps de les corriger pour que les énergies renouvelables puissent enfin se développer au service des territoires et de leurs habitants, dans la logique des Territoires à énergie positive pour la croissance verte (TEPCV) sur laquelle communique à tout va le gouvernement.

Oui, les acteurs locaux sont au cœur de la transition énergétique. Ce sont eux qu’il faut soutenir dans leur volonté d’installer localement des énergies renouvelables. Pourtant la formule de calcul du complément de rémunération qui les soutient (reproduite ci-dessous) est totalement incompréhensible par l’immense majorité des citoyens… et ceux qui peuvent la lire découvriront avec dépit qu’elle augmente fortement l’incertitude et le risque des projets. Elle réduit donc sans raison leurs chances de succès et augmente inéluctablement leurs coûts.

Si l’on veut que notre pays atteigne effectivement les objectifs qu’il s’est lui-même fixés dans la Loi de transition énergétique pour la croissance verte, il faut permettre à l’extraordinaire dynamique en faveur de la transition énergétique que l’on observe dans les territoires de s’exprimer pleinement : pour cela, la priorité doit être accordée aux énergies renouvelables par rapport à toutes les autres sources d’énergies.

Pour libérer l’énergie de nos territoires, voici trois propositions très simples :

1. La réforme proposée fait la part belle aux appels d’offres. Ceux-ci s’opposent pourtant à toute logique territoriale. Prisés par l’administration et le gouvernement qui peuvent ainsi contrôler le développement des énergies renouvelables et annoncer les lancements de projets et leurs résultats, ils n’apportent pas aux collectivités et aux acteurs locaux la stabilité et la visibilité dont ils ont besoin et que leur apportent les tarifs d’achats.

On nous dit que c’est « Bruxelles » qui impose cette évolution : alors que les lignes directrices de la Commission européenne évoquent un seuil de 1 MW, pourquoi la France se prépare-t-elle à imposer à la seule filière photovoltaïque déjà bien mal en point un couperet dix fois moins élevé à 100 kW ?

→ Un bon compromis pourrait être l’extension à 500 kW pour le photovoltaïque des tarifs d’achat garantis aujourd’hui limités à 100kW. Ceci permettrait en particulier d’équiper efficacement, à moindres frais, certains bâtiments de collectivités locales et de bailleurs sociaux. Un gisement d’énergie renouvelable indispensable pour tout territoire à énergie positive en devenir.

2. En interdisant l’émission de garanties d’origine, le projet actuel de décret empêche de fait les producteurs de bénéficier de la « valeur verte » de leur électricité. Cette interdiction est une aberration d’abord parce qu’elle bloque l’émergence d’une offre verte, ensuite parce qu’elle prive la collectivité des recettes issues des consommateurs volontaires d’électricité verte, qui viendraient alléger le coût public des énergies renouvelables.

→ Le décret doit permettre la valorisation des garanties d’origine, à l’instar du dispositif en vigueur pour l’injection du bio-méthane dans le réseau de gaz. Les recettes qu’en tire le producteur doivent être partiellement déduites (à 75 % par exemple) du complément de rémunération qu’il recevra. Les déclarations des producteurs quant à la valorisation des titres émis peuvent et doivent être contrôlées à partir du registre des garanties d’origine. Cela doit conduire à terme à l’émergence d’un marché transparent de l’électricité verte.

3. Les coûts de raccordement au réseau sont actuellement anormalement élevés dans notre pays et ruinent trop souvent les efforts réalisés avec succès par ailleurs pour réduire les coûts de production de l’électricité renouvelable.

→ En plus d’un système de soutien adéquat, le gouvernement doit prévoir la réduction des coûts de raccordement au réseau.

Article publié sur CLER – Transition sur le terrain

Posted in: Non classé by admin No Comments

After Linux: National Server Operating System in the Right Way

Sur CTOCIO.com

Russia [1], China [2], India [3], Turkey [4], France [5] are all creating or planning to create their national operating system as a way to reduce their dependency to US software dominance. Are those plans going to succeed ?

 

Unix: a national OS that became international

A “National OS” strategy is not wrong per se. It can even be successful.

Unix and POSIX are good examples of an operating system financed by US national interests that became successful after an open source version created in Finland under the name “Linux” solved interoperability issues among vendors and hardware. The ADA language [6] – a kind of national lingua franca for aerospace industry – was actually designed in France to introduce better type checking for embedded systems and is now used in the US more than anywhere else.

Becoming international and bringing major innovations without blocking interoperability seems to be the secret for a “National OS” to be successful. Are thus any problems that a mature and apparently perfect GNU/Linux distribution such as Debian still does not solve?

 

Virtualisation: solving real problems of current operating systems in the wrong way

Much effort has been invested in cloud computing for now ten years. Let us analyse those efforts from an “operating system” design standpoint and make a typical list of the problems that Cloud tries to solve in POSIX operating systems.

Problem 1. Current POSIX operating systems do not provide strong isolation between services implemented as processes. Cloud uses CPU virtualisation to provide process isolation.

Problem 2. Current POSIX operating systems do not support multiple versions of the same service. Cloud uses multiple virtual disk images to run multiple versions of the same service.

Problem 3. Current POSIX operating systems do not support the paradigm of “multiple instances of the same class of service”. Cloud uses multiple virtual disk images to run multiple instances of the same service.

Problem 4. Current POSIX operating systems do not support configuration of multiple inter-related services. Cloud uses network virtualisation or orchestrators to connect multiple virtual disk images or containers.

Problem 5. Current POSIX operating systems do not support remote deployment of services. Cloud uses remote deployment of virtual disk images to remotely execute a service.

Problem 6. Current POSIX operating systems do not natively monitor services. Cloud uses dedicated monitoring services that often run outside the Cloud infrastructure.

Problem 7. Current POSIX operating systems do not support accounting and billing of resources used by services. Cloud uses dedicated third party applications for accounting and billing applications that often run outside the Cloud infrastructure.

Each of the 7 problems we have listed defines possible improvement that National OS could provide over current GNU/Linux distributions.

Those improvements are not really new: operating systems of mainframe computers have solved quite well the 7 problems them for more than 40 years. Those improvements also relate to 20 years old effort to turn Unix into fully distributed operating system that has until now not succeeded.

 

Single System Image: “everything is a distributed file”

OpenSSI [7] and MOSIX [8] provided a first solution in 1977 to turn Unix and later Linux into a distributed operating system. They were followed by Kerrighed [9] in 1998 and XtreemOS [10] in 2006. Under the term “Single System Image” (SSI), the idea is to aggregate multiple Linux servers as if they were a single one with petabytes of RAM and tens of thousands of processors. Processes started on one server are capable of migrating transparently to another server in order to optimize hardware resources without the user having to care about it.

MOSIX did not last very long [11]. Kerrighed commercial company closed in 2014 after 16 years of R&D [12]. Even though the single system image (SSI) approach is the most elegant, it does not seem ready yet for production. It also does not solve most problems that found in traditional POSIX operating systems, such as native support of multiple versions and multiple instances of a service.

Another major approach started in 1987 – Plan9 and its successor Inferno – prove that it is possible to design a modern distributed operating system based on the Unix philosphy of “everything is a file”. But becase Plan9 break compatibility with POSIX codebase and only solves part of the 7 problems that we listed, Plan9 was never adopted much outside research projects such as Akaros [13] .

 

Mesh Computing: “everything is a service”

A new generation of operating system has recently emerged by focusing on packages and services rather than on files. In recent conference, Hewlett Packard CTO described them as “mesh” [14]. Two initiatives are worth attention: NixOS and SlapOS.

NixOS, started in 2004, considers that the package manager is the most important component in a modern operating system. NixOS package manager innovative design can solve 4 of the 7 problems that we listed.

The NixOS package manager uses a declarative domain specific language to represent software packages, their dependencies and their configuration. It is able to install multiple versions of the same software on a single operating system, without containers or virtualization. It provides atomic upgrades and downgrades of consistent set of packages. NixOS support distributed package management and configuration, with a declarative model and garbage collection that are consistent with functional philisophy that guided its origin. In 2012, NixOps has introduced cloud extensions that support remote deployment of services in the same way as local deployment of packages with the same declarative language. But at the same time, NixOs has started to introduce some imperative programming and containers that depart from its original philisophy.

SlapOS started in 2010 with the idea to fully automate the operation of multiple instances and versions of arbitrary services on a decentralized infrastructure at minimal cost. Just as NixOS and Disnix, SlapOS relies on declarative language to describe software build, deployment and configuration on a distributed infrastructure. SlapOS also describes with the same declarative language: monitoring, backup, restore, accounting and billing of services. SlapOS has been used in a few large companies to deploy ERP applications: Airbus (Germany), SANEF (France), Kyorin (Japan).

SlapOS brings a couple of ideas that are still unique in POSIX world and that solve all of the 7 challenges we listed. Its core design is a compact ERP model. Users can request any quantity of software services from a distributed software catalog (ex. a database service), just like they would request products from an online shop. SlapOS delivers requested service to the user, monitors it, accounts resource usage and generates an invoice. All objects in SlapOS can be represented by a Web URL, which provides unique naming and decentralised management of shared resources. Security relies on the generation of X.509 certificates for every service, software, computer, IPv6 address and every user through a distributed Public Key Infrastructue (PKI). Binary isolation between processes is achieved through Israel originated ZeroVM technology [15] . Isolation properties of SlapOS have been demonstrated through a still unique formal proof by French Atomic Energy Research Center [16].

 

Overcoming the challenge of adoption through new products

Rebranding existing operating system has never created much traction in the absence of innovation. Security extensions sponsored by state army – such as in SE Linux [17] or Kylin Linux [18] – always bear the suspicion of added backdoor from other states. The only reasonable path for a national operating system to gain wide adoption is thus to bring major innovations to the market. Mesh computing is one reasonable candidate for a national operating system.

But greatness of a technology such mesh computing – or Plan9 before – does not suffice for its adoption. Native orchestration, higher resilience and lower operating cost compared to virtualisation are insufficient arguments to convince conservative developers to spend even minimal effort to port applications from their current favourite environment. Recent efforts found for example in CoreOS [19] to seamlessly integrate containers [20] and orchestration into a Linux distribution with nearly no porting cost finds much more traction even if it leaves most of our 7 challenges unresolved.

If we look back in operating system history, MacOS was initially rejected by about any corporate IT expert. It could however gain adoption thanks to new products that did not fit in existing market segments: Desktop Publishing with PageMaker [21] and Rapid Application Development (RAD) with 4D [22]. New users of DTP or RAD did not care whether it was good or bad to use mouse and windows on a single threaded operating system which files had two so-called “forks” [23]. They just cared that they could get things done well, fast and cheap.

Finding new products and markets is thus probably the key for wide international adoption of a national mesh operating system. The end of network neutrality could for example create a market for a private CDN product based on mesh computing. Exponential growth of data and privacy concerns could favour plug-and-play, self-orchestrated Big Data product based on mesh computing. The need for different parties to deploy software in smart sensors calls for a new operating system that supports secure resource sharing with little overhead. Ability to run same binary application on different architectures (ARM, x86, etc.) for higher resilience against hardware backdoors is an obvious product for sensitive applications that can all simplify corporate IT with end of Intel dominance.

The race for the first killer product of “mesh computing” is now open.

Reference

[1] 俄罗斯将开发自主操作系统减少Windows依赖 – http://tech.sina.com.cn/it/2010-10-28/08474800078.shtml
[2] 中国政府采购对win8说不, 国产操作系统被寄予厚望 – http://news.163.com/14/0521/08/9SONC5MK00014JB5.html
[3] DRDO:开发属于印度人自己的操作系统 – http://www.ifanr.com/news/221832
[4] Linux无处不在!让我来告诉你它到底在哪! – http://linux.cn/article-2480-1.html
[5] Montebourg serait favorable à la création d’un OS “made in France” – http://www.zdnet.fr/actualites/montebourg-serait-favorable-a-la-creation-d-un-os-made-in-france-xptdr-39801597.htm
[6] Ada – http://zh.wikipedia.org/wiki/Ada
[7] OpenSSI – http://en.wikipedia.org/wiki/OpenSSI
[8] MOSIX – http://en.wikipedia.org/wiki/MOSIX
[9] Kerrighed – http://en.wikipedia.org/wiki/Kerrighed
[10] XtreemOS – http://en.wikipedia.org/wiki/XtreemOS
[11] openMosix Project Ends – http://sourceforge.net/p/openmosix/news/2008/02/openmosix-project-ends/
[12] Kerlabs – http://www.societe.com/societe/kerlabs-492287552.html
[13] Akaros – http://akaros.cs.berkeley.edu/akaros-web/news.php
[14] Complement The machine with a distributed mesh cloud, welcome to the future – http://h30507.www3.hp.com/t5/Cloud-Source-Blog/Complement-The-machine-with-a-distributed-mesh-cloud-welcome-to/ba-p/165020#.U8e4Jv5mK00
[15] ZeroVM – http://en.wikipedia.org/wiki/ZeroVM
[16] Formal Verification of the Runtime of ZeroVm, a Sandbox Technique Based on NaCl – http://sebastien.bardin.free.fr/seminaire.html
[17] SE Linux – http://zh.wikipedia.org/wiki/%E5%AE%89%E5%85%A8%E5%A2%9E%E5%BC%BA%E5%BC%8FLinux
[18] Kylin Linux – http://zh.wikipedia.org/wiki/%E4%B8%AD%E6%A0%87%E9%BA%92%E9%BA%9F
[19] CoreOS – https://coreos.com/
[20] Docker – http://en.wikipedia.org/wiki/Docker_%28software%29
[21] PageMaker – http://zh.wikipedia.org/wiki/Adobe_PageMaker
[22] 4D – http://www.4d.com/solutions/develop/design.html
[23] HFS – http://fr.wikipedia.org/wiki/Hierarchical_File_System