Anomalies de fabrication de la cuve de l’EPR de Flamanville > Nucléaire – Enerzine.com

Anomalies de fabrication de la cuve de l’EPR de Flamanville

viaAnomalies de fabrication de la cuve de l’EPR de Flamanville > Nucléaire – Enerzine.com.

L’Autorité de Sûreté du Nucléaire (ASN) a annoncé mardi avoir été informée par Areva d’une anomalie de la composition de l’acier dans certaines zones du couvercle et du fond de la cuve du réacteur de l’EPR de Flamanville.

La réglementation relative aux équipements sous pression nucléaires impose au fabricant de maîtriser les risques d’hétérogénéité des matériaux utilisés pour fabriquer les composants les plus importants pour la sûreté.

Pour répondre à cette exigence technique, Areva a mené des essais chimiques et mécaniques sur un couvercle de cuve similaire à celui du réacteur EPR de Flamanville. Les résultats de ces essais ont montré, fin 2014, la présence d’une zone présentant une concentration importante en carbone et conduisant à des valeurs de résilience mécanique** plus faibles qu’attendues. Des premières mesures ont confirmé la présence de cette anomalie dans le couvercle et le fond de la cuve de l’EPR de Flamanville. Areva a proposé à l’ASN de réaliser à partir d’avril 2015 une nouvelle campagne d’essais approfondie sur un couvercle représentatif pour connaître précisément la localisation de la zone concernée ainsi que ses propriétés mécaniques.

L’ASN se prononcera sur le programme d’essais, contrôlera sa bonne réalisation et instruira le dossier que présentera Areva pour démontrer la résistance de la cuve du réacteur EPR de Flamanville. Elle fera notamment appel à son appui technique, l’IRSN, et au Groupe permanent d’experts dédié aux équipements sous pression nucléaires.

L’ASN a informé ses homologues étrangères concernées par la construction d’un réacteur EPR. La cuve d’un réacteur à eau sous pression est un équipement particulièrement important pour la sûreté. Elle contient le combustible et participe à la seconde barrière de confinement de la radioactivité.

Le couvercle et le fond de la cuve de l’EPR de Flamanville sont des pièces forgées de forme partiellement sphérique et réalisées en acier.

 

Anomalies de fabrication de la cuve de l'EPR de Flamanville

Dans un communiqué commun, Areva et EDF ont précisé que les résultats transmis à l’ASN à l’issue des premiers essais ont montré que « l’un des paramètres n’était pas respecté dans une zone présentant une concentration en carbone plus importante que la moyenne. »

« Les équipes d’EDF et d’Areva sont mobilisées pour réaliser au plus tôt les essais complémentaires, après accord de l’ASN sur leurs modalités, et apporter à l’Autorité toutes les informations permettant de démontrer la sûreté et la qualité des équipements concernés. En parallèle, les travaux du chantier EPR de Flamanville se poursuivent« , ont ils ajouté.

Ségolène Royal, ministre chargée de l’énergie, a quant à elle, pris acte du rapport de l’Autorité de sûreté nucléaire sur l’anomalie de la composition de l’acier, et a demandé à Areva d’y donner, sans délai, les suites qui s’imposent. La Ministre a également réitéré « toute sa confiance à ce dispositif de contrôle et d’expertise pour garantir la conformité du futur EPR à la réglementation de sûreté. »

Les résultats sont attendus pour le mois d’octobre et seront rendus publiques pour garantir la plus grande transparence sur le sujet.

* La résilience est un indicateur de la capacité d’un matériau à résister à la propagation de fissures. Dans le cas de la cuve d’un réacteur, cette propriété est notamment importante en cas de choc thermique, par exemple à la suite d’une injection d’eau froide dans le circuit primaire du réacteur.

Google : histoire d’un arroseur arroseur – InformatiqueNews.fr

Google : histoire d’un arroseur arroseur

viaGoogle : histoire d’un arroseur arroseur – InformatiqueNews.fr.

Google fait partie de ceux que l’on appelle les « barbares » qui causent des phénomènes de désintermédiation dans la chaîne de valeur des entreprises traditionnelles, mais son influence touche aussi les pure players.

 

C’est ce qu’indique un rapport de 160 pages publié en 2012 par la FTC et dont elle a transmis par erreur une version intermédiaire au Wall Street Journal (Inside the U.S. Antitrust Probe of Google) incluant des observations affligeantes pour le géant du Web. Ce rapport a établi que les pratiques de Google étaient anticoncurrentielles et que le géant de l’Internet abusait de sa position dominante sur le Web. Il indiquait que « ces pratiques ont causé et continueront a causé un réel préjudice aux consommateurs et à l’innovation sur les marchés de la publicité et de la recherche en ligne ». Le rapport conseillait d’engager une poursuite judiciaire sur trois activités de l’entreprise, ce qui aura conduit à la plus importante affaire judiciaire depuis le cas Microsoft en 1990. La FTC avait décidé en 2013 de classer l’affaire sans suite après avoir eu la garantie que Google changerait ses pratiques, ce qui souligne le Wall Street Journal est assez inhabituel pour la FTC.

 

Le rapport « intermédiaire » détaille les agissements d’abus de position dominante dans quatre domaines particuliers : la recherche sur Internet, la copie illégale de contenus, les campagnes publicitaires et les opérations particulières. Il rapporte selon le WSJ des précisions les fonctionnements d’Eric Schmidt, le CEO de Google, Larry Page er Sergei Brin, les co-fondateurs et Marissa Mayer, l’ancienne directrice du marketing. Il suggère que Google a une position dominante aux Etats-Unis plus forte que ce qui est généralement mesuré par les spécialistes. La part de marché des recherches sur Internet serait évaluée entre 69 et 84 % alors que les chiffres de Comscore avoisinent les 65 %.

 

21 Google 2

 

Concernant la recherche sur Internet, Google favorise ses propres activités en ligne et, par voie de conséquence, cause du tort à ses concurrents verticaux. Mais la FTC n’a pas jugé bon d’engager des démarches et pourtant Google a indiqué qu’il maintiendrait sa stratégie visant à promouvoir ses services de recherche spécialisés sur ceux de ses rivaux.

« Modern computers and computer networks enable human judgment to be automated, to be exercised on a vast scale and at a breathtaking pace. But it’s still human judgment. Algorithms are constructed by people, and they reflect the interests, biases, and flaws of their makers. As Google’s founders themselves pointed out many years ago, an information aggregator operated for commercial gain will inevitably be compromised and should always be treated with suspicion. That is certainly true of a search engine that mediates our intellectual explorations; it is even more true of a social network that mediates our personal associations and conversations ».
Our algorithms, ourselves, Le blog de Nicholas Carr

Concernant les contenus, de nombreuses entreprises se sont déjà attaqué à ce problème mais on dû baissé pavillon en préférant signer un accord à engager un bras de fer. A de multiples reprises, Google a utilisé la menace d’exclure des sites de contenus lorsque ceux-ci ne lui permettaient pas d’utiliser leurs contenus dans les résultats obtenus suite à des recherches d’internautes.

Troisième point, est-ce que Google a illégalement empêché des publicitaires de lancer des campagnes sur des moteurs concurrents ? Oui, en augmentant ses propres tarifs dans une telle situation. Selon la FTC, Google a révisé sa politique pour donner plus de contrôle aux publicitaires. Enfin, Google a-t-il restreint d’autres sites qui publient les résultats produits par le moteur de Google et qui travaillent avec d’autres moteurs de recherche. Sur ce point, Google ne s’est engagé à aucun changement.

Des entreprises comme Yelp ont engagé des poursuites judiciaires contre Google pour pratiques anti-concurrentielles et de son côté, la Commission européenne poursuit ses propres investigations.

 

Mais Google possède un soutien de poids de la part de l’exécutif américaine et de Barack Obama. Il faut déjà rappeler que Google a été la deuxième source de financement en provenance des entreprises de la campagne d’Obama en 2012. Il a explicité cette position dans une interview au site en ligne re/code, Barack Obama n’a pas hésité à accuser l’Union européenne de faire preuve d’opportunisme dans sa lutte sur le respect de la vie privée ou de pratiques anticoncurrentielles. « Nous dominons l’Internet, Nos entreprises l’ont créé, l’ont étendu, l’ont perfectionné à un niveau auquel l’Europe ne peut pas concurrencer », a asséné le président américain pour qui la démarche de l’Europe contre les géants du Net, au rang desquels Google et Facebook sont en première ligne, est principalement dictée par des intérêts commerciaux.

« Il s’agit d’intervenir sur les situations caractérisées d’abus de position dominante, en agissant soit au niveau national (comme vient de le faire le Ministre de l’Économie dans le tourisme, à nouveau), soit au niveau européen (comme c’est le cas actuellement pour Google) », considérait le rapport Lemoine publié en novembre dernier (…) De même, la politique européenne de la concurrence a engagé différents actions, notamment vis-à-vis de Google : il est indispensable qu’elle aille au bout. En matière fiscale également, il y a du pain sur la planche. L’enjeu est de se faire respecter ». (La nouvelle grammaire du succès |La transformation numérique de l’économie française).

Êtes-vous certain d’être en sécurité ?

viaÊtes-vous certain d’être en sécurité ? Voici la liste récapitulative des mesures de sécurité et difficultés posées par les points névralgiques les plus courants en entreprise, Par Alistair Forbes, Directeur Général de LogicNow.

Voici la liste récapitulative des mesures de sécurité et difficultés posées par les points névralgiques les plus courants en entreprise.

La cybercriminalité et les failles de sécurité informatique font encore et toujours la une des journaux, sans perspective de fin. On estime au cours des deux dernières années que près d’un tiers des entreprises ont été victimes d’une attaque en provenance du Net. Quantité d’entreprises s’estiment submergées par la charge de travail induite : la prise en compte de l’ensemble des aspects de la sécurité informatique est d’autant plus délicate que l’expansion des structures réseau et certains facteurs tels que le nomadisme professionnel impliquent toujours plus de domaines à sécuriser. Même des opérations classiques comme l’installation périodique des derniers correctifs en date auront tôt fait de devenir des tâches sisyphéennes. Il importe, par conséquent, d’assurer une protection en continu en prenant des mesures essentielles. En un sens, la cybercriminalité s’apparente au football : la plupart des attaques se produisent à partir de situations courantes.

Les trois premiers points correspondent à des mesures mises en œuvre par la quasi-totalité des entreprises. Il importe de contrôler si l’actualisation et la couverture de l’infrastructure sont maîtrisables en interne ou si des failles de sécurité existent d’ores et déjà. Quant aux autres points, ce sont ceux sur lesquels les PME en particulier regardent à la dépense, tolérant par là-même un certain risque.

Le contrôle de sécurité en six points :

Gestion des correctifs – Le principe est élémentaire : installer régulièrement les derniers correctifs en date sur la totalité des systèmes d’exploitation et solutions logicielles, à l’échelle de l’infrastructure informatique. Alors pourquoi cette mesure simple met-elle en exergue une faiblesse des plus patentes au sein des entreprises ? Malheureusement, pour nombre de responsables informatiques, la gestion de correctifs s’apparente aujourd’hui à une boucle sans fin du fait d’une infrastructure en plein essor, et omettre d’actualiser un correctif sur un seul poste crée une faille de sécurité. Les équipements mobiles sont, eux aussi, visés puisqu’ils servent à accéder à cette infrastructure.

Derniers outils de protection en date (antivirus et pare-feu) – Les attaques par des virus, vers, chevaux de Troie et applications web sont l’une des causes les plus courantes de perte de données pour les entreprises de taille moyenne. Au nombre des mesures élémentaires de sécurité figure l’installation systématique de mises à jour sur toutes les machines, même sur les terminaux mobiles. Aussi anodin que cela puisse paraître, il devient de plus en plus difficile, pour les responsables informatiques, de veiller à ce que tous les équipements soient actualisés en temps voulu.

Sécurisation de la messagerie – Théoriquement, les menaces de virus et logiciels malveillants dans les courriers entrants sont d’ores et déjà détectées et interceptées par une solution logicielle de protection de la messagerie comportant un antispam. La sécurité des données est, dans une large mesure, assurée par le stockage crypté et infalsifiable des courriers électroniques ainsi que par la faculté d’opter pour un archivage conforme sur le plan juridique.

Analyses de sécurité réseau – Afin d’écarter tout doute, il est recommandé de procéder régulièrement à des analyses du réseau – sans omettre les environnements virtuels, terminaux mobiles et équipements réseau. En l’occurrence, les systèmes d’exploitation et applications doivent satisfaire à des contrôles de sécurité reposant sur des standards du marché de type OVAL (Open Vulnerability and Assessment Language) et SANS Top 20 (SysAdmin, Audit, Network Security).

Analyse des fichiers-journaux – Nombre d’entreprises ne remarquent même pas, ou alors trop tard, qu’elles sont victimes d’un cybercrime. Parmi les stratégies de sécurité efficaces, citons un suivi, en temps réel, des données consignées dans les journaux. L’analyse régulière des journaux d’événements intéressant la sécurité s’avère, elle aussi, essentielle. Dès lors seulement, il sera possible de déceler très tôt les incidents critiques, les activités suspectes et les évolutions des risques, et de prendre aussitôt des les mesures correctives qui s’imposent. Voilà qui suppose l’instauration de règles de suivi, de contrôles d’accès ainsi que d’activités et d’applications spécifiques (systèmes de détection et de prévention des intrusions, pare-feu, par exemple) qui s’avèrent importants pour la sécurité du réseau.

Gestion des équipements mobiles – De nos jours, les terminaux mobiles sont le talon d’Achille de nombre d’entreprises. Du fait de certaines tendances telles que le phénomène BYOD – avec des collaborateurs qui se servent de leurs propres terminaux mobiles pour travailler, il est pratiquement impossible aux responsables informatiques de garantir la sécurité. Un outil dédié à la gestion de ce parc de terminaux mobiles fait aujourd’hui, par conséquent, partie intégrante de toute solution de support informatique globale.

Certes, de nombreux autres critères ont trait à la sécurité informatique. La sécurité des données ne peut se concevoir sans solution de sauvegarde fiable. Informer régulièrement les collaborateurs sur les failles de sécurité et les sensibiliser à cette problématique (dont ils sont bien souvent la cause) contribue également à renforcer la sécurité informatique dans l’entreprise. Néanmoins, en règle générale, la question est de savoir si toutes ces mesures sont véritablement maîtrisables en interne ou s’il convient de collaborer avec un partenaire informatique pour réduire les risques et les dépenses.

Plutôt que d’implémenter purement et simplement en interne des mesures de sécurité, la collaboration avec un prestataire de services informatiques est envisageable. Grâce aux solutions SaaS et à l’administration à distance, ces prestataires peuvent faire en sorte que toutes les mises à jour de sécurité soient systématiquement installées et l’infrastructure intégralement couverte.

Dans le secteur des prestations informatiques, on constate en matière d’assistance, une forte demande en faveur de solutions de sécurité et de services de sécurité administrés. Grâce à des plates-formes logicielles d’administration à distance lui permettant de proposer toutes ces mesures de sécurité individuellement ou de les gérer dans le cadre d’une offre de sécurité groupée, ce secteur d’activité réserve actuellement de formidables opportunités aux prestataires de services et fournisseurs de systèmes en matière d’assistance à sa clientèle

What’s fueling the African Growth?

viaWhat’s fueling the African Growth?.

A few decades ago, when Africa was crumbling under the burden of debt, economic forecasts were very pessimistic. But the vigorous growth of African economies has proven them wrong. Where does the African growth come from? What are its specificities? What does Africa need to be able to race with other great emerging countries?

ParisTech Review – We often speak of Africa as if it were a single entity. Are we perhaps mistaken by the word?

Lionel Zinsou – It would obviously be absurd to reduce to a single model all 54 African countries: they cover a wide range of economic specializations and levels of development. Nevertheless, the idea of an African unity is far from being absurd and we should be aware of the fact that this claim comes from the Africans themselves. It is expressed under several forms: recognition within international institutions, representation at the G20 (the seat of South Africa, in this regard, is very important), lobbying in favor of a permanent membership within the Security Council of the United Nations… The increasing role played by the African Union should also be taken into account. The AU headquarters and the UN Economic Commission for Africa are both located at Addis–Ababa, which plays the role of capital of the continent.

 

This unity claim responds to a significant trend of economic integration. African countries increasingly trade between themselves, and not only goods: foreign direct investment inside the continent is also very dynamic. For example, South Africans invest in telecom, gold mining, agribusiness. They also create financial firms, especially regarding private equity. Morocco invests in banking and transport. Egypt is turned towards Sudan and East Africa. These transborder financial flows reflect the emergence of regional powers, capable of exporting capital. Obviously, there are also many signs of differences in matters of development.

 

Are these differences of rhythm signs of different growth regimes? More broadly speaking, what are the factors behind the economic takeoff of the continent?

Growth patterns vary from one country to another and this forces us to consider the complexity of the causes of growth: several variables can be identified to explain the current dynamism of Africa. These can combine differently according to the countries that are examined. Let’s try to get a clearer picture.

 

The rise in relative prices of minerals and agricultural raw materials (food, cotton) is often put forward. It is true that there is a scarcity trend for a number of these materials, whose prices tend to rise. It should be known, however, that this increase is uneven: it is low for cotton, a little stronger for coffee and cocoa, real but volatile for hydrocarbons and finally, strong for rare earths and metals.

 

But what seems equally important is that at the same time, there has been a decline in the price of manufactured goods, which are still mostly imported. This double movement is quite interesting: compared with ten years ago, for a given quantity of cotton or diamonds, you can now buy more machine tools, agricultural equipment and equipment to develop infrastructures… As a whole, the continent has had a trade surplus for many years. The double movement of rising prices for local products and decreasing prices for imported products results in a significant effect in terms of purchasing power which economists call “terms of trade”.

 

The second major variable is that, over the past fifteen years, there have been positive cash flows. This is more pronounced in Morocco, less in Benin, but it is a movement that affects the whole continent and that is fundamental to my eyes. From 1960s to the 1980s, we witnessed, on the contrary, high capital outflows. Today, it is the exact opposite.

 

Could you elaborate on the nature of these capital flows?

 

Debt reduction, to start with. While many highly indebted countries spent a substantial part of their income to pay interests, debt reduction has drastically reduced these outflows of capital.

 

This deleveraging has taken two forms. The cancellation of debt, first: the HIPC (“Heavily Indebted Poor Countries”) cancelled part of their debt in exchange for the development of social services. This has been a true revolution. It is also a much wiser way to manage development aid: when working with direct aids to support projects that must be managed over the long–term, for one billion of aid that is paid, only 400 million will be used in the field. Whereas if we cancel the debt, one billion equals to one billion.

 

Second form: loan repayment. Countries such as Angola, Algeria and Nigeria have repaid their debt. Within a decade – without neglecting the impact of African GDP growth – the average public debt has decreased from 125% of the GDP to 25%. Such a deleveraging of the economy gives the possibility to re-borrow, but in smarter, cheaper ways; or for example, invest in projects that stimulate economic growth and not only pay for operating expenses.

 

Apart from debt reduction, capital inflows also play a great role. For example, the flow of funds from the diaspora is very important. In Morocco, this represents 15% of GDP, for example. In Cape Verde, it is more than a half! If we consider the weighted figures, Nigeria and Sudan are the two countries that benefit the most from these inflows. Altogether, the diaspora brings 50 to 60 billion per year, an amount equivalent to the total of the official development aid.

 

Finally, there is the foreign direct investment. I mentioned earlier the investment of African countries in other African countries. But of course there are inflows from outside the continent: Europe, America, Asia… The big emerging economies have drawn the global focus on the interests of Africa. Brazilian funds can be found everywhere in Angola and Mozambique. China has mainly invested in natural resource sectors and infrastructure. India has completed the largest transaction ever made in Africa: the purchase of the Kuwaiti Zain African telephone network by Bharti. There would be many other examples to give out… Even great traditional investors – Europe and the U.S. – are starting to regain interest. We are now in a phase of emulation and acceleration.

 

A fact very few people know of: if you take the whole continent, it has a current account surplus, which is partly due to the trade surplus, and partly to the excess of capital flows.

 

This can help accumulate reserves – Africa is clearly following the footsteps of China. Did you know for example that the accumulated assets of the African Central Banks represent $500 billion, more than the EU’s central banks? These assets, it is true, are concentrated in very few institutions: namely, the Central Bank of Nigeria, of Algeria and of Libya.

 

It is easy to understand how this context can trigger economic growth, which reached 5% per year for the entire continent. But more specifically, what fuels this growth?

 

Most of the growth is fueled by productivity gains due to technology. The increasing purchasing power that I mentioned earlier enables to import productivity, by incorporating technology in the production of goods and services. This is particularly the case for telecommunications, but also for agricultural production. In agricultural production, productivity sometimes jumps from 1 to 10. In Benin, for instance, cotton productivity per hectare varies from 600 kg to 3 tons (with an average of 700 kg). You can see what is made possible by injecting capital and integrating technology! If we take a look at the market of milk production, within the same animal species, production can vary from ½ liter to 15 liters per day, a difference of one to 30. We can confidently expect 30 to 40 years of economic growth, simply from the increase of agricultural productivity.

 

The development of services is also a source of growth. Africa it is not only about cassava, oil and rare earths: it is about all this, but also about transports, trade, tourism, telecommunications, etc. Agricultural production and mining contribute very little to the GDP.

 

Accelerated banking should also be mentioned. It allows to bring more activities into the formal economy, but also to develop credit and therefore, investment.

 

And what about demographics?

 

It has become a positive factor. The African situation looks very similar to the Chinese one fifty years ago, despite a certainly different demographic future. Africa is the only continent that can rely today on such a considerable – and almost completely young – labor force.

 

A small distinction should however be made: although the population contributes in stimulating the growth, the integration of the youth into the labor market is often difficult. This reason for it is very simple: African growth is highly intensive in terms of capital. Water, agriculture, energy, infrastructure are the most capital intensive activities and they are precisely on the agenda. If you take the agricultural upstream, for example, for every dollar of revenue, you need to invest two dollars of capital. However, if you consider the food processing industry, you need to invest half a dollar for one dollar of revenue. The manufacturing industry has a coefficient of capital four times lower than the primary sector. This capital intensive growth, while the continent has little capital and capitalists, also explains why African growth is around 5% and not 7.5%, as in India or China, where growth is more labor intensive.

 

But, as you were telling us, there is capital.

 

Yes, but it still needs to be distributed properly. On this side, considerable efforts need to be made. The reserves of the Central Banks that I mentioned earlier mainly consist in U.S. Bonds. This is certainly not the best way to finance an economy…

 

African countries suffer today from an underdeveloped financial system. To give you an average number: in today’s world, the financial assets of the economic agents (stocks, bonds and liabilities of banks) are roughly four times the global GDP. In Africa, they are about one time the GDP. This gives you an idea of what remains to be done: building an appropriate financial system in order to finance the economy properly is crucial issue.

 

What are the most advanced countries? Are there any African “lions”, the same way there were Asian “dragons” or “tigers”?

 

It’s a little too early to see who will be leading the race, while growth rates are still relatively undifferentiated. It is also difficult to say whether social tensions will disrupt the growth models: Tunisia and Egypt were not protected from the “Arab Revolution” by their 7% growth. However, we can see rapid progress in Anglophone and Lusophone Africa. The historical role of leaders is also highly discriminating. Morocco in North Africa, Ghana in West Africa, Mauritius in the Indian Ocean, Botswana in Southern Africa… are getting ahead.

 

What are the four or five largest companies in Africa?

 

As everywhere in the world, they are the big oil companies of large producing states (Sonatrach in Algeria or Sonangol in Angola) or mining companies (De Beers, OCP in Morocco). More recently, two groups of South African Telecoms (MTN and Vodacom) joined the top ten; and even a major retailer (Shopsite); the next groups are from the construction and supply sectors. The needs and consumption of the new African middle class – young, modern and solvent – have made their way into these rankings. They will certainly dethrone raw materials exportations.

 

We haven’t talked about the industry. You say that the Africa economy is largely based on services. But what about the secondary sector?

Here again, we need to make distinctions. Tunisia, Morocco, Egypt, South Africa are industrialized countries. Egypt, for example, exports fertilizers, cables, textiles, electronic components, etc. But on the whole, the continent is hardly industrialized. This reflects several problems.

 

The first concerns the fragmentation of the domestic markets. There are 54 countries within Africa and many markets are tiny. This is why regional integration is essential, and it is also one of the reasons why East Africa goes a little faster now: it integrates faster and better than West Africa.

 

The question of scale is fundamental. This is proven by a simple examination of facts. Consider the industries that don’t rely on scale issues, like the food industry: they grow at breakneck speed. Breweries are also a good example: the size of local markets is sufficient. They even allowed world booms. If you take South African Breweries (SAB–Miller), for example, they are no 2 in China, n°.2 in the U.S. and no 1 in Australia, well positioned everywhere else… In contrast, the textile industry, for instance, depends very much on the scale and suffered during the recent years.

 

Second factor: the relative weakness of solvent domestic demand. Take the example of the automotive industry. Today, annual sales across the continent reach hardly two million vehicles, a market comparable to France, but concerning one billion people over 30 million km². This demand is too low to help the development of an industry (as was done recently in Malaysia, for example). But some signs of change have appeared: the Renault plant in Tangier is one of these signs that show the emergence of a sector where the price of specific offer is well-adapted to the purchasing power of consumers. A new range of consumer goods and services (e.g. telephony) is starting to emerge, specially designed for the continent by investors from emerging countries. Demand will quickly increase from two to four million vehicles a year.

 

Should we expect to see Africa replace China as the “workshop of the world”?

Probably not, at least not right away. The game has changed. For a long time, Africa has supplied raw materials to Europe. Today it has other clients, starting with China, India or Korea… that have taken the place of Europe as workshop of the world. In the medium term, Africa will become its own supplier and its own client: it will produce first of all for itself.

 

It already has an endogenous growth: the crises that stroke its main trading partner, the European Union, in 2012 and again in 2013, didn’t have much negative impact on the African economy. Capital is needed to fuel the domestic and endogenous growth: it is thus crucial to establish a supply structure. Progress is being made. And where capital markets are more efficient – in South Africa, Nigeria, Morocco, Ghana – growth is stronger.

 

To summarize: improving the terms of trade is an essential parameter of growth and Africa now enjoys a favorable position regarding its exports. But more importantly, there is what economists call the “invisibles” i.e. the financial flows. Their existence and efficiency are the bedrock upon which economic players can take advantage of this favorable position. Without capital, without financial markets, without investment, without capitalists, without the generation of young entrepreneurs – among other assets of modern Africa – the rising price of oil or palm oil would simply inflate revenues and fuel corruption and predation.

 

Finally, there is the labor factor: demographics are a big chance when combined with productivity gains, through training and technical progress. To increase the purchasing power, what you need first is productivity… This brings us back to the central question of funding, which is necessary in order to incorporate technology and increase productivity.

 

In developed countries, the solvency of demand was also made possible by the development of the welfare state, which released households from a number of concerns and contributed to the growth of consumption. Is it not a possible path for Africa?

Certainly. And beyond the security provided by the welfare state, there is the question of redistribution and transfers, which can boost consumption and fuel growth. But the question only arises in the most advanced African countries, mainly in the North and the South of the continent. Elsewhere, we see a very different problem: the inefficiency of government. The issue is not to develop the welfare state – at least not yet. The first step is to build a state, a state capable of raising taxes: today, there is still very little income tax or VAT across the continent. Instead of modern taxes, it is mostly tariffs that allow government revenues. This is definitely an obstacle to development. African goverments can only take an average of 20% of their GDP, against 40% for developed countries. So their first emergency is to build a state. The issue of redistribution will only come in a second phase.

 

Les grandes tendances 2015 du numérique

viaLes grandes tendances 2015 du numérique.

Depuis 2007, l’Observatoire Netexplo met en lumière les innovations numériques issues du monde entier, en privilégiant l’usage plutôt que la technologie. Netexplo a ainsi découvert Twitter, Shazam, Groupon ou encore Siri. Les tendances 2015 : l’intelligence, qu’elle soit dans la ville, la santé ou bien… artificielle.

Fondé par Thierry Happe, publicitaire passé par Havas, et Martine Bidegain, ex-DRH d’Air France, Netexplo, précédemment Netexplorateur, est un observatoire privé indépendant qui étudie les répercussions du numérique sur la société et les entreprises. Et défriche le monde à la recherche des nouveaux usages du numérique dans toutes ses dimensions : technologique, commerciale, managériale, sociale, sociétale et écologique.

 

La conviction des fondateurs de l’Observatoire Netexplo est double : l’innovation réside davantage dans la transformation des pratiques que dans la technologie nouvelle elle-même ; si la technologie reste pour un certain temps concentrée dans les meilleures universités du monde (MIT, Stanford, Technion…), les usages numériques issus des pays émergents (Inde, Brésil, Chine, Afrique du Sud, Kenya, Chili…) vont, dans un avenir proche, s’imposer comme les nouveaux écosystèmes de l’information, du commerce, de l’écologie ou de la solidarité.

 

Avec son réseau mondial de captation de l’innovation numérique constitué d’une vingtaine de grandes universités américaines, asiatiques, africaines et européennes ainsi que d’un groupe d’experts internationaux présidé par Joël de Rosnay, Netexplo présente chaque année un palmarès des 100 initiatives numériques mondiales les plus prometteuses et élit dix lauréats de l’année – et un Grand Prix – qui interviennent au Forum Netexplo à Paris, en partenariat avec l’Unesco. Cette année, le jury a distingué un sparadrap qui transforme la chaleur du corps en électricité et permet de recharger de petits appareils électroniques : le projet Wearable Thermo-Element du professeur Byung Jin Cho de l’Institut supérieur coréen des sciences et technologies (Kaist).

 

Les neuf autres lauréats sont Kappo (Chili), une application pour les cyclistes qui transmettent leurs données afin de faire de Santiago une ville mieux adaptée au vélo ; Rainforest Connection (États-Unis), qui place des smartphones recyclés sur les arbres des forêts primaires pour détecter leur abattage illégal dans un rayon d’un kilomètre ; WoeLab 3D-printer (Togo), une imprimante 3D à bas coût fabriquée à partir de déchets informatiques et électroniques, primée par la Nasa ; Baidu Kuai Sou (Chine), des baguettes connectées pour détecter la présence d’huile contaminée dans les aliments, une pratique très courante en Chine ; Scio (Israël), un mini-spectromètre relié à un smartphone capable de décrypter la composition moléculaire d’un aliment ou d’une boisson (voir encadré ci-contre sur les scanners alimentaires) ; Sense Ebola Followup (Nigéria), une application pour mobiles qui permet un suivi en temps réel de l’épidémie grâce à des données géolocalisées ; Branching Minds (États-Unis), un outil destiné aux enseignants et aux parents qui détecte les difficultés des élèves avant qu’elles ne soient trop difficiles à corriger ; PhotoMath (Croatie), une application gratuite pour photographier une équation et en donner la solution, et surtout la méthode pour la trouver ; Slack (États-Unis), une messagerie unifiée (courrier électronique, vidéo type Skype, réseaux sociaux, partage de fichiers) pour faciliter le travail collaboratif.

 

Extension du domaine de l’intelligence

 

Outre les dix lauréats, d’autres inventions issues de la sphère numérique ont été présentées au forum par Julien Lévy, professeur à HEC et auteur de l’étude annuelle sur les tendances, «Netexplo Trends Report». La tendance phare de l’année est la smart city (ville intelligente) qui regroupe les outils numériques visant à faciliter la vie des urbains. Parmi les découvertes Netexplo 2015, présentées à l’Unesco début février, on trouve ainsi l’application de réalité virtuelle NoAd (États-Unis), qui transforme les affiches publicitaires du métro de New York en oeuvres d’art. Pas sûr que les responsables marketing apprécient, mais cette application ravira les nombreux passants dérangés par l’hypertrophie publicitaire.

 

Avec le mobilier urbain connecté BlocParc 3.0 (France), c’est la municipalité qui diffuse des informations géolocalisées sur les smartphones des administrés via NFC, iBeacon ou QR Code. Dans le même esprit, SmartWalk (États-Unis) projette sur les murs ou les trottoirs des informations concernant les transports en commun et le déplacement multimodal. Encore plus ciblée, Local.app (Allemagne) télécharge automatiquement les applications des magasins ou cafés dans lesquels on entre. Deuxième tendance forte détectée par les capteurs du réseau Netexplo, la « smart safe exploration» (exploration intelligente et sûre) ou comment le numérique devient une bulle qui nous protège du monde extérieur. Le drone bracelet Nixie (États-Unis) peut s’envoler pour nous filmer ou nous prendre en photo et revenir sur notre poignet.

 

Quant au braincontrolled drone de l’université du Minnesota (États-Unis), il se pilote, comme son nom l’indique, grâce aux ondes cérébrales. Une avancée majeure pour les personnes handicapées, mais aussi pour les militaires qui ne manqueront pas de s’y intéresser. Think Dirty (Canada) est dans la mouvance du Scio et des autres spectromètres portables, puisqu’il renseigne sur la présence de plus de 68 000 molécules plus ou moins dangereuses présentes dans les cosmétiques. Toujours dans l’optique d’un numérique qui protège, le projet Programmable Automotive Headlights (États-Unis) rend les phares des voitures intelligents pour s’adapter aux conditions météorologiques et avertir le conducteur des dangers de la route. Harken (Espagne) permet d’appeler les secours en cas de situation critique grâce aux capteurs insérés dans la ceinture de sécurité. Les émetteurs Grillo (Mexique) peuvent alerter sur l’imminence d’un séisme à Mexico deux minutes avant l’événement, et ainsi sauver des vies dans un pays hautement sismique. Quant à SickWeather (États-Unis), il analyse les réseaux sociaux et prévient les épidémies en envoyant des alertes.

 

Des progrès tous azimuts… inquiétants ?

 

Troisième grande tendance : le retour de l’empathie, avec l’irruption de «mentors numériques». Mana.bo (Japon) est une application de soutien scolaire au prix très abordable, dans un pays où les offres de tutorat, souvent onéreuses, représentent un marché de 10 milliards de dollars. Les Cheers (États-Unis) sont des faux glaçons munis d’un détecteur d’alcool et d’une diode qui s’allume lorsque la dose dangereuse est dépassée. Avec le Natalia Project (Suède), la communauté protège les défenseurs des droits de l’homme grâce à un bracelet et son GPS intégré. Si le porteur est en danger, il tire dessus et envoie une alerte au QG de l’ONG Civil Rights Defenders à Stockholm. Avec Iodine (États-Unis), la foule peut aider les malades, puisque les 100 000 patients de la base donnent leur ressenti sur les traitements médicaux. Plus tendancieuse, l’application CrowdPilot (États-Unis) permet à une tierce personne d’écouter vos conversations téléphoniques et d’envoyer des SMS pour vous coacher.

 

Jusqu’où irons-nous dans la transparence que permettent ces nouveaux outils numériques ? Lors de son discours de réception du prix Nobel, Patrick Modiano a rappelé que « les réseaux sociaux entament la part d’intimité et de secret de nos vies». L’irruption annoncée de l’intelligence artificielle ne va rien arranger sur ce terrain. Ainsi, l’application CrowdEmotion (Royaume-Uni) mélange intelligence artificielle et reconnaissance faciale pour analyser les émotions d’un bébé. En attendant, celles des adultes… Thync (États-Unis) est un casque issu des neurosciences qui peut modifier notre humeur via les ondes électriques. Moins effrayant et plus doux, la couveuse connectée Babybe (Chili) capte la chaleur et les émotions des mères pour les transmettre aux bébés prématurés.

Étrange et fascinante à la fois, The Machine To Be Another (Espagne), imaginée par le collectif d’artiste BeAnotherLab, utilise les lunettes de réalité virtuelle Oculus Rift pour nous faire éprouver les sensations d’une autre personne. Les possibilités offertes par l’univers numérique semblent sans fin. Concernant plus spécifiquement l’intelligence artificielle, serat-elle un outil d’amélioration des individus ou se substituera-t-elle aux humains ? Grâce, entre autres vigies, à Netexplo, on ne pourra pas dire que nous n’étions pas prévenus.

Batteries from electric vehicles for a stable power grid | Intelligent Utility

Batteries from electric vehicles for a stable power grid

viaBatteries from electric vehicles for a stable power grid | Intelligent Utility.

Electromobility and power storage are two core elements of the move to alternative forms of energy. A project is bringing Bosch, the BMW Group , and Vattenfall together to drive progress on both technologies by interconnecting used batteries from electric vehicles to form a large -scale energy storage system in Hamburg . Its energy is available within seconds and can help keep the power grid stable.

Bosch, BMW , and Vattenfall believe in this concept and as a result have launched the Second Life Batteries alliance. BMW is supplying batteries from its ActiveE and i3 electric vehicles, while Vattenfall has agreed to operate the massive storage system at its site for a period of ten years. Bosch is in charge of integrating the batteries and managing the system. The storage solution will become part of an already existing Vattenfall virtual power plant. This allows the partners to combine various small, decentralized power generating systems to market them as a shared power plant. Still valuable

Lithium-ion batteries still have high storage capacity at the end of their life cycle in electric vehicles. As a result, they are still very valuable and can be used extremely efficiently as stationary buffer storage for many years to come. The project allows the three partners to gain numerous new insights into potential areas of application for such batteries, their ageing behaviour, and their storage capacity. Bosch’s management algorithm is intended to ensure maximum service life and performance as well as other benefits.

The company has already gained its first experiences in the field. In Braderup, located near the German island of Sylt, Bosch has built one of Europe’s largest energy storage systems to temporarily store the energy generated by a wind farm if needed. To do so, the company has connected thousands of small lithium-ion batteries to form a large-scale network. In Kelsterbach, a community close to Frankfurt , Bosch has installed a similar lithium-ion storage system at a housing complex. This knowledge is also making a difference in the Second Life Batteries project. “The project is important because it combines two strategically significant goals,” says Bosch CEO Dr. Volkmar Denner, who believes in the future of the electric drive. “In electromobility, we see a future mass market accompanied by many new business models and solutions. Stationary energy storage systems that enable people to continue making good use of used batteries are part of this. Such decentralised storage systems allow us to make a major contribution to a secure power supply.” Core element of the move to alternative forms of energy

Energy storage systems are considered to be a core element of the move to alternative forms of energy. They can absorb solar power during the daytime and release it at night – or secure wind power for moments when the wind is calm. By doing so, they help better integrate the often fluctuating supply of renewable energy into the power grid. Electromobility can also benefit from this development by making it possible to charge vehicles with solar power at night along with a host of other options. In addition, a storage system can supply its energy rapidly to stabilise power grids as part of a virtual power plant, for example.

Two megawatts of capacity

The current plans call for the construction of a storage unit with an output of two megawatts (MW) and an installed capacity of two megawatt hours (MWh) in Hamburg . The energy will be fed into the energy balancing market to balance out short-term fluctuations in the power grid. More than 100 vehicle batteries will be interconnected to achieve these targets. The entire system is compact enough to fit in a small building. It provides enough output in mathematical terms to supply 30 four-person households with power for seven days. The partners expect the storage unit to be operational by the end of 2015.

Links BMW homepage: http://bit.ly/1zZQifK Vatenfall newsroom: http://bit.ly/1I1Kf0s Bosch stationary energy storage solutions: http://bit.ly/1sOKZ5g Energy storage system in Braderup: http://bit.ly/1BUP0W0 Energy storage system in Kelsterbach: http://bit.ly/1wCbpno

Contact: Susan Shrosbree , phone: +44 (0)1895 838545

The Bosch Group is a leading global supplier of technology and services. In 2013, its roughly 281,000 associates generated sales of 46.1 billion euros . (NB: Due to a change in accounting policies, the 2013 figures can only be compared to a limited extent with the 2012 figures). Its operations are divided into four business sectors: Mobility Solutions, Industrial Technology, Consumer Goods, and Energy and Building Technology . The Bosch Group comprises Robert Bosch GmbH and its roughly 360 subsidiaries and regional companies in some 50 countries. If its sales and service partners are included, then Bosch is represented in roughly 150 countries. This worldwide development, manufacturing, and sales network is the foundation for further growth. In 2013, the Bosch Group invested some 4.5 billion euros in research and development and applied for some 5,000 patents. This is an average of 20 patents per day. The Bosch Group’s products and services are designed to fascinate, and to improve the quality of life by providing solutions which are both innovative and beneficial. In this way, the company offers technology worldwide that is “Invented for life.”

The company was set up in Stuttgart in 1886 by Robert Bosch (1861-1942) as “Workshop for Precision Mechanics and Electrical Engineering.” The special ownership structure of Robert Bosch GmbH guarantees the entrepreneurial freedom of the Bosch Group , making it possible for the company to plan over the long term and to undertake significant up-front investments in the safeguarding of its future. 92 percent of the share capital of Robert Bosch GmbH is held by Robert Bosch Stiftung GmbH , a charitable foundation. The majority of voting rights are held by Robert Bosch Industrietreuhand KG , an industrial trust. The entrepreneurial ownership functions are carried out by the trust. The remaining shares are held by the Bosch family and by Robert Bosch GmbH .

Additional information can be accessed at www.bosch.co.uk and www.bosch -press.com .

Follow us on Twitter/BoschUK and Facebook/BoschUK
This information was brought to you by Cision http://news.cision.com
http://news.cision.com/automotive-pr/r/batteries-from-electric-vehicles-…
The following files are available for download:
http://news.cision.com/automotive-pr/i/bosch-battery-release-jan-15,c161… Bosch battery release- Jan 15

Smart thermostats could help utilities combat the death spiral | Intelligent Utility

Smart thermostats could help utilities combat the death spiral

viaSmart thermostats could help utilities combat the death spiral | Intelligent Utility.

The forces transforming the utility ecosystem are well known. From the plummeting prices of solar energy and the rise of distributed generation, to the growth of smart home technologies that give consumers control over their energy use, the traditional utility business model is under assault from all sides.

Some have invoked the term “utility death spiral” to describe today’s transformation. While that may be hyperbole, the telecom industry provides a cautionary tale. In the 1990s, seemingly invincible telecom companies faced widespread disruption from cellular technologies.  The telcos that survived integrated a range of new technologies into valuable fresh products and services, ranging from long-distance calling to new optical fiber. Critically, the survivors didn’t resist cellular technology—instead they integrated new technologies into networks that are flourishing today.

While some utilities are fighting tooth and nail against technologies like distributed solar, forward-looking utilities are embracing a more dynamic approach by developing and deploying innovative new products and services. Smart thermostats are the latest tool in the arsenal for utilities to stay relevant with customers.

Those forward-looking utilities have already started evolving by supporting technologies like solar and electric vehicles. Several utilities have joined the solar revolution, with programs like community solar gardens that allow consumers and businesses to reduce energy costs by purchasing shares in a utility-owned PV array. Programs like this put utilities in the driver’s seat for new technologies that strengthen customer relationships. In Minnesota alone, new utility community solar programs are expected to catapult its solar industry from 14 megawatts today to 100 megawatts by the end of 2015.

Other utilities, such as Southern California Edison, have embraced electric vehicles. SCE customers lease or own more than 12,000 plug-in electric vehicles (about 10 percent of national EV sales), and SCE has partnered with automakers to boost EV adoption further. Not only does this bring utility customers an innovative, cost-saving new product, but it also provides the utility with better control and visibility into energy use across the grid. SCE can deploy programs to improve grid reliability by coordinating charging times within neighborhoods, avoiding peak-load spikes that could affect the entire grid.

Like solar and EVs, smart thermostats can help forward-looking utilities deliver value to their customers while making a significant impact on energy use. Home heating and cooling is responsible for up to 50% of home energy bills, in many cases the largest use of energy in the home. And consumers have already shown that they love the comfort, convenience and control of smart thermostats. In just four years on the market, Nest ramped up to sell 50,000 smart thermostats per month when it was acquired by Google in January 2014.

While smart thermostats can play a powerful role in a utility energy efficiency or demand response programs, so far they’ve been largely a consumer plaything. So what’s holding utilities back?

For one, utilities prioritize reliability and security above all. Technology companies tend to focus on usability and integration first, with security as an additive sub-benefit. There’s a natural disconnect: Many products on the market today, while terrific for consumers, aren’t compatible with the high standards for security to which utilities must adhere.

Secondly, many utilities haven’t figured out how to integrate smart thermostats within their existing home energy management system, which is critical to connecting with comprehensive programs that create a magical, connected experience throughout all aspects of the home and also drive savings. A smart thermostat on its own is just a comfort tool; within a HEMS, it becomes a master switch for energy reduction and a means to (finally) giving homeowners insight into just how much energy goes to heating and cooling.

Technology companies are beginning to design products with the utility’s priorities top of mind. For example, some companies are beginning to raise their product security standards as a matter of course. (Full disclosure: My company, CEIVA Energy, just reached ISO/IEC 27001:2005 Management System certification.) Other technology companies have also recognized the importance of meeting the utility on their level of customer security and privacy, and are innovating to meet the high standards required to unlock utility participation.

Additionally, technology companies are beginning to realize the importance of integration with existing utility systems. Much as quad-band cell phones work on multiple mobile standards, we must design utility devices to work flawlessly on every system under the sun. Farah Saeed, principal consultant at Frost & Sullivan, commented in a recent release, “increasing integration between forward-thinking thermostat and HEMS companies has the potential to make a significant impact on home energy management.”

Several pilot programs are starting to integrate smart thermostats across a broader home energy management platform. Look at National Grid’s Smart Energy Solutions program, which is the largest smart grid program in the Northeast and the blue print for Massachusetts’ state mandated grid modernization plan. Customers in the program receive Carrier’s smart thermostat, smart plugs, CEIVA’s gateway/in-home display and access to real-time smart meter data—all integrated, all at no cost to them. This gives National Grid a powerful energy efficiency solution while boosting convenience and comfort for consumers, achieving the ultimate utility win-win.

The smart thermostat surge is starting to catch fire. Consider that Carrier’s 200,000 installed smart thermostats throughout the United States are equipped for integration in utility home energy management programs, amounting to a powerful energy reduction capacity that just needs to be activated. Opower is also testing a smart thermostat platform that works across multiple networks and enables utilities to run integrated home energy management programs.

Many have warned that utilities are at risk of being relegated to “dumb pipes” in contrast to the new, innovative energy technologies disrupting the energy market. Yet just as solar energy or electric vehicles have proven they can bring key grid reliability benefits, smart thermostats are poised to become powerful weapons to combat the perceived utility death spiral.

Wannie Park is vice president of utility solutions at CEIVA Energy.

L’après-Bitcoin : quelles monnaies virtuelles pour l’économie collaborative?

L’après-Bitcoin : quelles monnaies virtuelles pour l’économie collaborative?

viaRSLN | L’après-Bitcoin : quelles monnaies virtuelles pour l’économie collaborative?.

On a beaucoup entendu parler de Bitcoin ces derniers mois, comme moyen de spéculer ou de participer à l’émergence d’une économie numérique plus collaborative. Mais comme nous l’expliquait l’activiste Stanislas Jourdan, la première « monnaie Internet » n’est pas exempte de défauts de fabrication qui la rendent, au final, assez peu éthique… Qu’à cela ne tienne ! Les monnaies virtuelles fleurissent désormais, chacune mettant en oeuvre, dans son fonctionnement et ses modalités d’échanges, différentes valeurs et visions de la « société idéale ». En voici quelques-unes.

Bitcoin : une utopie qui a du plomb dans l’aile

Bitcoin est née d’un idéal un peu libertaire : dans ce système décentralisé et de pair à pair, sans l’intermédiaire qu’est la banque, les coûts et les risques liés au bon fonctionnement du réseau sont répartis entre tous les utilisateurs. Dans la mythologie de ses promoteurs, cette monnaie donne un pouvoir au plus grand nombre, car plus nombreux sont les gens qui l’utilisent, plus le réseau gagne en puissance et valide ce modèle d’échanges alternatif comme valable et sérieux.

Techniquement, Bitcoin a pourtant pas mal de défauts : il y a toujours moyen de frauder, et le concept d’anonymat est toujours relatif. Mais surtout, le système perpétue les défauts du modèle actuel, nous expliquait Stanislas Jourdan – à savoir que c’est un système conçu pour transformer ses inventeurs en millionnaires. Du fait de son design en effet, plus le temps passe, et plus l’obtention de Bitcoin est longue et chère… cette monnaie basée sur la rareté entretient ainsi toutes les spéculations et génère asymétries et inégalités.

Il fallait donc partir sur d’autres règles, pour proposer des modèles de monnaie permettant d’adapter les échanges à la nouvelle économie… sans répliquer les défauts de l’ancienne. Chacune à sa manière, litecoin, namecoin, novacoin, dogecoin, terracoin, primecoin …, des monnaies souvent indexées sur le cours du Bitcoin, proposent un autre modèle. On vous en présente deux : SolarCoin et AuroaCoin.

SolarCoin : une monnaie écolo pour les Etatsuniens

Alors qu’on peut reprocher aux Bitcoins leur fort impact carbone du fait qu’ils imposent de faire tourner de puissants ordinateurs pour être produits, les SolarCoin seraient 50 fois plus économes en énergie grâce à un algorithme spécial. Leur vocation : encourager les comportements écologiques en rémunérant les économies d’énergie ou même la production d’énergie renouvelable par les citoyens qui possèdent, par exemple, des panneaux solaires sur leur toit.

SolarCoin sera lancé dans quelques semaines aux Etats-Unis, un pays où les particuliers peuvent déjà revendre l’énergie qu’ils produisent. Et les occasions d’étendre l’action écologique de cette monnaie ne manquent pas : dans un contexte de généralisation des smart grids dans des quartiers aux bâtiments producteurs d’énergie, SolarCoin pourrait par exemple servir d’intermédiaire pour échanger l’énergie directement entre les bâtiments.

En France, il faudra toutefois attendre encore un peu pour bénéficier des effets vertueux d’une telle monnaie, car dans l’Hexagone l’énergie produite par des particuliers ne peut être revendue qu’à ERDF, à des prix et conditions fixés par arrêté.

AuroaCoin : une monnaie égalitaire pour les Islandais

L’un des problèmes avec les monnaies virtuelles, c’est qu’elles sont soumises à la même contrainte que les réseaux sociaux et autres outils communautaires : elles ont besoin d’être adoptées par une masse critique d’utilisateurs dans un temps très court pour fonctionner. Et si on en distribuait une certaine somme, équitablement entre les membres d’une communauté, n’aurait-on pas un excellent levier pour démarrer les échanges ?

C’est ce qu’ont imaginé les créateurs d’AuroraCoin, une monnaie pensée sur le principe d’un revenu de base : en distribuant équitablement entre les citoyens islandais toute la somme préalablement produite, ils offrent une sorte de revenu garanti à chaque citoyen, sans condition, au nom de l’idée que chaque humain mérite une part de création monétaire pour sa contribution à l’économie (en vivant, en consommant…).

C’est le contexte de crise financière en Islande qui a motivé les créateurs, comme l’explique le site Coindesk : depuis l’effondrement du secteur bancaire en 2008, le gouvernement applique des contrôles stricts des capitaux en circulation sur son territoire. C’est pour contourner des restrictions qu’ils estiment « paralysantes » que les entrepreneurs ont créé AuroraCoin.

On touche donc ici à l’un des aspects les plus controversés des monnaies virtuelles : est-il légitime en effet qu’elles puissent faire concurrence aux monnaies nationales et que la valeur qu’elles créent échappe aux taxes qui financent l’Etat ? Par ailleurs, ne sont-elles pas une aubaine pour les trafiquants en tout genre ? Alors que l’un des fondateurs de Bitcoin a été arrêté pour blanchiment d’argent, la première des monnaies virtuelles est progressivement soit interdite, soit régulée en vue d’être taxée dans certains pays comme l’Allemagne ou la France.

Pour Stanislas Jourdan, la piste AuroraCoin est prometteuse mais demeure une question :

« Est-ce que les nouveaux-nés islandais auront droit à leur quote-part de monnaie passé le délai d’un an fixé par Auroracoin ? A priori non, et du coup, l’égalité n’est alors plus temporelle puisque les générations futures n’auront pas le même droit que les citoyens du présent. C’est cette lacune qu’essayent de résoudre les projets comme open UDC et uCoin« .

Métier : designer de monnaie

On le voit, derrière tout projet de monnaie alternative il y a des enjeux de société, et des questions à poser qui permettent de choisir un modèle de valeurs pour la communauté qui l’adopte. Alors, designer de monnaie est-il un excitant métier du futur ? Voici comment le décrit Etienne Hayem, chargé par la région Ile-de-France de mettre en place le Symba, une monnaie francilienne :

 « C’est un processus de design, on designe un flux de monnaie qui est créé quelque part, est détruit ailleurs et doit « couler » entre les différents acteurs de l’économie locale. Cela permet de prendre conscience de ce qui est vraiment derrière la monnaie : au-delà d’un système d’échanges il y a des conventions collectives, des responsabilités et des risques collectifs à partager – autrement dit, un contrat social. Sans une bonne gouvernance de la monnaie, la démocratie ne vaut rien ».

Les communautés qui adoptent leur propre système d’échange peuvent ainsi se poser la question : « quel futur voulons-nous ? Voulons-nous une ville plus propre, plus verte, ou plus partageuse ? Et comment agir ? ». Comme l’explique encore Etienne Hayem :

« Les monnaies comme l’Euro ou le dollar sont orientées sur le court terme et tirent leur valeur des dettes des gens. Le mouvement autour des nouvelles monnaies comme Bitcoin montre une autre voie : en devenant émetteurs de monnaie, les citoyens ont le pouvoir de choisir à quoi ils veulent donner de la valeur. C’est un peu le même principe que les certifications en ligne, quand les utilisateurs de sites communautaires peuvent se noter les uns les autres sur certains critères et se constituent un « capital social ».

On le voit, ce que gagne une monnaie qui réussit son pari n’a pas de prix : elle érige ses valeurs au fondement des échanges de la communauté… Alors, des monnaies collaboratives comme SolarCoin ou AuroraCoin pourront-elles faire en sorte que « le monde du partage remplace le partage du monde » comme l’a rêvé Claude Lelouche ? Si vous en êtes persuadé, alors à vous de jouer : vous trouverez même en ligne des outils vous permettant de construire votre propre monnaie virtuelle.

Tommy Pouilly (@5h55) le 11/02/2014

Le risque informationnel, une menace ou une opportunité – GouvInfo IAI

Le risque informationnel, une menace ou une opportunité

viaLe risque informationnel, une menace ou une opportunité – GouvInfo IAI.

Le risque informationnel, une menace ou une opportunité

 

lorsqu’il est question de gouvernance de l’information 99% des personnes perçoivent l’importance de sécuriser, protéger, rendre intègre, l’information. Sur cette perception, la gouvernance de l’information est un moyen de construire des murs afin de maitriser un volume de plus en plus … incontrôlable d’information. Et oui effectivement gouverner l’information induit de mieux gérer le risque informationnel, avec une vue sur la vulnérabilité associée à l’information. Mais cela est il vraiment l’objectif premier, la gouvernance de l’information ne serait elle justement de valoriser à 80% l’information, et par cette volonté forte, d’arriver à mieux la maitriser (le 20% de perception sur du risque) ?image

 

Figure 18 : Les risques : ce qui se voit le plus

 

L’information est à la fois une matière première vitale et aussi une source de menaces fortes pour toute organisation. Fuite d’information, perte d’information, impossibilité de contrôler ou de restreindre ce qui se fait sur l’information, réputation, non-respect de la réglementation, présence d’information préjudiciable, information erronée, non traçabilité, etc.

 

La gouvernance de l’information se fait souvent comprendre par une approche « risque » !

 

L’information porte une valeur, une criticité, un coût qui évoluent au cours de son cycle de vie. Comprendre, connaitre et mieux maîtriser son cycle de vie permet donc d’ajuster progressivement les leviers permettant de développer son usage. Pour exemple, l’information alimente des processus métier.

 

Si cette information n’est pas fiable, le processus ne peut pas l’être, et la chaîne de valeur s’en retrouve affaiblie.

 

Un Système d’Information peut facilement s’optimiser et proposer de meilleurs outils, mais il faut pour cela que l’information et son cycle de vie soient correctement maîtrisés. C’est justement ce que peut apporter une instance de gouvernance de l’information, surtout grâce à sa vue plus large sur le système d’Informations.

 

La gouvernance de l’information se justifie par la valeur qu’elle génère.

 

image

 

Figure 19 : La valeur : l’enjeu majeur caché

 

clip_image008« On retrouve la notion de niveau adéquat de sécurité par rapport au risque portant sur l’information partie intégrante d’un ou de plusieurs processus, avec ou non des transformations d’état. Cette appréciation est réalisée en fonction des classiques exigences en termes de Disponibilité, d’Intégrité, de Confidentialité et de Traçabilité ; mais également par la prise en compte des enjeux métier ».

 


Cet article est extrait du livre blanc 2012 de la gouvernance de l’information (à télécharger ICI) – qui a été réalisé par un collectif de 33 personnes venant de 26 organisations ayant participées à l’observatoire, un grand merci pour leurs participations : Anthony PONCIER, Cécile DARAGNES, Christophe POULIQUEN, Cindy BOULLIER, Daniel COLAS, Dilomama KONE, Dominique MEGARD, Emilie OGEZ, Emilie TAVEL-BESSON, Eric DOYEN, Eva SODOMOVA, Fabien GRENET, Fabrice DANQUIGNY, Florent BAVOUS, Hamid ATTEMANE, Isabelle KERAUDREN, Isabelle SALADIN, Jean Pascal PERREIN, Jean-Christophe DICHANT, Jean-Christophe MARCOUX, Jérôme THUEZ, Maria Isabel OSORIO, Nicolas DESACHY, Olivier FAURA, Patricia MABILLEAU, Reidun VALO, Sébastien MANACH, Thomas LOVY, William BRES, Yves SARAZIN, Yves SIMON. A titre d’information, ces personnes faisant partie des organisations : Banque Centrale du Luxembourg, Caisse Nationale de Sécurité Sociale (Burkina Faso), Council of Europe, GDF SUEZ, Generali, Keycide, Lecko, Ministère de la Défense, PSA Peugeot Citroën, RCAR Maroc, Saint Gobain, SPR Pays de la Loire, TOTAL, Veolia Transdev, …

« Les cyber-attaques coûtent aujourd’hui plus de 400 milliards de dollars par an »

« Les cyber-attaques coûtent aujourd’hui plus de 400 milliards de dollars par an »

via« Les cyber-attaques coûtent aujourd’hui plus de 400 milliards de dollars par an ».

Au lendemain des attaques terroristes qui ont secoué la France, Inga Beale, PDG de l’un des plus anciens marchés d’assurance du monde, le Lloyd’s de Londres, évalue pour La Tribune l’étendue de ce risque, notamment pour les réseaux informatiques.

Les attentats qui ont frappé la France en ce début d’année ont rappelé aux acteurs économiques comme à l’opinion publique française l’actualité et l’étendue de la menace terroriste, y compris sur le sol national. Selon l’édition 2015 du rapport annuel du Forum économique mondial sur les Risques globaux, publiée à la veille du rendez-vous de Davos et fondée sur l’avis d’un panel de 900 experts, ce danger constitue d’ailleurs pour les dix prochaines années l’un des plus importants tant en termes de probabilité que d’impact.

 

Inga Beale, qui depuis le 1er janvier 2014 est la première femme PDG du Lloyd’s de Londres, marché tricentenaire de l’assurance, insiste depuis la petite station suisse sur l’énorme impact économique de cette menace, notamment dès lors qu’elle prend des formes virtuelles.

 

La Tribune: Quels risques découlent de la menace terroriste pour les entreprises?

 

Inga Beale: « Les dommages matériels continuent malheureusement de représenter un danger réel, comme le démontrent les derniers et tragiques événements en France. Cependant, à l’échelle globale, ce qui caractérise la menace terroriste c’est qu’elle devient de plus en plus intangible.

 

Les risques liés au cyber-terrorisme, notamment, croissent, et les acteurs économiques les redoutent de plus en plus. Selon l’enquête sur la perception des dangers que nous menons chaque année auprès d’un large panel de dirigeants d’entreprise, cette menace, entre 2013 et 2014, est passée de la vingtième à la troisième place dans le classement de leurs préoccupations. »

 

Qui est notamment concerné?

 

« Les grandes sociétés qui opèrent au niveau mondial sont sans doute les plus concrètement menacées par le cyber-terrorisme, puisque ce genre d’attaques ambitionnent évidemment de causer des dégâts aussi larges que possible, ainsi que d’attirer le maximum d’attention médiatique.

 

Les petites et moyennes entreprises, elles, sont moins visées par les cyber-terroristes. Les PME sont en revanche davantage exposées à l’éventualité d’attaques physiques, directes ou indirectes, comme cela a été le cas en France lors des deux prises d’otages du vendredi 9 janvier. D’une part, elles sont en effet souvent moins protégées que les grandes entreprises. De l’autre, dès lors que des vies humaines sont touchées, la taille de l’entreprise concernée ne compte plus tellement aux yeux des terroristes: l’impact est alors déjà maximal.

 

En cas d’attaque d’infrastructures nationales, par exemple du réseau de distribution de l’électricité, tout le monde serait par ailleurs concerné, et les dégâts pourraient devenir énormes. »

 

Peut-on évaluer l’impact économique de ces risques?

 

« Selon nos estimations, les cyber-attaques coûtent aujourd’hui, au niveau mondial, plus de 400 milliards de dollars par an. Non seulement elles contraignent parfois les entreprises à arrêter leurs transactions, mais elle mettent surtout sérieusement à l’épreuve la confiance de leurs clients, ce qui engendre des pertes considérables. Les entreprises subissent en outre les coûts de la réparation de leurs systèmes.

 

Evidemment, il est toutefois difficile de distinguer, dans cet ensemble, ce qui constitue strictement du terrorisme de ce qui relève du piratage ordinaire. La responsabilité de cette distinction appartient aux gouvernements des divers pays. »

 

Dans quelle mesure les entreprises se mobilisent-elles contre ces dangers?

 

« Il existe une différence très nette entre le niveau de conscience dont font preuve les entreprises américaines par rapport à celles du reste du monde. Nous calculons que, à l’échelle planétaire, les primes d’assurances souscrites pour contrer la menace de cyber-attaques atteignent le montant de 2,5 milliards de dollars. Or, 2,2 milliards viennent des seuls Etats-Unis. Le gouvernement américain a contribué à élever le niveau de conscience dans le pays en recommandant à toutes les entreprises de rapporter toutes les cyber-attaques qu’elles subissent. Le gouvernement du Royaume-Uni est aussi très actif en termes de sensibilisation. »

 

Comment l’industrie de l’assurance peut-elle donc les aider?

 

« D’une part, nous essayons d’informer les entreprises en organisant des séminaires dédiés à la compréhension de cette menace. De l’autre, nous leur proposons des polices dont l’objectif est de leur permettre de se relever après une cyber-attaque, en couvrant les coûts de la réparation de leurs systèmes comme de leur réputation.

Surtout, nos experts peuvent les orienter dans la détection des risques. Il est en effet quasiment impossible pour les entreprises d’imaginer, sans l’aide d’un expert, la globalité des dangers auxquels elles sont exposées. Un exemple parlant me vient à l’esprit. Après les attentats du 11 septembre 2001 à New-York, à la suite desquels nombre d’entreprises new-yorkaises se sont retrouvées sans électricité, beaucoup d’entre elles ont jugé utile de s’équiper de leur propre générateur. Pour mieux le protéger d’éventuels attaques venant du ciel, elles l’ont souvent placé dans le sous-sol. Or, juste une dizaine d’années plus tard, ces mêmes sous-sols ont été inondés par l’ouragan Sandy. »