Comment le Cloud computing change la notion de sécurité – cloud-guru

Nicolas Glady, titulaire de la Chaire Accenture Strategic Business Analytics de l’Essec, signe pour Silicon.fr une tribune sur le Cloud. Il y analyse les changements profonds apportés par le Cloud à la Société, et notamment dans le domaine de la propriété. Extraits :

Le Cloud ne fait pas que bouleverser les rôles dans l’entreprise, en donnant plus de poids aux prestataires et en renforçant l’importance des aspects contractuels. Il change aussi le rapport de tout un chacun à la notion de propriété, explique Nicolas Glady, professeur à l’Essec.

De Google à Netflix en passant par Dropbox, le Cloud est dorénavant partie intégrante de notre vie. A domicile mais aussi au travail, puisque de nombreuses solutions sont de plus en plus utilisées en entreprise : Amazon Web Services, Salesforce, où les solutions Office Cloud de Microsoft ou de HP. Tous les acteurs du numérique ont désormais passé le cap du Cloud et ceci a un impact considérable sur le monde de l’entreprise et l’économie en général.

Software as a Service (SaaS), Platform as a Service (PaaS), Infrastructure as a Service (IaaS), peu importe comment vous l’utilisez, le Cloud est partout. Selon IDC, ces différents services pesaient pour 40 milliards de dollars dans l’économie mondiale en 2012, et devraient générer 98 milliards de dollars en 2016. Et avec le Cloud hybride, c’est-à-dire la possibilité d’articuler une partie « publique » (en utilisant les mêmes services que d’autres entreprises) et une partie « privée », l’une des dernières barrières du Cloud – celle de la sécurité – est en train de sauter. L’actualité récente nous l’a d’ailleurs rappelé puisque Accenture et Microsoft ont annoncé en décembre 2014 une alliance sur le Cloud hybride : les deux géants américains ont bien compris qu’il était nécessaire d’investir massivement sur ce sujet. […]

Le Cloud soulève aussi évidemment des problématiques depuis longtemps identifiées, comme celles de la sécurité ou de perte de contrôle pour l’utilisateur. Les scandales récents quant au « vol » de données par des puissances étrangères (Prism en tête) ayant souligné à nouveau l’urgence pour l’Etat et les citoyens de s’emparer de ces questions. Mais les nouvelles solutions (comme le Cloud hybride mentionné précédemment ou l’idée d’un Cloud européen comme l’a proposé l’ex-commissaire européenne Neelie Kroes), vont sans doute résoudre ces questions à terme. Il convient donc de s’interroger plutôt sur les changements profonds que causent le Cloud, et l’impact que cela aura sur nos vies.

Tout d’abord, l’impact direct sur la structure et la dynamique au sein de l’entreprise est que là où auparavant l’innovation informatique passait par des développements internes, celle-ci passe dorénavant par de la prestation. Si une entreprise développait 80% de ses solutions informatiques elle-même auparavant, et « intégrait » 20% de ses solutions grâce à des prestataires externes, ce rapport est dorénavant inversé.

La conséquence directe est que la DSI change de rôle. Il ne s’agit plus de développer mais d’intégrer. Les profils nécessaires sont de moins en moins des codeurs hors pairs et de plus en plus des facilitateurs capables de comprendre les besoins des clients internes pour aller chercher la bonne solution qui conviendra à la stratégie de l’entreprise. C’est un rôle qui n’en reste pas moins technique mais qui est plus lié à la capacité d’analyse fonctionnelle et stratégique qu’à celle de « simple » informaticien. […]

Pour en savoir plus :
> l’article de Silicon.fr

viaComment le Cloud computing change la notion de sécurité – cloud-guru.

Les 54 erreurs du patron de startups – cloud-guru

Anand Sanwal est le patron de CBInsights qui fournit des bases de données et des outils d’analyse afin d’aider les entreprises à mieux investir, vendre plus et innover plus vite. Il nous livre dans ce document et en toute modestie les 54 erreurs qu’il a commises durant les premières années de sa société.

viaLes 54 erreurs du patron de startups – cloud-guru.

 

Culture

 

#1 – La culture ne vient pas naturellement

 

#2 – Pas assez de rendez-vous individuels avec les membres de l’équipe

 

#3 – Pas de feedback à 360°

 

#4 – Fournir des informations sur la direction stratégique de l’entreprise

 

#5 – Informer les membres de l’équipe du travail de chacun

 

#6 – Mauvaise intégration des nouveaux collaborateurs

 

#7 – Célébrer tout client gagné même le plus petit

 

#8 – Partager des repas ensemble en tant qu’équipe

 

#9 – Pas donné d’instructions claires au membre de l’équipe

 

Ressources humaines & Recrutement

 

#10 – Engagé des gens brillants et dit qu’on verrait plus tard comment les utiliser

 

#11 – Engagé sous pression

 

#12 – Licencié trop lentement

 

#13 – Mauvaise anticipation des postes à pourvoir

 

#14 – Mauvaise approche sur certains recrutements clés

 

#15 – Cru au recrutement de messies

 

#16 – Attention à ne pas recruter des mauvais coucheurs ou pires encore

 

#17 – N’ai pas vérifié les références et ne savais pas comment faire

 

#18 – Expérimenté trop tôt le télétravail

 

#19 – Ai trop tardé à accompagner les clients dans la découverte de nouvelles fonctionnalités

 

Prix

 

#20 – Cru qu’un prix bas nous ferait gagner

 

#21 – Trop “malin’’ avec le prix

 

Ventes & Marketing

 

#22 – Pas assez concentré sur les ventes

 

#23 – Utilisé du jargon pour avoir l’air plus gros et plus “institutionnel’’

 

#24 – Pensé que les partenariats résoudraient la question de la distribution

 

#25 – Perdu du temps sur des leads de mauvaise qualité

 

#26 – Essayé un pricing qui marche pour tous les cas de figure

 

#27 – N’ai pas assez rencontré de clients physiquement

 

#28 – Pris les échecs de façon trop personnelle

 

#29 – Ai essayé d’être un super vendeur

 

#30 – N’ai pas posé suffisamment de questions dans les discussions commerciales

 

#31 – Mauvais suivi des démos

 

#32 – N’ai pas demandé de clôturer les ventes

 

#33 – Ne communiquez pas d’objections aux prospects

 

#34 – Perdu du temps à envisage d’autres canaux de distribution. Pas exploité assez ceux qui fonctionnaient

 

#35 – Pas acheté nos Tshirts plus tôt et les envoyer aux clients

 

#36 – Perdu du temps avec des partenaires qui voulaient s’intégrer avec nos solutions

 

#37 – Ai été trop modeste avec notre technologie

 

#38 – Pas été proactive avec les journalistes

 

Produit

 

#39 – Pris conseil des non clients (qui ne le deviendraient jamais)

 

#40 – Ai couru après les effets de mode

 

#41 – Aurais du livrer un produit moins abouti

 

#42 – Me suis trop préoccupé des concurrents

 

#43 – Le développement Produit dicté par la concurrence et non pas par les clients

 

Administration & Infrastructure

 

#44 – Resté trop longtemps dans des bureaux minuscules

 

#45 – Pas sous-traité la paie assez tôt

 

#46 – Me suis pas débarrassé des mauvais conseillers assez tôt

 

Divers

 

#47 – J’étais mal habillé

 

#48 – J’ai acheté des choses à des clients

 

#49 – Suis impliqué dans des ventes à des amis 

 

#50 – Ai répondu aux “trolls” sur Internet

 

#51 – Notre nom initial n’était pas très institutionnel

 

#52 – Perdu du temps à réseauter

 

#53 – Pas d’introduction unidirectionnelle

#54 – Perdu du temps avec des VC

 

Modernité et modération – Idées – France Culture

Modernité et modération

viaModernité et modération – Idées – France Culture.

17.01.2015 – 09:07

Modernité et modération

Invité(s) :
Rémi Brague, professeur émérite de philosophie à Paris I et à l’université de Munich
Olivier Rey, chercheur au CNRS, enseignant à l’École polytechnique et à l’université Panthéon-Sorbonne, philosophe

Encore une émission passionnante

La recherche du proportionne devrait être le but de chacun.
Derrière chaque tragédie, il y a une recherche du gigantisme

1 – Prométhée libère la technique. On en est resté à ce temps
2 – Prométhée se réconcilie avec Zeus (la politique)
3 – Prométhée trouve sa place dans la cité : forgeron (la technique)

Hans Jonas : La vie est trop brève pour être petite

Bernanos : un optimiste est un imbécile heureux. Un pessimiste est un imbécile triste.

Kant : il n’existe rien de bon ici bas, sinon les volontés bonnes

Les transhumanistes se divisent en 2 groupes :
– Les cyniques
– Les idiots utiles

Heideger pensait qu’il fallait 3 universités :
– sciences
– lettres
– philo + math
Ca ne s’est pas fait, et les lettres + philo ont perdu le sens de la mesure à laquelle ils n’entendent rien (Michel Serres serait une exception).

Galilée : le changement de taille emporte un changement de nature.

Gérard Berry, l’informaticien qui défie le temps

Gérard Berry, l’informaticien qui défie le temps

17.12.2014, par

Ce soir, à la Sorbonne, Gérard Berry recevra la Médaille d’or 2014 du CNRS, la plus haute récompense de la recherche française. Ce théoricien des langages de programmation, qui a commencé l’informatique sans ordinateur (!), a créé le logiciel temps réel Esterel qui fait aujourd’hui voler les Rafale et l’Airbus A380.

Source : Gérard Berry, l’informaticien qui défie le temps | CNRS Le journal

Ce soir, à la Sorbonne, Gérard Berry recevra la Médaille d’or 2014 du CNRS, la plus haute récompense de la recherche française. Ce théoricien des langages de programmation, qui a commencé l’informatique sans ordinateur (!), a créé le logiciel temps réel Esterel qui fait aujourd’hui voler les Rafale et l’Airbus A380.

Un peu en retard, il s’excuse : il vient de raccrocher avec Le Parisien qui voulait son sentiment sur l’enseignement de l’informatique en France. Médaille d’or du CNRS oblige, Gérard Berry répond (avec plaisir) aux nombreuses sollicitations. L’homme est énergique, chaleureux, bien loin des clichés sur les informaticiens bouclés dans leur monde. Il nous reçoit dans son bureau du Collège de France, où il a créé la toute première chaire permanente d’informatique en 2012. Jolie salve de reconnaissances pour ce chercheur hors norme, qui a su tracer son chemin entre théorie pure et innovation industrielle : le langage Esterel, qui a fait sa renommée, permet aujourd’hui de faire fonctionner des systèmes temps réel aussi sensibles que des avions, des trains ou des centrales nucléaires.

Le temps des pionniers

Celui qui aurait pu devenir chimiste – il a appris à lire dans les livres de chimie de sa mère, professeure, et passait des heures, adolescent, à manipuler cornues et réactifs dans la cave familiale de Châtillon-sous-Bagneux – a découvert l’informatique à 19 ans. « J’ai rencontré mon premier ordinateur lorsque je suis entré à Polytechnique, en 1967, se souvient-il. C’était un antique Seti PB250. À l’époque, un tout nouveau cours d’informatique était dispensé, et j’ai tout de suite eu le coup de cœur pour cette discipline émergente : j’y retrouvais le côté expérimental que j’adorais et des aspects de logique pure très stimulants. » Le jeune homme est immédiatement fasciné par l’opposition homme-machine : drôle de duo où l’homme, « intelligent mais lent », tente de donner des instructions à l’ordinateur, « rapide mais bête, puisqu’il fait seulement ce qu’on lui dit de faire ».

Le langage lui apparaît très
vite comme le problème numéro un de la relation homme-machine.

Après Polytechnique, il termine sa formation au corps des Mines, au sein duquel il commence ses travaux de recherche en informatique dès 1970. Le langage lui apparaît très vite comme le problème numéro un de la relation homme-machine. Il en fera l’ouvrage d’une vie. « J’ai tout de suite compris qu’il était très dur de faire juste », confie celui qui nourrit une haine-passion pour les bugs, ces petites erreurs d’écriture qui font dérailler nos ordinateurs. Son premier sujet de recherche, qui est également l’objet de sa thèse, se situe aux confins des mathématiques et de l’informatique : le lambda-calcul, un langage mathématique qui sert de base à de nombreux langages de programmation. Ce sujet de théorie pure s’explique avant tout par le contexte de l’époque.

« Dans ces années-là, aucun laboratoire de recherche ne possédait d’ordinateur digne de ce nom en France, raconte le chercheur. C’est le compositeur Pierre Boulez qui a poussé un coup de gueule à la création de l’Ircam 1, en 1977, et a obtenu le premier une machine appropriée pour travailler. Les autres laboratoires, notamment le mien, n’ont été équipés qu’à partir de 1982. » Faire de l’informatique sans ordinateur n’a pas que des inconvénients : l’exercice a fait de Gérard Berry un théoricien hors pair et a jeté les bases d’une certaine école d’informatique française, reconnue bien au-delà de nos frontières pour sa puissance d’abstraction.

video_Berry_MedailleOr2014

À propos
Fermer
Description:
Portrait de Gérard Berry, informaticien, lauréat de la Médaille d’or du CNRS 2014. Il est titulaire depuis 2012 de la première chaire dans le domaine informatique au Collège de France intitulée « Algorithmes, machines et langages ». Du traitement formel des langages de programmation à la conception de circuits intégrés assistée par ordinateur en passant par la programmation parallèle et temps réel, les travaux de Gérard Berry ont permis de grandes avancées en informatique et trouvent de multiples applications dans notre quotidien…
Année de production:
2014
Durée:
5 min 34
Réalisateur:
Marie Mora Chevais
Producteur:
CNRS Images

Un concours à l’origine d’Esterel

En 1977, le chercheur migre de Paris à Sophia-Antipolis, où les Mines viennent de créer une unité de recherche en automatique et informatique, qui sera bientôt commune avec Inria. Un déménagement qui n’a pas seulement des motivations professionnelles : ce passionné de montagne veut aussi apprendre la voile, et achètera un bateau avec des amis. Le vrai tournant de sa carrière se produit en 1982, à l’occasion d’un concours de voitures-robots lancé par le magazine Microsystèmes. « Les collègues automaticiens du laboratoire avaient fabriqué une voiture hypersophistiquée, mais aussitôt s’est posée la question de sa programmation, explique le chercheur. Jusque-là, un programme, pour moi, c’était une donnée à l’entrée, un calcul et un résultat à la sortie. Là, la machine devait réagir en permanence à ce qui se passait autour. C’est comme cela qu’on a eu l’intuition d’un langage complètement différent de ce que faisait le reste du monde et qui allait devenir Esterel. »

Audacieux, il se
place dans un
monde idéal où
le temps de calcul
serait infiniment rapide.

À l’époque, l’informatique se heurte à deux temporalités différentes, difficiles à réconcilier : le temps physique des actions décrites par le programme et la vitesse de calcul de l’ordinateur. Le chercheur prend une décision audacieuse : il se place dans un monde idéal où le temps de calcul serait infiniment rapide et toutes les réactions, instantanées. « Quand ils écrivent leurs symphonies, les compositeurs ne prennent pas en compte le temps que le son des instruments met à parvenir aux oreilles des spectateurs, explique ce passionné de musique. C’est également le principe d’Esterel. »

Le monde de la recherche est incrédule, et pour cause : les ordinateurs des années 1980 sont 200 fois plus lents qu’aujourd’hui… Mais les industriels se montrent rapidement intéressés par ce langage de programmation des systèmes temps réel. Dassault, le premier, y voit le moyen de dépasser les possibilités limitées du contrôle automatique et d’informatiser le tableau de bord de ses avions Rafale. D’autant qu’Esterel offre un autre avantage de taille : il permet de rendre les systèmes plus sûrs grâce aux vérifications formelles réalisées au moment de l’écriture du programme.

Gérard Berry à l'Institut de France

Gérard Berry lors de l’opération Speed Sciences organisée par l’Académie des sciences pour faciliter les rencontres entre jeunes et scientifiques.

Au-delà de l’aéronautique, qui généralise progressi­vement les logiciels embarqués à toutes les fonctions de l’avion (pilotage automatique, freinage, climatisation…), les utilisateurs de systèmes informatiques dits critiques se laissent eux aussi séduire : protocoles de communication en téléphonie, centrales nucléaires, robotique, etc. La société Esterel Technologies est créée en 2000 pour commercialiser le logiciel Esterel, et Gérard Berry la rejoint de 2001 à 2009 en tant que directeur scientifique. Les clients s’appellent Dassault, Thales, mais également ST Microelectronics ou Intel puisque, très rapidement, une version d’Esterel dédiée à la conception des circuits électroniques est également développée. « Travailler avec des industriels de très haut niveau scientifique a été notre chance, affirme le chercheur. Les problèmes qu’ils nous posaient étaient bien plus durs que nos hypothèses de laboratoire ! »

Le goût de la pédagogie

De 2009 à 2012, Gérard Berry reprend son poste de directeur de recherche Inria. Aujourd’hui, il consacre son énergie à la préparation de ses cours au Collège de France. Un exercice pas si éloigné, selon lui, de son expérience de pédagogue à l’école Montessori des Pouces verts, près de Sophia-Antipolis, où il a enseigné durant plusieurs années l’informatique à de jeunes enfants. Il n’en a pas fini avec les langages informatiques pour autant. L’essor fulgurant du Web et le foisonnement anarchique des applications l’ont projeté dans un nouveau domaine : avec Manuel Serrano, chercheur à Inria, il développe HipHop, un langage destiné à mieux orchestrer la relation avec les objets connectés. Il collabore également avec l’Ircam à la transposition d’Esterel au monde de la musique électronique et à l’élaboration de partitions algorithmiques. Malgré un agenda bien chargé, ce père et beau-père de trois enfants devenus grands trouve encore le temps de s’enthousiasmer pour les spectacles de sa belle-fille acrobate de cirque. Le pionnier des langages synchrones a décidément trouvé la formule magique du temps.

 

Séolis (85% SIEDS – Syndicat Intercommunal d’Energie des Deux-Sèvres)

Bienvenue – Séolis Sieds Energies Services électricité Deux-Sèvres.

Repéré dans les Echos de ce week-end.

Cette émanation de l’ELD SIEDS (CA 212 M€ en 2013) travaille à diversifier ses sources d’approvisionnement. Pour cela, elle a créé des filiales avec 6 autres ELD, dont deux dans le Tarn, avec lesquelles elles prennent des participations dans des barrages.

Elle investit également dans l’éolien avec 3D énergie, et dans le solaire avec SolaireDirect.

En Poitou-Charente dans le programme régional ESTER (220 M€ de solaire en 3 ans) pour produire 60 MW.

Séolis Prod accompagne également méthanéo, filiale de Séchilienne BTP, pour deux centrales de méthanisation agricole.

Eos Energy Storage vend son système de batterie à GDF Suez > Energies – Enerzine.com

Eos Energy Storage vend son système de batterie à GDF Suez

viaEos Energy Storage vend son système de batterie à GDF Suez > Energies – Enerzine.com.

Dans le cadre du programme pilote de démonstration, Eos Energy Storage a annoncé avoir vendu à GDF Suez le système de batterie hybride à cathode de zinc (Znyth™) de la société, un système fiable et économique.

Après les essais indépendants réalisés par DNV GL, Eos prépare le terrain pour le déploiement commercial dans les principaux marchés européens.

« Nous sommes ravis d’avoir GDF Suez comme premier client international et comme l’un des principaux participants à notre programme Genesis« , a déclaré Steve Hellman, Président d’Eos. « GDF Suez est l’un des plus grands producteurs d’électricité dans le monde avec des opérations dans 70 pays, un chef de file dans la l’industrie à forte croissance de l’énergie renouvelable, et un innovateur inégalé en matière de technologie énergétique. Nous ne pouvions espérer un meilleur partenaire pour soutenir notre premier programme européen d’essais et le déploiement des produits d’Eos à l’échelle mondiale. »

GDF Suez installera et testera le système de batterie d’Eos dans son nouveau laboratoire « GDF Suez Batteries Lab » à Laborelec, à Linkebeek en Belgique. Laborelec, filiale de GDF Suez Research & Technologies Division, est un centre recherche et de compétence majeur dans la technologie de l’énergie électrique. Ses compétences couvrent toute la chaîne de valeur électrique : production, transmission, distribution, stockage et utilisation finale.

Le « GDF Suez Batteries Lab », créé en juin 2014, vise à développer la capacité d’anticiper les évolutions des technologies de batterie en termes de coût et de performance. Il s’agira d’évaluer la performance du système Eos dans une gamme d’applications, y compris la gestion de l’énergie, l’intégration au solaire photovoltaïque distribué, la participation sur les marchés d’équilibrage des réseaux maillés et l’arbitrage énergétique sur les marchés de gros.

« Nous sommes impatients de tester le système Aurora d’Eos, qui promet d’être parmi les solutions de stockage de l’énergie les moins coûteuses sur le marché« , a indiqué Raphaël Schoentgen, Directeur du département Recherche & technologies, et membre du Comité exécutif de GDF Suez. « Les tests et l’évaluation rigoureux de la technologie d’Eos nous permettront de caractériser les performances et de se concentrer sur les meilleures applications avec la plus forte rentabilité sur les marchés énergétiques de gros et de détail en Europe. »

« Le déploiement de notre batterie chez GDF Suez est une étape importante dans la commercialisation de notre système de batterie Aurora« , a commenté le Chef de la direction d’Eos, Michael Oster. « Nous avons accéléré la fabrication et fournirons les batteries à un prix qui fait du stockage de l’énergie électrique une alternative économique aux dispendieuses turbines à gaz d’aujourd’hui. »

Le produit de stockage en grille d’Eos, Aurora, est un système de batterie conteneurisé de courant continu de l’ordre du MW conçu pour intégrer de manière plus fiable l’énergie renouvelable, améliorer l’efficacité et la résilience du réseau maillé, et réduire les coûts des services publics et les factures d’électricité des consommateurs.

Eos envisage de vendre le système de batterie CC Aurora à 160 $ par kWh, et travaillera avec les principaux partenaires d’intégration et de contrôle de l’énergie pour la vente, l’installation et le service clé en main des systèmes de batterie CA intégrés.

Les défis de la cybersécurité

Les défis de la cybersécurité

Hervé Guillou / Président, Conseil des Industries de Confiance et de Sécurité / April 25th, 2014

viaLes défis de la cybersécurité.

La cyber-menace est en voie de prendre des dimensions systémiques pour l’économie mondiale. L’inquiétude des acteurs monte, au point que l’on peut craindre une réaction globale contre la numérisation, avec un énorme impact économique. Pourtant, les avancées en matière de cloud computing et de Big data pourraient, selon McKinsey, créer entre 9600 et 21600 milliards de dollars de valeur pour l’économie mondiale. Si la sophistication des attaques submerge les capacités défensives des États et des organisations, on peut redouter des règlementations et des politiques qui ralentiraient l’innovation et la croissance.

ParisTech Review – La cyber-menace est-elle différente pour les Etats et pour les entreprises ?

Hervé Guillou – Pas vraiment. Dans le cybermonde, les frontières entre administration et industrie ne se déterminent ni par les chaînes actionnariales ni par les organigrammes. Elles sont poreuses, par le truchement des services. Les individus reçoivent des services de santé, l’armée a besoin d’une logistique, les entreprises contribuables paient l’impôt sur les sociétés au ministère des Finances.

Pour appréhender ce sujet, il faut bien définir le cyber-espace. C’est un pavé à neuf cases, c’est-à-dire trois couches traversant trois mondes.

Il y a tout d’abord la couche physique (les câbles, les fibres optiques, les réseaux sous marins, les liaisons radios, les liaisons satellites, l’interconnexion, les switchs, bref toute la couche de support de l’information.

Ensuite, la couche informatique, les ordinateurs, les robots, les serveurs, les protocoles, les logiciels directs comme Windows, les logiciels de pilotage des robots, ou l’informatique embarquée sur une voiture.

Il y a enfin la couche informationnelle et fonctionnelle, la plus visible et la plus souvent associée à la cyber-sécurité : il s’agit des données, des applications, de l’information transmise, traitée ou stockée, du traitement dans le cloud, de l’information en ligne, des paiements sécurisés.

Ces trois couches « horizontales » traversent trois mondes verticaux qui ont, historiquement, toujours été cloisonnés parce que les technologies avaient leurs racines dans des mondes normatifs et industriels différents. Ces trois mondes sont l’informatique générale (IBM, Atos, Bull), l’informatique industrielle (Catia, Siemens, Schneider) avec ses automates, sa robotique, ses outils de CAO 3D et de GPAO (gestion de la production assistée par ordinateur), les commandes de machines numériques, et enfin l’informatique embarquée (Honeywell, Thales) spécialisé dans l’ordinateur en temps réel pour la commande de pilotage d’un avion par exemple, tout ce qu’on appelait autrefois les calculateurs embarqués.

Comment circule la menace ?

Internet Protocol (IP) est en train de faire à la fois une pénétration verticale puisqu’on est en train de rendre virtuels les réseaux de télécom et les routeurs. Dans le même temps, IP est en train de connecter l’informatique générale avec le contrôle commande des usines (par l’intermédiaire, par exemple, d’un logiciel SAP qui surveille la production).

On a également connecté l’informatique embarquée avec l’informatique industrielle. La « valise » qui permet de réparer l’informatique embarquée dans une voiture envoie les informations au centre technique du constructeur, télécharge un patch logiciel pour réparer et commande des pièces de rechange. Autre exemple : un Airbus possède sept adresses IP qui se branchent au sol sur des services de e-catering, qui téléchargent leur plan de vol puis transmettent leurs données de vol. Vous voyez que toutes ces couches et tous ces mondes sont désormais étroitement liés.

risky

On pense évidemment à un média qui s’appelle la mer. Un siècle après Christophe Colomb, ce qui était du petit cabotage a été mondialisé et on a commencé à y faire circuler des richesses colossales. Il s’y est développé des pirates, des corsaires et bien sûr des marines militaires. Et des virus, parfois mortels, ont commencé à se répandre.

Il se passe exactement la même chose sur le Web mais la dissymétrie entre les attaquants et les défenseurs est encore plus formidable. Pour les attaquants, cela ne coûte pas grand-chose de recruter 2000 Chinois, 500 Russes ou 300 Bulgares, qui seront tous d’excellents informaticiens. C’est beaucoup moins cher que de construire un missile balistique, un avion de combat ou un réacteur nucléaire. La construction des instruments d’attaque est très accessible techniquement et le coût d’entrée pour l’attaquant est pratiquement nul. En outre, ils ont un don d’ubiquité quasi total : louer un serveur coûte un demi-dollar. Pour un million de dollars, vous avez deux millions de serveurs. Qui peut trouver l’origine d’une attaque mettant en jeu deux millions de serveurs répartis partout dans le monde et utilisant quatorze pays leurres ? Enfin, l’impunité est presque totale car les organismes attaqués hésitent à aller en justice par crainte pour leur réputation.

Et pourtant, il faut se défendre.

Même si vous pouvez attribuer une attaque, vous n’avez pas les moyens juridiques de poursuivre car il n’existe quasiment pas de loi internationale applicable au web. Un des seuls traités internationaux concernant Internet est le traité de Budapest contre la pédophilie. Rien à voir avec l’arsenal juridique dont on dispose pour réguler l’aérien, l’espace ou la mer. Les victimes sont exactement dans la position des galions espagnols de jadis. Ils placent de plus en plus de valeur sur le web. Les individus y mettent leurs données bancaires. Les bureaux d’études y mettent leur production intellectuelle. Les industriels y placent leur outil de production puisque les usines sont connectées entre elles, les fournisseurs sont connectés par les e-supply chain et l’e-stockage, les clients par l’e-commerce, les ressources humaines par l’e-HR. En plus, la victime est statique et elle cherche à se faire connaître grâce à un portail web attirant ! Pour les attaquants, le nombre de portes d’entrée explose. En 2003, il y a avait 500 millions d’adresses IP. En 2014, elles sont treize milliards. En 2020, ce sera au moins 80 milliards à cause de tous les objets connectés et de l’informatique industrielle. Rien n’est plus facile que d’attaquer une entreprise par ses fournisseurs ou ses agents mobiles.

Que cherche l’attaquant ?

Certains veulent s’enrichir, par exemple en revendant des codes de cartes bleues volés. Il y a aussi du sabotage, du terrorisme d’État, des ONG qui veulent punir une entreprise, de l’espionnage pour voler des informations. Derrière tout cela, il n’y a plus seulement des Robins des Bois romantiques mais souvent le crime organisé, ce qu’on appelle désormais l’ « advanced persistent threat ». Vous pouvez acheter pour 20 euros une carte bleue avec un droit de tirage de 100 euros. Si on vous a dérobé des plans, il existe un marché secondaire de la propriété intellectuelle ils pourront être valorisés.

Combien coûte cette guerre ?

La valeur économique pillée par la cybercriminalité en 2013 représente 190 milliards d’euros. Et il ne s’agit là que des pertes directes. Sony s’est fait voler 1,5 million de données de cartes bleues. Le dommage direct : 150 millions. Mais Sony réclame à son assureur 1,3 milliard de dollars pour compenser l’arrêt complet de leur serveur pollué de e-commerce, c’est-à-dire de leurs ventes, la modification de leur système d’information et la campagne de communication qui a suivi. Quand les industriels de la défense et de l’énergie se font voler des plans, la perte économique ou stratégique est potentiellement considérable.

Pourquoi est-il aussi difficile de mettre la main sur ces hackers ?

On n’arrive déjà pas à arrêter les djihadistes qui partent se battre en Syrie, alors les hackers… Comment identifier un individu qui travaille à partir de sa chambre en utilisant une fausse adresse IP ? Des polices se construisent autour de cette recherche, Tracfin aide, les services de renseignement aussi. Il y a eu, en 2013, 26 millions de malwares (logiciels malveillants), 70 000 nouvelles menaces par jour. La moyenne mondiale d’infection d’un ordinateur est de 40 %. Le temps pendant lequel un ordinateur neuf reste vierge après sa première mise en route, c’est trois minutes. Au-delà, un petit « botnet » (virus dormant) est installé par un hacker qui le réveillera peut-être un jour pour mener une attaque à partir d’une adresse IP innocente.

Comment procède l’attaquant pour se dissimuler aussi bien ?

Le temps médian de découverte d’une attaque sophistiquée est de 416 jours. Au ministère français des Finances, les services de préparation du G20 ont été piratés. Il a fallu une équipe de cinquante personnes pendant quatre mois, jour et nuit, pour que le cancer soit éradiqué. Car une fois que l’attaquant est dans votre système, il attend un jour pour être dans la sauvegarde à un jour, puis un mois pour être dans la sauvegarde à un mois, puis à un an, etc. Il infecte des couches de plus en plus profondes de votre cyber-structure. Quand vous croyez lui fermer une porte, il utilise les clés de toutes les autres portes.

Bref, il est impossible de se défendre ?

C’est difficile mais c’est impératif. Il y va de notre survie, au sens propre, car le Web est maintenant présent dans tous les systèmes vitaux : dans les salles d’opération des hôpitaux, dans les voitures, dans les feux de circulation, dans le compteur électrique, dans le réseau d’eau. Et au sens figuré car le web conditionne désormais la résilience économique d’un pays, le fonctionnement de ses banques par exemple, l’approvisionnement énergétique. Souvenez vous de l’Estonie, un des pays les plus technologiquement modernes du monde à l’époque, que des hackers russes ont mis à genoux économiquement pendant quatre jour en avril 2007.

Peut-on se protéger à un coût acceptable ?

L’hygiène informatique de base est essentielle, car elle permet de triompher de 90 % de la petite criminalité. 75000 PC ont été volés dans le métro de Londres en 2013, 70 % des entreprises du monde entier ont été attaquées. Il faut faire attention à ses affaires. Si vous élevez une petite barrière, vous dissuadez beaucoup de petits cyber-criminels qui cherchent la facilité. Surtout, il faut instaurer d’urgence une identité numérique régalienne, qui soit basée sur trois facteurs d’authentification : qui je suis (Iris, trait morphologique, battement du cœur), ce que j’ai (badge ou carte) et ce que je sais (code secret). Si au lieu de multiplier les mots de passe médiocres et qui sont si nombreux que vous êtes obligé d’en faire une liste elle-même vulnérable, on pouvait accéder au réseau grâce à son passeport numérique, par exemple, nous serions bien moins vulnérables. Attention au smartphone, à mi-chemin entre informatique générale et informatique embarquée, et qui illustre à quel point les mondes autrefois cloisonnés sont en train de se connecter.

Les Etats et les grands groupes n’ont-ils pas intérêt à mettre en place leurs propres moyens de sauvegarde, et à interdire l’utilisation du « cloud » proposé par un fournisseur ?

Bien sûr, les États et les grands groupes doivent se prendre en charge et déployer leurs propres moyens de protection. En revanche, il faut que ces moyens soient homogènes sur l’ensemble de leur réseau et de leur système d’information, et proportionné aux dommages à prévenir : on ne se protège pas de la même façon selon ce que l’on craint espionnage, déni de service ou vol. Mais il me paraît illusoire d’interdire l’utilisation du « cloud ». Il est trop tard, la pression économique est trop forte. Il faut donc s’organiser pour vivre avec, en n’y mettant pas n’importe quoi, et en protégeant ce qui doit l’être avec un bon cryptage et une maîtrise professionnelle de l’identité et des transactions sécurisées.

Peut-on aujourd’hui garantir l’inviolabilité absolue d’un intranet ?

Absolument pas : même s’il est techniquement et physiquement isolé du reste du monde, tant qu’il est accessible aux hommes, ils seront le maillon faible : indiscipline, erreur humaine, usurpation d’identité…

Le danger ne vient pas que des hackers criminels. Qu’en est-il des Etats ?

Les Etats doivent être impliqués tant du côté offensif que du côté défensif. Un des documents révélés par Edward Snowden montrent en toutes lettres que la consacre des ressources importantes à l’espionnage économique et en particulier à infecter, dès leur conception ou leur fabrication, des ordinateurs et des routeurs produits hors des Etats-Unis pour s’y garantir des portes d’entrée. En même temps, les Etats-Unis instaurent une meilleure protection réglementaire et législative pour obliger les ménages et les entreprises à s’assurer contre le cyber-risque. Washington veut obliger les entreprises cotées à chiffrer dans leur rapport annuel l’état du cyber-risque au même titre que les autres risques. La mobilisation des États est cruciale. En France, la loi de programmation militaire 2014, consacre plusieurs articles à la cyber-sécurité. Les organismes d’importance vitale seront tenus de se faire auditer par des experts. En 2013, le gouvernement britannique a convoqué l’un après l’autre des PDG et des membres de comex des entreprises du FTSE 100 pour les mettre en garde. Il faut que les formations suivent, avec des ingénieurs, des docteurs et des filières consacrées à la cyber-sécurité.

Et les entreprises ?

La prise en compte du risque cybernétique dans la gouvernance est essentielle. En général, le responsable de la cyber-sécurité est sous les ordres du directeur informatique, ce qui est la pire des configurations. La cyber-sécurité est en effet un concurrent budgétaire direct de l’informatique et le directeur informatique est en danger si l’on découvre des failles. En outre, le directeur informatique (CIO) est responsable de l’informatique générale, mais le plus souvent ni de l’informatique industrielle, ni de l’informatique opérationnelle. Bref, deux tiers du sujet lui échappent. Ce qui doit être du ressort de la DRH et qui est essentiel à la maîtrise des accès, lui échappe également. Le CIO est poussé par sa hiérarchie à chercher les effets de volume et à baisser les coûts. Il n’est pas en position d’autorité pour arbitrer le « cost quality trade off » entre la valeur économique du cyber-risque et le coût de la protection. Il faut que le Comex soit totalement mobilisé. Chez un grand constructeur automobile français, c’est le directeur des opérations, également directeur de l’ingénierie qui danime la cyber-sécurité. C’est une bonne configuration car cet homme a une bonne idée de l’informatique embarquée puisqu’il la conçoit et de l’informatique générale dont il est utilisateur.

Certains secteurs de l’économie sont-ils mieux protégés ?

Les entreprises les plus en avance sont les banques car, pour elles, l’informatique industrielle et l’informatique générale, c’est la même chose. En revanche, certains secteurs sont laxistes. Des usines livrées clés en main sont parfois dénuées de toute cyber-sécurité. Nous avons démontré à l’opérateur d’une raffinerie au Moyen Orient, la plus grande du monde, qu’elle pouvait être paralysée à distance en moins de dix heures. Il suffisait de pirater l’adresse IP d’un écran de contrôle, de modifier l’image à l’écran et de pousser les techniciens à prendre des mesures correctrices qui provoquent des accidents. Il faut savoir investir à bon escient. Quand une équipe mobile d’une Major pétrolière s’est fait voler tous ses dossiers d’exploration, perdant du même coup des atouts précieux pour une négociation de droits, la compagnie a sûrement regretté de n’avoir pas acheté des téléphones cryptés.

Quelle est la meilleure défense ?

L’essentiel, c’est la question du temps réel. Pour réduire les dommages, il faut d’abord réduire le temps qui s’écoule avant la découverte de l’attaque. Mettre des sondes. Les attaquants de haut vol passeront, mais les autres laisseront des signaux faibles : un poste qui a été activé à une heure indue, un flux de données passé avec un protocole inhabituel. Quand on a un soupçon, ou trouve. Deuxième impératif : être sélectif car on ne peut pas tout protéger. Le système d’information doit être bien ségrégé (composé de segments étanches) et les droits d’accès gérés professionnellement.

Comment construire une offre forte en matière de cyber-sécurité ?

Le monde de la haute sécurité (« high grade ») est très confidentiel et économiquement étroit. C’est celui, par exemple, des communications militaires au sein des installations nucléaires. Le marché du grand public, lui, est complètement occupé par les Américains. Ils ont tout racheté et construit des groupes de plusieurs milliards qui se verticalisent par exemple autour de Intel, Microsoft ou Cisco. Pour le « mid grade », c’est-à-dire la défense des opérateurs industriels d’importance vitale, il n’y pas vraiment d’offre en Europe car le sujet a longtemps été ignoré. Plus de 95 % des entreprises qui proposent des solutions pèsent moins de 5 millions d’euros. Ce sont des startups le plus souvent sous-capitalisées, avec une gamme limitée, une R&D fragile et qui peinent à croître, notamment à l’export. Les grands industriels hésitent à leur confier leur cyber-sécurité, de peur de rencontrer des problèmes de déploiement et de renouvèlement. Aux Etats-Unis, le Department of Homeland Security, qui a la cotutelle de la NSA, brasse 50 milliards de dollars et investit chaque année 3 milliards dans la cyber-sécurité, avec 80 000 emplois industriels à la clé. Il est donc nécessaire de consolider ce secteur. En France, le lancement du pacte défense/ cyber, du plan 33 de la nouvelle France industrielle, qui s’inscrivent dans le cadre de la création récente d’une filière sécurité française sont des bonnes nouvelles.

La CNIL et ses homologues étrangers focalisent leur activité sur la protection des individus. Peut-on mettre en place des institutions similaires pour la protection des entreprises ?

La CNIL, en protégeant les individus contre l’usage potentiellement abusif des données, s’intéresse aussi à eux quand ils sont dans leur entreprise. Elle y est donc très présente. Mais la CNIL n’est pas en charge de la protection des biens et des données de l’entreprise. C’est le problème de l’entreprise, éventuellement conseillée et supportée par l’ANSSI (Agence nationale de la sécurité des systèmes d’information) ou des sociétés de cyber-sécurité de confiance qui se développent en ce moment. Le vrai sujet aujourd’hui, c’est que ces sociétés sont trop petites. Ce secteur de la cyber-défense doit s’organiser et se consolider rapidement.

Est-il possible d’imaginer une autorité mondiale de régulation susceptible de garantir les systèmes et échanges d’information contre les hackers ?

Certains y travaillent mais aujourd’hui, ces tentatives sont encore très embryonnaires. Tous les États n’ont pas les mêmes objectifs ni la même conception des libertés publiques et privées !


Comment réduire les coûts informatiques (par les processus) ?

Georges Jacovlev (Consultant indépendant)

Dans les premières années de l’informatique, il n’y avait qu’une seule façon de créer des applications informatiques : le développement spécifique. C’est ce que nous appellerons la « première génération des systèmes d’information ». Vint ensuite une deuxième génération – nous y sommes – qui est celle des ERP. Ces produits-logiciels sont incontestablement un progrès par rapport à la première génération. Cependant, ils présentent deux défauts majeurs : ils imposent à l’entreprise une organisation qui n’est pas la sienne et ils sont très peu flexibles.

De plus, nous savons maintenant, depuis la publication de la norme internationale ISO 9001:2000, qu’une entreprise peut être analysée selon deux visions complémentaires : sa structure et ses processus, c’est-à-dire une vision verticale et une vision transversale. Or les ERP ne sont pas du tout bâtis ainsi puisqu’ils prétendent mettre toutes les entreprises dans un même moule. Le rêve, pour les managers, est évidemment que le système informatique ne crée pas un écran entre le système de pilotage et le système opérant. C’est ce qu’on appelle « l’alignement stratégique du système d’information ». Cela consiste à établir une architecture technique du système informatique qui soit le reflet exact de l’activité de l’entreprise, donc de ses processus. Nous entrons alors dans la troisième génération des systèmes d’information… Il nous faut maintenant faire un détour par la théorie des systèmes. Il est intéressant de constater que la définition normative de la quantité d’information (voir norme sur la théorie de l’information, FD ISO/ CEI 2382-16) est, à une constante près, la même que l’entropie d’un système telle que cette dernière a été définie par Carnot dans son deuxième principe de la thermodynamique. En fait, cela n’a rien d’étonnant. La néguentropie d’un système, donc en particulier d’un processus, reflète le degré d’ordre de ce système, c’est-à-dire la valeur ajoutée du processus considéré. Cette identité des formules mathématiques nous fait apparaître que la quantité d’informations générée par un processus croît en même temps que sa valeur ajoutée. Autrement dit, la quantité d’informations créée par un processus – c’est-à-dire les données engendrées – reflète la valeur ajoutée de ce processus.

Il est donc intéressant de se poser la question : combien y a-t-il de données conceptuelles générées par le système de management d’une entreprise ? Ma propre expérience s’est trouvée confortée par la mesure qu’en a effectuée une grande banque nationale. Elle a évalué que l’ensemble de son système d’information véhiculait 7 500 données conceptuelles. D’une manière générale, nous pouvons retenir que le nombre de données conceptuelles générées dans un système de management ne dépasse pas 10 000.

Réfléchissons maintenant au nombre de processus que l’on peut rencontrer dans une entreprise. La publication de COBIT-5 en avril 2012 fait apparaître qu’il y a au maximum 36 processus majeurs dans une entreprise, quelle que soit sa taille. Prenons le chiffre de 30 pour simplifier les calculs. Étant donné que tout processus se caractérise par sa finalité, son activité et en conséquence les données qu’il génère lui sont propres. Cela veut dire que chacun des 30 processus de notre entreprise fictive génère, en moyenne, 7 500 / 30 = 250 données qui lui sont spécifiques. Si l’on suppose que la modélisation détaillée de chaque processus fait apparaître dix étapes, chacune de ces étapes génère en moyenne 25 données conceptuelles. Chaque étape ayant, par construction, ses propres règles de gestion, elle constitue un objet fonctionnel. Cela signifie que chaque donnée de tout le système d’information est créée ou modifiée dans une étape de processus et une seule. Nous voyons là la grande simplification qu’une telle approche peut apporter aux systèmes d’information. Et qui dit simplification dit économie de construction.

Nous entrevoyons maintenant ce que peut être la troisième génération des systèmes d’information : des systèmes constitués d’objets techniques calqués sur les objets fonctionnels, qui sont eux-mêmes des étapes de processus. C’est la bonne manière d’aboutir à l’alignement stratégique du système d’information. Des calculs ont montré que l’on peut aboutir à une réduction des coûts de fabrication du logiciel de 70 %. Bien entendu, cela suppose que l’on dispose d’une méthode de modélisation des processus qui permette d’aboutir à un processus optimisé, dont toutes les boucles de rétroaction parasites ont été supprimées.

Terminons par une comparaison avec les ERP du marché. Leurs éditeurs présentent leur offre sous la forme d’une palette de 10 à 30 modules. Cela signifie que, dans le meilleur des cas, ils décomposent l’entreprise en 30 éléments. Avec l’approche ici décrite, l’entreprise est décomposée en 250 à 300 éléments, donc avec une granularité dix fois supérieure. On gagne donc non seulement en coûts mais aussi en flexibilité.

viaComment réduire les coûts informatiques ?.

Moodle — Plateforme d’apprentissage en ligne libre

Le constructivisme (il s’agit plus d’une approche actionnelle) postule que la connaissance est construite dans l’esprit de l’apprenant et non retransmise de manière statique via des livres ou des formateurs. La fonction du formateur, du point de vue du constructivisme, est de créer un environnement pédagogique permettant aux apprenants de construire leurs connaissances à partir de leurs expériences et compétences. Cette position s’éloigne de la pratique habituelle du formateur qui présente l’information et évalue l’information que doit maîtriser un étudiant.

via Moodle — Wikipédia.

Logiciels, Internet, moteurs de recherche – Un blog pour l’information juridique

Chercheurs, voici votre liste d’outils numériques !Mercredi 25 septembre 2013Lire la suite »Elle a posé sur Twitter la question suivante : « Amis en SHS, quels sont les 3 outils numériques que vous pensez incontournables dans votre travail ? C’est pour dire à mes étudiants. »squintar a reçu 11 réponses et les a classées sur son blog Penser/Classer pour donner ce que je qualifierais de liste idéale d’outils numériques gratuits pour les chercheurs universitaires : Quels outils numériques pour les SHS ?.Court et remarquable.J’aimerais reprendre ici certains des outils cités et leur présentation par squintar :« Pour gérer/annoter/partager sa bibliographique :Zotero, grand champion de cette consultationPour faire sa recherche bibliographique :Jstor « a digital library of academic journals, books, and primary sources »GallicaGoogle BookCairn « Revues de sciences humaines et sociales en texte intégral »Isidore « Accès aux données et services numériques de SHS »Archive.orgRevues.orgPerséeSudocPour l’archivage :HAL-SHSPour des activités non spécifiques des chercheursPrendre des notes :Evernote « pour gérer mes lectures, notes en conf, notes en réunion et tout classer avec des tags »Pour visualiser un réseau :Gephi  » interactive visualization and exploration platform for all kinds of networks and complex systems, dynamic and hierarchical graphs. Libre et gratuitPour faire de l’analyse de texte et plus encore :Iramuteq : « Interface de R pour les Analyses Multidimensionnelles de Textes et de Questionnaires » ».

viaLogiciels, Internet, moteurs de recherche – Un blog pour l’information juridique.