On ferme ! Les administrateurs du mystérieux botnet Duqu, souvent considéré comme l’héritier de Stuxnet, annoncent la mort du botnet, nous explique VitalyK sur le blog Kaspersky. Un papier d’analyse passionnant qui laisse apparaître une organisation toute militaire : des munitions adaptées et différentes pour chaque type de cible, une fin des opérations qui se solde par un nettoyage en profondeur de toutes les informations collectées par Duqu, et, comble de la méticulosité, mise à jour des serveurs compromis avec une nouvelle édition d’openSSH. Généralement, les bot herders ne se fatiguent pas à remplacer un élément « faillible » par une version réputée solide… a moins précisément qu’OpenSSH 5 soit précisément doté d’un trou aussi homérique que discret.
Lorsqu’une richesse s’épuise, il arrive souvent que l’on tente, quelques années plus tard, d’en ré-exploiter les déchets. Ce fut le cas des « stériles » des mines de galène argentifère du cap Sunion en Grèce qui firent la richesse d’Athènes. 2500 ans plus tard, les déchets de Thémistocle furent retraités pour en extirper les dernières onces de métal précieux. Mais le peu que l’on récupère rembourse rarement les équipements mises en œuvre.
C’est pourtant ce que tente de faire une nouvelle proposition de loi visant à ré-exploiter de manière commerciale les écrits toujours soumis aux droits d’auteur mais indisponibles en librairie et orphelins (autrement dit sans descendant connu des auteurs). Cette tentative d’exploitation des « stériles » littéraires soulève l’indignation de plusieurs associations, dont Adullact, l’Aful et Ffii France, qui estiment cette tentative de récupération des œuvres oubliées comme inutile et surtout nuisible à la diffusion réelle de l’œuvre.
En pratique, explique la loi, une « société de gestion collective obligatoire » (SGCO), serait chargée de décider de la republication ou de l’oubli d’une œuvre écrite, par exemple, au lendemain de la guerre de 14. Ceci, précisent les associations, sans même être obligé de rechercher les éventuels auteurs ou ayants droit : de la matière première à pas cher, qui spolierait donc les familles des auteurs au profit des professionnels de l’édition, tout en s’arrogeant sans recours possible le droit de donner des ailes à un livre ou l’envoyer définitivement au pilon mémoriel. D’autant plus qu’il n’est pas question pour la SGCO « d’investir » sur ces auteurs oubliés pour les ressortir sur papier, mais de diffuser leurs œuvres sous forme numérisée, immatérielle, donc sans coût réel de distribution ou de fabrication… Le tout fort probablement, accompagné de protections anti-copie de type DRM interdisant de transférer une œuvre d’un support à un autre, d’une main à une autre, comme cela est le cas depuis près de 5000 ou 7000 ans que l’on utilise l’écriture. La SGCO est en outre libérée de tout droit d’exhaustivité. L’on aurait pu considérer que la saisie de l’intégralité des ouvrages retrouvés en bibliothèque puisse justifier cette exploitation commerciale, elle-même destinée à financer ce travail de « fouille de sauvetage » littéraire. Non, pas plus qu’il n’y aura de recherche des héritiers ou des auteurs, il ne saurait y avoir le moindre travail de préservation le plus complet possible. La SGCO n’a pas mission de préserver un patrimoine mais d’exploiter ce qu’elle estime exploitable. Voilà qui rappelle quelque peu une autre forme d’appropriation du travail des générations passées dans le domaine des semences agricoles.
Il s’agit ni plus ni moins, explique le porte-parole de l’Aful, de légaliser ce qu’avait tenté de faire Google il y a quelques années et qui avait soulevé l’indignation de ces mêmes députés. C’est là une forme de piratage légal, insiste le communiqué commun des associations.
Existe-t-il une solution alternative ? Pour Bernard Lang, de l’Aful, la voie royale s’appelle « le Libre ». La création d’une filière de diffusion des ouvrages un peu à la sauce Linux, Projet Gutenberg ou Creative Commons, qui permettrait, grâce à une diffusion plus vaste car moins contrainte, d’offrir une nouvelle jeunesse aux « Histoires d’un petit parisien autour du monde » et autres romans oubliés du début du XXème siècle. « Présumer que les auteurs des œuvres indisponibles, donc ayant un faible succès commercial, souhaitent être diffusés numériquement de façon lucrative plutôt que gratuitement est donc manifestement abusif. L’imposer va à l’encontre de l’objectif affiché de relancer la littérature du XXe siècle, et empiète sans nécessité aucune sur le droit exclusif des auteurs à interdire l’usage et l’exploitation de leurs œuvres » insiste l’Aful. D’autant plus que cette loi peut conduire à une situation paradoxale. Puisque la SGCO s’approprie un droit exclusif sur les œuvres, « on peut se demander si un auteur décidant d’exploiter lui-même sur l’Internet son propre livre, publié au XXe siècle et indisponible, risquerait alors des poursuites en contrefaçon et une condamnation à 3 ans de prison et 300 000 euros d’amende ».
Après les chansonnettes et les séries B, les députés s’intéressent aux histoires de petites graines. Le 28 novembre dernier a été adoptée la loi sur « les certificats d’obtention végétale ». Nos confrères du Monde relatent, au fil d’un court article, les origines et problèmes posés par cette loi.
Première et principale conséquence, cette « protection des obtentions végétales » interdit ce que l’on appelle les semences de ferme, autrement dit la part de graines conservée par un agriculteur après la moisson et destinée à semer la prochaine récolte. Si les semences proviennent d’un producteur industriel et appartiennent à une variété déposée, cette réutilisation est considérée comme un vol de propriété intellectuelle, et est soumise à payement d’un droit d’usage. La loi, explique ses auteurs, est censée protéger les cultivateurs et producteurs Français des excès constatés Outre Atlantique, pays où l’on peut breveter des variétés naturelles ou OGM. Mais la loi n’explique pas ce qui a, un beau jour, légitimé le « droit de propriété trans-générationnel » sur les semences. Cela fait parfois plus de 10 000 ans que, de sélections en sélections, les semences sauvages de certaines espèces dont le blé et l’orge ont été patiemment adaptées aux besoins de l’homme. Sans versement de droit. Et à un moment donné du XXème siècle, quelques entreprises ont utilisé ces semences élaborées de main d’homme pour les perfectionner à leur tour. Si ces entreprises n’ont versé strictement aucun droit aux générations d’agriculteurs des siècles passés, elles se sont en revanche arrogé celui de s’approprier l’invention du grain. Un travail guère plus important que celui des premiers agriculteurs-éleveurs qui ont succédé aux chasseurs-cueilleurs et pasteurs-nomades, dont on ne comprend pas en quoi cela justifierait un droit de propriété imprescriptible s’étendant au-delà du premier achat des graines. Certains de nos confrères ont parlé de l’instauration d’une « hadopi de l’agriculture »… il pourrait s’agir plutôt d’un DRM sur le droit de se nourrir.
Pour Manuel Palou, le piratage est soluble dans l’art. Il expose, sur la galerie Art404.com, une œuvre intitulée « 5 millions dollars, 1 Terabyte », rien d’autre qu’un disque dur externe empli jusqu’au dernier octet de logiciels piratés. La liste des programmes et leurs url de téléchargement est même fournie par le galeriste, prouvant la véracité de la valeur fiduciaire de la composition. Palou nous offre ainsi une version moderne des « ready made » de Duchamp ou un cyber-manifeste à la Ben… Le résultat est tout aussi intéressant, provocateur et drôle. Reste à savoir si les avocats du PSA sauront faire preuve du même sens de l’humour.
La bataille qui oppose « ayant droit » et consommateur provoque, ces dernières semaines, quelques dommages collatéraux. Première victime effective, la « mini PKI » qui a transformé le vulgaire connecteur vidéo en un outil anti-piratage, nous avons nommé la prise HDMI et son protocole HDCP.
Car pour « pirater » un disque vidéo, il n’existe que deux solutions : soit en « cassant » le chiffrement qui protège le support et interdit toute copie lisible, soit en enregistrant directement le signal en sortie audio ou vidéo. Et c’est là que les constructeurs (et Intel en particulier) ont inventé une norme de câblage utilisant forces échanges de clefs entre lecteurs, amplificateurs, diffuseurs d’images pour rendre impossible tout prélèvement du signal décodé. Pourtant, courant 2010, une « master key » avait déjà « fuité » sur Internet, rendant potentiellement envisageable cet enregistrement des flux véhiculés par le câble audio-vidéo HDMI.
Mais ce n’est que depuis cette semaine que le professeur Tim Güneysu et son équipe d’universitaires travaillant à Bochum sont parvenus à monter une attaque « man in the middle » capable de récupérer l’information vidéo chiffrée émise par une prise HDMI 1.3 pour ensuite en retransmettre le flux sans aucune protection, vers un diffuseur quelconque. En d’autres termes, le DVD haute définition «BluRay » peut être désormais « dupliqué à des fins personnelles » afin que le manque de fiabilité du support ne puisse léser les acheteurs légitimes de contenus. L’attaque a été réalisée à l’aide d’une carte fpga utilisant un Spartan 6. Il va sans dire que les évolutions de HDMI prendront en compte ce type d’attaque, faisons confiance à Intel.
Un reportage au cœur de l’Amérique qui permet de mieux connaître des entreprises hightech qui cherchent à peaufiner leur image de marque à l’International. Qu’elle existe depuis une décade ou qu’elle soit tout juste une jeune pousse : tour d’horizon de quelques technologies prometteuses …
Annoncé pour mort par IDC, il y a de cela 7 ou 9 ans, Datacore a pourtant survécu. Performances et capacités sont les maîtres mots de la firme de Fort Lauderdale qui évolue sur un marché difficile. Difficile car il est quasi-dominé par de grandes structures dont la réputation n’est plus à faire, des Hitachi, IBM ou EMC. Face à ces géants, Datacore devait absolument se démarquer pour survivre. Un point fort qui leur a également permis de se maintenir sur un marché hautement concurrentiel où la mode est au rachat des technologies manquantes dont notamment celle de virtualisation du stockage, procédé notamment utilisé cette année par EMC, HP ou Dell.
Qu’est-ce qui sauve Datacore ? D’un point de vue philosophique, on pourrait comparer la vision de Datacore avec le concept de virtualisation d’un VmWare, Citrix ou Microsoft. Des éditeurs qui rassemblent, via leur hyperviseur, des ressources machines sous une forme virtuelle dont on peut disposer à souhait et ce, indépendamment du matériel physique utilisé derrière. A la place de ressources de calcul, le logiciel phare de Datacore permet de virtualiser les infrastructures de stockage et ce, de façon totalement agnostique par rapport au matériel de stockage derrière. Autre avantage, SANsymphony-V (en version 8 depuis janvier de cette année) associe sur une même interface la gestion de la capacité, la protection de données et la gestion de performance. Une nécessité car une cloudification à outrance, a engrangé une forte nécessité en termes de stockage, fait qui devient du coup un frein majeur pour le développement même de la virtualisation. Et l’on assiste à des remplacements d’environnements de stockage pour harmoniser un parc, ou le faire évoluer, voire tout simplement parce que le logiciel de gestion du stockage ne supporte que quelques familles de produits. Une couche logicielle agnostique donc qui est, par ailleurs, capable de gérer tant le stockage physique que virtuel.
Nom de la société : Datacore
Date de création : 1998
Président et CEO : George S. Teixeira
Domaine : virtualisation des environnements de tockage
Portefeuille : SANsymphony-V
Fondateur : George S. Teixeira
Une simple question posée à des entreprises comme à des particuliers : « réalisez-vous le backup de vos données ? » a donné lieu à des réponses en écrasante majorité négative. Ils sont plus de 94% à avouer qu’ils n’en réalisent pas régulièrement que ce soit une fois par semaine, voire une par mois ou même une simplement par année. La raison invoquée est souvent : c’est trop difficile. Pourquoi ? Ce n’est tout simplement pas évident pour un particulier de faire ce genre de sauvegarde et si l’on est dans un contexte professionnel, on pense bien souvent à réaliser des sauvegardes des serveurs pendant que l’on oublie, la plupart du temps, d’eefectuer le même geste pour le poste de travail de l’utilisateur. En fait, il y a deux catégories de personnes, les techniques et les néophytes. C’est plus pour le profil sans compétence que Backblaze a été envisagée, un service qui permette aux non techniques de ne plus penser à ce genre de détail. Ainsi les TPE voire PME de 5 à 50 utilisateurs qui n’ont pas de personnel IT la plupart du temps, n’ont plus à se préoccuper de cette part de travail.
Comment tirer son épingle du jeu alors que d’autres se sont déjà installés, avec succès, sur ce créneau ? En affichant clairement que l’on s’adresse à une population non technique à laquelle il ne faut rien demander sous peine de les « perdre » rapidement. Ainsi, même le choix de ce qu’il faudrait sauvegarder ou non, n’est plus à la charge de l’utilisateur qui de toute façon, a bien du mal à répondre à ce genre de requête. Par conséquent l’idée pour Backblaze est de tout sauvegarder et d’ailleurs la société possède une capacité de stockage de 10 petaoctets au total. Naturellement, ils chiffrent toutes les données stockées dans le nuage avec un algorithme AES. Et pour éviter les problèmes de bande passante, les données sont également compressées. Là où ils se démarquent également c’est au niveau des tarifs pratiqués : un prix de 5$ par mois qui chute à 3$ si le contrat est pris sur 2 ans. Il est de 100$ en nombre de machines illimité et espace de backup illimité également.
A noter qu’à l’origine de cette société, il y a5 fondateurs qui n’étaient pas totalement étranger au domaine (Kendara, SonicWall, MailFrontier …).
Nom de la société : Backblaze
Date de création : 2008
CEO : Gleb Budman
CTO : Brian Wilson
Domaine : Stockage
Portefeuille : Service de backup dans le Cloud
Fondateur : 5 fondateurs
En Californie, dans la mythique Silicon Valley, se trouve PaloAlto Networks. Une société qui évolue dans le secteur de la Sécurité sur un marché des plus concurrentiels : les parefeux. Née en 2007 sous l’impulsion de Nir Zuk, cette entreprise n’est en aucun cas partie de rien. Avec à sa tête, un personnage connu dans le domaine de la Sécurité comme le loup blanc, la startup a, dès le début, attiré l’attention sur elle. Checkpoint, Onesecure, Netscreen, Juniper sont parmi les sociétés pour lesquelles Nir zuk a travaillé. La spécialité de PaloAlto Networks est sans surprise reliée au monde de parefeux mais cette fois ceux dit de « Nouvelle Génération », Next Generation Firewall.
Au cœur de la technologie phare de la jeune pousse, une philosophie qui part du principe que pour mieux contrôler la sécurité de son réseau, il faut passer dès le démarrage par une politique basée sur l’identification de l’utilisateur comme des applications ou des contenus. Une forte progression du chiffre d’affaires ces trois à quatre dernières années tendraient à prouver que Nir Zuk a fait le bon choix technologique. Et avec près de 35% de ses employés en recherche & Développement, la société travaille sur des moyens de bloquer et contrôler tout le nouveau trafic dont fait partie les applications web via les navigateurs, les réseaux sociaux, les plates-formes de partage de travail comme Sharepoint, les messageries instantanées … en bref toutes les récentes applications qui ouvrent de nombreuses vulnérabilités sur le Système d’Information comme les nouvelles à venir. La NG Firewall s’attaque également aux forces mobiles de l’entreprise et s’appuie sur le Cloud pour protéger rapidement les personnes connectées. L’OS 4.0 disponible depuis mars possède nombreuses nouvelles fonctions comme la détection de comportement. Au niveau matériel, de nombreux FPGA sont utilisées pour couvrir toutes les nouvelles fonctions nécessaires.
Nom de la société : PaloAlto Networks
Date de création : 2007
Domaine : Sécurité
Portefeuille : NGFW, PA 200, PA 500, PA 2000, PA 4000 et PA 5000
Fondateur : Nir Zuk
Zoho Corporation est une grande entreprise qui possède plusieurs branches. Elle a commencé sa carrière dans la gestion IT et télécom en fournissant des plates-formes logicielles puis a étendu son activité avec la fourniture de nombreuses plates-formes de gestion : de réseau, Helpdesk et ITIL … toutes destinées aux entreprises. Enfin, plus récemment, Zoho a pris le virage Cloud et s’est lancée dans le domaine des services en proposant des applications en mode Saas. Sur cette dernière activité, elle est devenu concurrente d’éditeurs comme Microsoft avec Office 365 ou Google et ses google apps (même s’ils sont également partenaires en s’intégrant facilement aux google apps) en proposant des applications bureautiques dans le Cloud ainsi que des outils de gestion de forces de vente. Les outils d’administration comme de helpdesk basculent également dans le cloud notamment en ce qui concerne le réseau avec OpManager Ondemand.
L’idée du gratuit a permis à Zoho de se lancer dans l’univers du Saas. Non seulement leurs suites Cloud sont gratuites mais généralement elles proposent les fonctions attendues par les entreprises leur permettant de répondre à leurs besoins quotidiens ainsi la suite destinée aux forces de vente qui a un succès notable. Dès que l’utilisateur a besoin de stockage ou d’un compte de plus, c’est là que Zoho devient payant. Au niveau des applications, beaucoup de suites comme la mail suite, l’office suite, la business suite. Même un CRM pour call centers est disponible comme un cloud dédié au milieu médical.
Zoho possède deux datacenters, un à Sunnyvale et l’autre à l’extérieur de New-York. Elle est présente en Chine via des partenaires et en Europe également. Là, seules les problématiques de conformité freinent un peu leur ascension.
Nom de la société : Zoho
Date de création : 1996 / 2005
CEO : Sridhar Vembu
Domaine : Cloud
Portefeuille : Services en mode SaaS d’applications verticales
CDNetworks est un fournisseur de contenu sur le réseau. Son siège social est en Corée du Sud mais il est présent dans plusieurs pays dont les Etats-Unis, l’Angleterre, la France, la Corée, le Japon et la Chine. La société a débuté ses activités en Corée pour poursuivre au Japon en 2005, Chine et US en 2006. Après les US, la firme confirmera sa présence en Europe.
Avec le Cloud, plus besoin de matériel pour les entreprises qui limitera ainsi son CAPEX et n’aura que des dépenses en OPEX. Selon CDNetworks, cela mettra 3 ou 5 voire 10 ans mais le CDN, Content Delivery Network, se banalisera dans le Cloud et ce, en s’affranchissant de la dépense de matériel pour l’entreprise. D’autant que les besoins en termes de réseau pour faire transiter du contenu sont de plus en plus importants car quasi toutes les entreprises ont, désormais, des sites web. Alors que parallèlement, elles deviennent de plus en plus globale avec des messages diffusés (images, textes et vidéos) tout azimut. Elles ne se cantonnent plus à une zone géographique locale pour faire du business. En s’appuyant sur une étude, le distributeur de contenu rapporte que près de 40% des entreprises de l’échantillon interrogé travaillent avec du personnel externe alors qu’environs 90% d’entre elles, ont des employés mobiles.
Le produit phare, Web Performance Suite, répond au challenge de la performance globale actuelle : se rapprocher des performances d’échanges en local. Il est clair que plus on est éloigné d’un datacenter plus les performances s’amenuisent. Pour soutenir un débit convenable, CDNetwoerks n’utilise pas le protocole TCP mais son propre jeu de protocoles propriétaires. Résultat, grâce à ses nombreux centres de données dispatchés dans le monde et des fonctions spécifiques dans sa suite, il propose de l’accélération web dynamique, de l’accélération média et de contenu, qu’il soit généré dynamiquement donc sans possibilité de caching pour celui-ci ou statique (stockable à souhait). DNS et stockage dans le Cloud comme load balancing font également partie des services proposés par la firme, l’ensemble des services étant accessibles via un portail.
Nom de la société : CDNetworks
Date de création : 2000
Siège social : Corée du Sud
Domaine : réseau de distribution de contenu
Portefeuille : solution la plus récente, la Web Performance suite
Au tout début de l’histoire de Virtual Instruments, était Finisar, une société spécialisée en Fibre Chanel et notamment en tests des équipements utilisant cette technologie. Aujourd’hui, la nouvelle société à une famille de produits, côté logiciel Virtual Insight alors que sur le plan matériel, le produit s’appelle San Insight. A noter également l’arrivée d’un investisseur européen car la firme américaine aimerait se développer sur le vieux continent … sachant que 2011 est un grand cru pour Vitrtual Instruments qui a tout simplement doublé son chiffre d’affaires sur les premiers trimestres. En effet tout joue en faveur du développement d’une société basée sur les métriques : les environnements deviennent de plus en plus complexes et la performance devient un réel problème pour nombre d’entreprises. Le passage à une infrastructure de plus en plus virtuelle combiné à la perte de contrôle et de visibilité sur les environnements informatiques entraîne un fort besoin en instrumentation, mesures et outils d’analyse. En effet avant d’espérer optimiser un environnement IT, une étape de mesure au préalable semble indispensable …
Les premières cibles de Virtual Instruments sont les fournisseurs de datacenter comme les grands comptes. Il est aujourd’hui difficile de virtualiser les applications critiques alors que la virtualisation envahit tous les étages d’autant que la plupart des entreprises tentent l’aventure du Cloud. Selon le cabinet ESG, 44% du stockage est virtualisé ce qui entraîne de nombreuses nouvelles tâches (surveillance du timing, la présence d’un plus grand nombre de personnes) alors que près de 86% des serveurs ont sauté le pas vers la virtualisation. Au centre du business de Virtual Instruments, le passage des applications critiques en mode virtualisé. Traiter de l’intérêt de passer en mode virtualisé pour une application donnée : surveiller les entrées-sorties du sous-système, fournir en temps réel une vue des entrées-sorties et observer le temps de latence pour prendre une décision en terme de load balancing, assurer une corrélation entre serveur, réseau et environnement de stockage …En pratique, pour obtenir une visibilité sur l’ensemble des transactions et les optimiser, la solution adéquate est VirtualWisdom.
Nom de la société : Virtual Instruments
Date de création : juin 2008
Siège social : San Jose, Californie
CEO : Jim Davidson
Domaine : Métriques et optimisation pour les mondes du stockage et virtuel
Portefeuille : VirtualWisdom ; produit phare
Fondateur : Jim Davidson, entre autres
Tim Rains, un des patrons du TWC (Trustworthy Computing) de Microsoft, déclarait dans une interview à Infoworld que leur cellule sécurité aurait intercepté 27 millions d’exploits Java entre mi-2010 et mi-2011
La presse en ligne trop vulnérable estime Heat Miser. Pourtant, avant les attaquesbinaires, il existe d’autres types de menaces plus efficaces et courantes : attaques en diffamation, plombiers, pressions publicitaires…
Après the good et the bad, le blog de Trend Micro présente “the ugly”, ou les défauts génétiques de HTML5 : les coulisses de l’exploit
Android sert-il de parafoudre ? Probablement un peu. Car au même moment, si l’on se penche sur la liste des failles publiées sur Bugtraq relative à la plateforme Webkit, l’on se rend compte qu’il ne doit pas falloir chercher longtemps pour trouver un exploit fonctionnel sur une plateforme X ou Y. 331 CVE recensés depuis 2005, dont un nombre élevé de failles non corrigées et exploitables. Or, Webkit est utilisé par une multitude de plateformes, à commencer par IOS. Ce qui ne veut pas dire estiment les spécialistes de NSS labs, qu’IOS soit plus vulnérable qu’une autre plateforme et « impropre à la consommation en entreprise ». Sophisme ou analyse de risques ?
Qui croire ? Tout le monde et personne. A la question « une attaque de mon mobile est-elle possible », la réponse est « oui, indiscutablement ». A celle « faut-il acheter un antivirus pour appareil mobile », les avis commencent à diverger. L’installation de programmes de sécurité a de fortes chances de poser des problèmes de ressources et d’ergonomie, sans oublier le fait qu’un A.V. constitue lui aussi une surface d’attaque certaine et bénéficie « par définition et par construction » de procédures d’audit pas toujours aussi poussées que l’on pourrait le souhaiter. S’il est possible de tromper la quasi-totalité des antivirus à l’occasion de concours tels que Iawacs, il n’y a pas de raison que les protections pour smartphones échappent à cette règle.
« Peut-on sous-traiter la sécurité de nos terminaux aux opérateurs télécom » ? Là encore, personne ne peut répondre par l’affirmative. Bien sûr, chaque opérateur peut effectuer un filtrage minimaliste… mais peut-il filtrer toutes les navigations Web ? En possède-t-il d’ailleurs le droit ? Utilisé en mode ISP, sera-t-il en état d’offrir quelque chose de plus qu’une fonction antivirus/dlp dont on ne connaît pas nécessairement l’efficacité et le niveau de sécurité ? Et quand bien même les Telco se chargeraient-ils de ce travail de salubrité que les plateformes ne seraient pas moins vulnérables. Aucun opérateur, par exemple, n’accepte de « pusher » les correctifs d’un éditeur de plateforme lorsqu’une faille a été détectée : ce serait donner carte blanche à une entreprise de droit privée, étrangère de surcroît, sur une infrastructure Scada d’envergure nationale. Entre la sécurité d’Etat fantasmée et l’insécurité réelle quotidienne, le choix ne tient pas compte de l’utilisateur final.
Mais si l’on demande « cette attaque est-elle probable », il est difficile d’être aussi catégorique. En premier lieu, parce que les canaux d’attaque sont réduits : navigateur, mail, Bluetooth pour les plus paranoïaques. Parce que, aussi, l’interactivité est faible avec l’éventuel « collecteur d’informations ». Pourquoi, en effet, aller chercher à r00ter le tout dernier Samsung ou les armées d’iPhones alors qu’il existe de par le monde des millions d’Internet Explorer non patchés fonctionnant sur les systèmes susceptibles de contenir bien plus d’informations qu’un terminal mobile, et raccordés à une infrastructure réseau considérablement plus rapide que le plus rapide des « hauts débit » des marchands d’abonnements illimités ?