Eric Parizo, de SearchSecurity, signe un papier passionnant sur la sécurité et la mode du Big Data. Article qui reprend les grandes lignes du discours que donnait Neil MacDonald, vice-président du cabinet d’étude Gartner. L’accumulation et le traitement massif de données atteignent de tels niveaux qu’il n’existe pas encore d’outil fiable pour détecter une menace, une fuite d’information, une intrusion. L’on peut, a priori, commencer par définir le profil d’une activité « normale » par analyse des flux et des traitements, et ainsi en dégager les usages sortant de cette norme pour tenter d’en faire ressortir, par contraste, une activité douteuse. En 2016, précise MacDonald, 40% des entreprises notamment dans les secteurs banques-assurances-industries pharmaceutiques-défense, tenteront de détecter des activités anormales en effectuant des analyses sur des modèles portant sur des volumes d’au moins 10 To. On imagine la suite : soit un engorgement des outils de détection, soit une avalanche de faux-positifs… la mise au point de modèles mathématiques capables de filtrer ce qui est véritablement important est donc un impératif. La question ne date pas d’hier. Sebastien Tricaud avait notamment donné une conférence sur le sujet lors de la conférence Hackito Ergo Sum de 2011… Encore ne s’agissait-il que d’analyse de flux réseau. Le problème est encore plus compliqué lorsque les données ne bougent pas.