Le phénomène Big Data
L’explosion quantitative des données numériques a obligé les chercheurs à trouver de nouvelles manières de voir et d’analyser le monde. Il s’agit de découvrir de nouveaux ordres de grandeur concernant la capture, la recherche, le partage, le stockage, l’analyse et la présentation des données. Ainsi est né le « Big Data ». Il s’agit d’un concept permettant de stocker un nombre indicible d’informations sur une base numérique. Selon les archives de la bibliothèque numérique de l’Association for Computing Machinery (ou ACM) dans des articles scientifiques concernant les défis technologiques à relever pour visualiser les « grands ensembles de données », cette appellation est apparue en octobre 1997.
Le Big Data, c’est quoi ?
Littéralement, ces termes signifient mégadonnées, grosses données ou encore données massives. Ils désignent un ensemble très volumineux de données qu’aucun outil classique de gestion de base de données ou de gestion de l’information ne peut vraiment travailler. En effet, nous procréons environ 2,5 trillions d’octets de données tous les jours. Ce sont les informations provenant de partout : messages que nous nous envoyons, vidéos que nous publions, informations climatiques, signaux GPS, enregistrements transactionnels d’achats en ligne et bien d’autres encore.
Ces données sont baptisées Big Data ou volumes massifs de données. Les géants du Web, au premier rang desquels Yahoo (mais aussi Facebook et Google), ont été les tous premiers à déployer ce type de technologie.
Cependant, aucune définition précise ou universelle ne peut être donnée au Big Data. Étant un objet complexe polymorphe, sa définition varie selon les communautés qui s’y intéressent en tant qu’usager ou fournisseur de services. Une approche transdisciplinaire permet d’appréhender le comportement des différents acteurs : les concepteurs et fournisseurs d’outils (les informaticiens), les catégories d’utilisateurs (gestionnaires, responsables d’entreprises, décideurs politiques, chercheurs), les acteurs de la santé et les usagers.
Le big data : un système technique dual
Le big data apporte des bénéfices, mais peut également générer des inconvénients. Ainsi, il sert aux spéculateurs sur les marchés financiers, de manière autonome avec, à la clé, la constitution des bulles hypothétiques.
L’arrivée du Big Data a été présentée par de nombreux articles comme une nouvelle révolution industrielle. Elle ressemble à la découverte de la vapeur (début du 19e siècle), de l’électricité (fin du 19e siècle) et des ordinateurs (fin du 20e siècle). D’autres, un peu plus mesurés, qualifient ce phénomène de dernière étape de la troisième révolution industrielle, qui est en fait la révolution « informationnelle ». Dans tous les cas, le Big Data se présente comme une source de bouleversement profond de la société.
Big Data : l’analyse de données en masse
Inventé par les géants du web, le Big Data se présente comme une solution dessinée pour permettre à tout le monde d’accéder en temps réel à des bases de données géantes. Il vise à proposer un choix aux solutions classiques de bases de données et d’analyse (plate-forme de Business Intelligence en serveur SQL…).
Selon le Gartner, ce concept regroupe une famille d’outils qui répondent à une triple problématique dite règle des 3V. Il s’agit notamment d’un Volume de données considérable à traiter, une grande Variété d’informations (venant de diverses sources, non-structurées, organisées, Open…), et un certain niveau de Vélocité à atteindre, autrement dit de fréquence de création, collecte et partage de ces données.
Les évolutions technologiques derrière le Big Data
Les créations technologiques qui ont facilité la venue et la croissance du Big Data peuvent globalement être catégorisées en deux familles : d’une part, les technologies de stockage, portées particulièrement par le déploiement du Cloud Computing. D’autre part, l’arrivée de technologies de traitement ajustées, spécialement le développement de nouvelles bases de données adaptées aux données non-structurées (Hadoop) et la mise au point de modes de calcul à haute performance (MapReduce).
Il existe plusieurs solutions qui peuvent entrer en jeu pour optimiser les temps de traitement sur des bases de données géantes à savoir les bases de données NoSQL (comme MongoDB, Cassandra ou Redis), les infrastructures du serveur pour la distribution des traitements sur les nœuds et le stockage des données en mémoire :
La première solution permet d’implémenter les systèmes de stockage considérés comme plus performants que le traditionnel SQL pour l’analyse de données en masse (orienté clé/valeur, document, colonne ou graphe).
La deuxième est aussi appelée le traitement massivement parallèle. Le Framework Hadoop en est un exemple. Celui-ci combine le système de fichiers distribué HDFS, la base NoSQL HBase et l’algorithme MapReduce.
Quant à la dernière solution, elle accélère le temps de traitement des requêtes.
Evolution du Big Data : le développement de Spark et la fin de MapReduce
Spark prend la place de MapReduce
Le Big Data étant un environnement en constante évolution, il cherche toujours à optimiser les performances de ses outils. Par conséquent, son paysage technologique évolue rapidement. De nouvelles solutions sont développées très fréquemment, dans le but d’optimiser davantage les technologies existantes. MapReduce et Spark représentent des exemples très concrets de cette évolution.
En 2004, Google a décrit MapReduce comme un modèle mis en œuvre dans le projet Nutch de Yahoo. Ce projet devient le projet Apache Hadoop en 2008. Cet algorithme a une grande capacité de stockage de données. Son inconvénient tient à sa lenteur. Cette dernière se révèle particulièrement sur des volumes modestes. Malgré cela, les solutions, voulant offrir un traitement quasi-instantané sur ces volumes, commencent à s’éloigner de MapReduce. En 2014, Google a donc annoncé qu’une solution SaaS, appelée Google Cloud Dataflow, lui succéderait.
Spark constitue également une solution emblématique pour écrire simplement des applications distribuées et proposer des bibliothèques de traitement classiques. En même temps, avec des performances remarquables, il peut travailler sur des données sur disque ou des données chargées en RAM. Bien qu’il soit plus jeune, il dispose d’une énorme communauté. Il s’agit également de l’un des projets Apache dont la vitesse de développement est rapide. Au final, cette solution s’avère être le successeur de MapReduce, d’autant qu’elle a l’avantage de fusionner une grande partie des outils nécessaires dans un cluster Hadoop.
Les principaux acteurs du marché
La filière Big Data en a attiré plusieurs. Ces derniers se sont positionnés rapidement dans divers secteurs. Dans le secteur IT, on retrouve les fournisseurs historiques de solutions IT comme Oracle, HP, SAP ou encore IBM. Il y a aussi les acteurs du Web dont Google, Facebook, ou Twitter. Quant aux spécialistes des solutions Data et Big Data, on peut citer MapR, Teradata, EMC ou Hortonworks. CapGemini, Sopra, Accenture ou Atos sont des intégrateurs, toujours des acteurs principaux dans les méga données. Dans le secteur de l’analytique, comme éditeurs BI, on peut citer SAS, Micro-strategy et Qliktech. Cette filière comporte aussi des fournisseurs spécialisés dans l’analytique comme Datameer ou Zettaset. En parallèle à ces principaux participants, de nombreuses PME spécialisées dans le Big Data sont apparues, sur toute la chaîne de valeur du secteur. En France, les pionniers ont été Hurence et Dataiku pour les équipements et logiciels de Big Data ; Criteo, Squid, Captain Dash et Tiny Clues pour l’analyse de données et Ysance pour le conseil.
Formation continue en Big Data : ce que proposent les grandes écoles
Désormais, des grandes écoles proposent des formations dans le Big Data. La pédagogie veut accorder une large part à des études de cas et retours d’expérience. Elle met aussi en exergue les « fils rouges ». Il s’agit de projets de mise en situation professionnelle que certaines grandes entreprises telles que EDF ou encore Capgemini proposent.
Ce genre de formation n’est pas limité à un cadre théorique. Les apprentis sont aussi amenés à faire des pratiques en renforçant leur formation par un stage. Pour intégrer ces écoles, il faut être un titulaire d’un diplôme d’ingénieur en informatique ou en télécommunication, ou d’un master universitaire scientifique ou technique, en informatique ou en mathématiques appliquées. Elles acceptent souvent les bac +4 scientifique à condition que la personne dispose d’au moins 3 ans d’expérience professionnelle.
L’intérêt d‘une formation digitale orientée Big Data
De plus en plus, le numérique s’illustre comme la pierre angulaire de chaque entité souhaitant percer sur le marché devenu très moderne de l’emploi. Les entreprises s’arrachent en effet les rares data scientists diplômés des écoles et des organismes délivrant une formation digitale. Elles justifient leur démarche sur le principe que les analyses de données ont capacité à optimiser un profil grâce à l’avènement du numérique et l’essor du Big Data. Ce dernier s’apparente par conséquent à un acteur majeur du secteur. Nombre de start-ups voient le jour et intègrent le process dans l’apprentissage de ses équipes. L’objectif premier étant de mettre les données intelligents au service de l’éducation.
L’enseignement connaît une véritable mutation qui a débuté avec l’émergence du E-Learning. En faisant intervenir le Big Data dans leur stratégie, les sociétés garantissent la compétitivité de leur marque et optimisent le suivi de leurs clients. Par ailleurs, les chercheurs s’attèlent petit à petit à décortiquer la manière d’exploiter au mieux le Big Data et ses outils technologiques pour favoriser l’éducation. Fort de ce constat, Stratégies formations propose pas moins de 80 formations axées sur le secteur digital. Les apprentis pourront ainsi acquérir ou renforcer des compétences en termes de transformation digitale, de search marketing ou encore de médias sociaux. Trouvez le module qui vous correspond Comundi.fr, cliquez sur le lien suivant pour voir le site.
Data Scientist : LE métier du Big Data
Chargé de la gestion, de l’analyse et de l’exploitation des données massives dans les entreprises, le métier de Data Scientist figure parmi les 25 meilleurs métiers du monde selon une étude du site d’embauche Glassdoor. Il représente l’évolution du Data Analyst et est aujourd’hui très recherché pour ses compétences spécialisées. En effet, ce poste à haute responsabilité demande un niveau d’éducation élevé sur le sujet et requiert des connaissances très pointues. Celles-ci vous permettront d’acquérir les outils nécessaires pour être performant dans ce métier d’avenir. Cela comprend ainsi l’étude des statistiques, à la maîtrise de différents langages de programmation en passant par des notions de machine learning. À titre d’information, le salaire moyen d’un Data Scientist aux US en 2020 était de 110 000 dollars.
Les salaires / rémunérations dans le domaine du Big Data
D’après Esilv.fr, les études de salaire des développeurs révèlent que le domaine du Big Data en 2015 est en tête.
Voici en comparaison les salaires de développeurs PHP et les salaires de développeurs en Big Data d’après Urban Linker.
Salaires de développeurs PHP :
Salaires de développeurs en Big Data :
Comment les big data sont-elles stockées et traitées ?
Les big data sont souvent stockées dans un lac de données. Ces derniers peuvent prendre en charge différents types de données. La plupart du temps, il utilise des clusters Hadoop, des services de stockage d’objets dans le nuage, des systèmes NoS et des systèmes de gestion des données.
De nombreux environnements big data combinent plusieurs systèmes dans une architecture distribuée. Par exemple, un lac de données central peut être intégré à d’autres plateformes, notamment des bases de données relationnelles ou un entrepôt de données. Les données des systèmes big data peuvent être laissées sous leur forme brute, puis filtrée et organisée selon les besoins pour des utilisations analytiques particulières. Dans d’autres cas, elles sont prétraitées à l’aide d’outils d’exploration de données et de logiciels de préparation de données. Ainsi, ces données sont prêtes pour les applications qui sont exécutées régulièrement.
Le traitement des données volumineuses exige beaucoup de l’infrastructure informatique sous-jacente. La puissance de calcul requise passe souvent par des systèmes en grappe. Ceux-ci répartissent les charges de travail sur des centaines ou des milliers de serveurs de base, à l’aide de technologies telles que Hadoop et le moteur de traitement Spark.
Obtenir ce type de capacité de traitement de manière rentable est un défi. Voilà pourquoi le cloud est un lieu de prédilection pour les systèmes de big data. Les organisations peuvent déployer leurs propres systèmes basés sur le cloud ou utiliser des offres de big data gérés par des fournisseurs de Cloud.
Big Data : des innovations disruptives qui changent la donne
Le Big Data et les analytics sont utilisés dans presque tous les domaines. Ils se sont même construits une place importante dans la société. Ils se traduisent sous plusieurs formes à ne citer que l’usage de statistiques dans le sport de haut niveau, le programme de surveillance PRISM de la NSA, la médecine analytique ou encore les algorithmes de recommandation d’Amazon.
En entreprise particulièrement, l’usage d’outils Big Data & Analytics répond généralement à plusieurs objectifs comme l’amélioration de l’expérience client, l’optimisation des processus et de la performance opérationnelle, le renforcement ou diversification du business model.
De nouvelles opportunités significatives de différenciation concurrentielle sont générées par l’ère de la gestion d’importants volumes de données et de leur analyse. Pour les organisations, plusieurs raisons peuvent les inciter à se tourner vers cette nouvelle administration de données à savoir la gestion rentable des données, l’optimisation du stockage d’informations, la possibilité de faire des analyses programmables ou encore la facilité de la manipulation des données.
Big Data, exclusivement pour les fonctions Marketing et commerciales ?
Cette technologie représente aux yeux de tous un enjeu commercial privilégié compte tenu de sa capacité à impacter le commerce en profondeur dans l’économie mondiale intégrée. En effet, les entreprises, peu importe leur taille, font partie des premières à bénéficier des avantages obtenus à partir d’une bonne manipulation des données massives.
Cependant, les mégadonnées jouent également un rôle essentiel dans la transformation des processus, de la chaîne logistique, des échanges de type « Machine-to-Machine » dans le but de développer un meilleur « écosystème informationnel ». Ils permettent aussi de prendre des décisions plus véloces et plus crédibles, prenant en considération des informations internes mais également externes à l’organisation. Ils peuvent entre-temps servir d’appui pour la gestion des risques et de la fraude.
Devant tant d’informations, comment trier le bon grain de l’ivraie ?
Comme le dit le vieil adage « trop d’informations tuent l’information ». Il s’agit en fait du principal problème avec les mégadonnées. La quantité énorme des informations est un des obstacles. L’autre obstacle provient évidemment du niveau de certitude qu’on peut avoir sur une donnée.
En effet, les données qui découlent du marketing numérique peuvent être considérées comme des informations « incertaines », dans la mesure par exemple où on ne peut être sûr de l’identité de qui est en train de cliquer sur une offre incluse dans une URL. Le volume de données associé au manque de crédibilité de celles-ci rend son exploitation plus alambiquée.
Pour autant, grâce aux algorithmes statistiques, des solutions existent. C’est d’ailleurs, avant même de se demander s’il serait possible de collecter et stocker le big data, qu’on devrait toujours commencer par s’interroger de son aptitude à les analyser et de leur utilité.
Avec un but convenablement déterminé et des données d’une qualité suffisante, les algorithmes et méthodes statistiques permettent désormais de concevoir de la valeur alors que ce n’était pas encore faisable il y a encore quelques années. A ce propos, on peut distinguer deux types d’écoles dans le domaine prédictif à savoir l’intelligence artificielle ou « machine learning » et la statistique. Ces deux secteurs bien qu’ils soient distincts se rejoignent finalement de plus en plus. De plus, ils peuvent être utilisés en simultanéité de manière vertueuse et intelligente pour mener à bien un projet.
Là où l’usage des mégadonnées en gestion devient un enjeu vital pour les entreprises.
Parmi les utilisateurs les plus enthousiastes du Big Data, on retrouve les gestionnaires et les économistes. Ces derniers définissent ce phénomène par la règle des 5V (Volume, Velocity, Variety, Veracity, Value).
Le volume
Le volume correspond à la masse d’informations produite chaque seconde. Selon des études, pour avoir une idée de l’accroissement exponentiel de la masse de données, on considère que 90 % des données ont été engendrées durant les années où l’usage d’internet et des réseaux sociaux a connu une forte croissance. L’ensemble de toutes les données produites depuis le début des temps jusqu’à la fin de l’année 2008, conviendrait maintenant à la masse de celles qui sont générées chaque minute. Dans le monde des affaires, le volume de données collecté chaque jour est d’une importance vitale.
La velocité
La velocité équivaut à la rapidité de l’élaboration et du déploiement des nouvelles données. Par exemple, si on diffuse des messages sur les réseaux sociaux, ils peuvent devenir « viraux » et se répandre en un rien de temps. Il s’agit d’analyser les données au décours de leur lignée (appelé parfois analyse en mémoire) sans qu’il soit indispensable que ces informations soient entreposées dans une base de données.
La variété
Seulement 20% des données sont structurées puis stockées dans des tables de bases de données relationnelles similaire à celles utilisées en gestion comptabilisée. Les 80% qui restent sont non-structurées. Cela peut être des images, des vidéos, des textes, des voix, et bien d’autres encore… La technologie Big Data, permet de faire l’analyse, la comparaison, la reconnaissance, le classement des données de différents types comme des conversations ou messages sur les réseaux sociaux, des photos sur différents sites etc. Ce sont les différents éléments qui constituent la variété offerte par le Big Data.
La véracité
La véracité concerne la fiabilité et la crédibilité des informations collectées. Comme le Big Data permet de collecter un nombre indéfini et plusieurs formes de données, il est difficile de justifier l’authenticité des contenus, si l’on considère les post Twitter avec les abréviations, le langage familier, les hashTag, les coquilles etc. Toutefois, les génies de l’informatique sont en train de développer de nouvelles techniques qui devront permettre de faciliter la gestion de ce type de données notamment par le W3C.
La valeur
La notion de valeur correspond au profit qu’on puisse tirer de l’usage du Big Data. Ce sont généralement les entreprises qui commencent à obtenir des avantages incroyables de leurs Big Data. Selon les gestionnaires et les économistes, les entreprises qui ne s’intéressent pas sérieusement au Big Data risquent d’être pénalisées et écartées. Puisque l’outil existe, ne pas s’en servir conduirait à perdre un privilège concurrentiel.
L’essor des mégadonnées en médecine
La médecine constitue un art qui fait appel aux sciences. En effet, un médecin en exercice est à la fois un scientifique qui a acquis des connaissances en biophysique, sémiologie médicale et chirurgicale, anatomie, biochimie, physiologie, biologie. En outre, il est un artiste qui maîtrise les compétences pour réaliser des gestes thérapeutiques adaptés.
Désormais, les connaissances traditionnelles ne suffisent plus pour mieux amplifier le pouvoir d’un médecin dans l’investigation et le soin. Celui-ci a également appris à maîtriser les technologies les plus sophistiquées des différentes spécialités médicales. En effet, nous assistons à l’essor de la bio-ingénierie médicale ou MBE.
Cette alternative offre aux médecins de nouvelles possibilités de diagnostic. A savoir, des appareils d’imagerie : scintigraphie, ultrasons, imagerie par résonance magnétique (IRM), etc. L’alliance technologie/médecine a également donné naissance à plusieurs machines. Notamment des appareils d’analyse biologique, des appareils d’analyse de signaux tels que les électrocardiogrammes (ECG) ou les électroencéphalogrammes (EEG), ainsi que des appareils de traitement de pathologies (dialyse, laser, assistance respiratoire, médecine nucléaire, etc).
Ces appareils permettent de recueillir diverses informations concernant les patients. Ils sont le plus souvent contrôlés par des ordinateurs spécialisés, reliés directement ou indirectement à un réseau informatique. Ils apparaissent comme de nouveaux moyens d’investigation, d’acquisition et de stockage de données, et de comparaison d’informations que les médecins traitants peuvent utiliser. Ils leur permettent d’accroître leur réactivité dans les différentes étapes cliniques essentielles à la prise en charge de leurs patients. Les médecins peuvent également s’en servir pour mener des études épidémiologiques sur les maladies dans la population.
Les défis du Big Data
En lien avec les problèmes de capacité de traitement, la conception d’une architecture big data est un défi commun pour les utilisateurs. Les systèmes de big data doivent être adaptés aux besoins particuliers d’une organisation, une entreprise de bricolage qui exige des équipes informatiques et de gestion des données. Le déploiement et la gestion des systèmes Big Data exigent également de nouvelles compétences par rapport à celles que possèdent généralement les administrateurs de bases de données et les développeurs spécialisés dans les logiciels relationnels.
Ces deux problèmes peuvent être atténués par l’utilisation d’un service de cloud géré. Toutefois, les responsables informatiques doivent surveiller de près l’utilisation du cloud pour s’assurer que les coûts ne deviennent pas incontrôlables. En outre, la migration des ensembles de données et des charges de travail de traitement sur site vers le cloud est souvent un processus complexe.
La gestion des systèmes de big data pose d’autres problèmes, en particulier celui de rendre les données accessibles aux scientifiques et aux analystes de données. Pour aider les analystes à trouver des données pertinentes, les équipes de gestion et d’analyse des données construisent de plus en plus de catalogues de données. Ces derniers intègrent des fonctions de gestion des métadonnées et de lignage des données. Le processus d’intégration d’ensembles de big data est souvent aussi compliqué, en particulier lorsque la variété et la vélocité des données sont des facteurs.
L’avenir du Big Data
Etant une tendance lourde, le Big Data n’est pas une mode. Dans le domaine de l’usage, il satisfait une nécessité de travailler la donnée plus profondément, pour créer de la valeur, conjointement à des aptitudes technologiques qui n’existaient pas dans le passé. Cependant, compte tenu de l’évolution des technologies qui ne semble pas vouloir s’estomper, on ne peut pas alors parler d’une norme véritable ou de standards dans le domaine du Big data.
Beaucoup d’applications du Big Data n’en sont qu’à leurs préludes et on peut s’attendre à voir apparaître des utilisations auxquelles on ne s’attend pas encore aujourd’hui. En quelque sorte, le Big Data est un tournant pour les organisations au moins aussi important qu’internet en son temps. Chaque entreprise doit donc s’y mettre dès maintenant. Dans le cas contraire, il y a un risque qu’elle se rendent comptent d’ici quelques années qu’elles se sont faites dépasser par la concurrence. Les gouvernements et les organismes publics se penchent également sur la question à travers l’ open data.
Les données massives : un marché mondial en plein épanouissement
D’ici quelques années, le marché du big data va se mesurer en centaines de milliards de dollars. C’est un nouvel eldorado pour le business. Selon des études, il s’agit même d’une vague de fond où l’on retrouve la combinaison de la BI (business intelligence), de l’analytics et de l’internet des objets. IDC affirme qu’il devrait passer au-delà des 125 milliards de dollars avant la fin 2015. En effet, plusieurs études affluent sur cette affirmation et toutes confirment que les budgets que les entreprises vont consacrer au Big Data ne vont connaître que des fortes progressions. Ainsi, rien que le marché des solutions visuelles de découvertes des informations liées à la gestion des données massives va grimper de 2,5 fois plus rapidement que celui des solutions de BI d’ici à 2018.
D’après le calcul effectué par le cabinet Vanson Bourne, dans le monde, l’ensemble des dépenses consacrées au Big data, dans les budgets IT des grandes entreprises, devrait représenter un quart du budget total IT en 2018, s’il en est encore à 18% actuellement. Le Cap Gemini a aussi commandité une étude en mars 2015. Le résultat a montré que 61% des entreprises sont conscientes de l’utilité du Big Data en tant que « moteur de croissance à part entière ». De ce fait,on lui accorde beaucoup plus d’importance que leurs produits et services existants. Cette même étude a encore indiqué que 43% d’entre elles se sont déjà réorganisées ou se restructurent présentement pour exploiter le potentiel du Big Data.
Par Loïc Bremme.
Comments