10 ans après le premier écrit autour du Big Data par Jeffrey Dean et Sanjay Ghemawat portant sur la conception de MapReduce*, le paysage des solutions de traitement de données massives, de déploiement d’infrastructures et de nœuds de calculs ou encore d’applications dites « Big Data » a quelque peu évolué.
Le langage a été vulgarisé, des solutions et outils open source permettant le traitement des données sont sortis de leurs cartons et avec eux les premiers cas d’usages issus de secteurs comme la santé, l’assurance, le luxe ou encore le marketing.
Côté déploiement et management d’infrastructures Big Data sous technologie Hadoop, existe la solution CloudKeeper. Produit d’un programme de R&D mené par Ingensi, Cloudkeeper permet de déployer de façon simple et rapide des clusters Hadoop multi-tenants (machines physiques, firmware, OS et containers d’applications). Il va donc être possible de configurer son propre environnement, le partager entre différents projets (ou clients) tout en bénéficiant d’une puissance de calcul optimale sans surcharge ni dégradation de performance.
Pourront être ainsi connectées au sein de cette infrastructure des applications de collecte, de traitement et d’analyse de données, par exemple.
Explication vidéo de cette solution technologie :
*Modèle d’architecture permettant la distribution puis le traitement de gros volumes de données sur un ensemble de machines via le système GFS (Google File System).
Crédit Vidéo : Interactive, agence de création de site web