Hadoop et Ansible – épisode 1 : HDFS
A l’air du tout automatique, penchons-nous sur une méthode qui fait ses preuves chez nos clients : incorporer Ansible dans les déploiements Big Data. Pour cette série d’articles nous allons voir comment nous automatisons nos déploiements Big Data avec Ansible. Episode 1 : HDFS Contexte Nous intervenons la majeure partie du temps sur des environnements sécurisés …
Continuer la lecture de « Hadoop et Ansible – épisode 1 : HDFS »
Deep Learning, du commencement au Big Data contemporain
Par où commencer avec le Big Data ? Comment choisir les composants ? Quelles architectures ? Et après ? Deep Learning, kesako ? Autant de questions sans réponse lorsqu’on se lance dans le grand bain de la data. On essaye de vous aiguiller avec cette sélection d’articles qui ont attiré notre attention lors du mois …
Continuer la lecture de « Deep Learning, du commencement au Big Data contemporain »
Analyse et optimisation : la donnée au coeur du métier
l’analyse de données est un enjeux majeur et prend de plus en plus d’ampleur. Pour arriver à extraire des informations pertinentes il est primordiale d’avoir une plateforme optimisée et réactive. Jetons un œil à ce qui à retenu notre attention en mars à ce sujet ! Analyse de données avec Python 3 Une introduction au Time-Series …
Continuer la lecture de « Analyse et optimisation : la donnée au coeur du métier »
Benchmark de datalake, Ansible Automates et Web scrapping JS : le mix Big Data / DevOps dans tout son art
Le Big Data évolue très vite. Les technologies et l’approche DevOps aussi. Ansible, Datalake et WebScrapper, voici une sélection de ce qui nous a marqué en février : Ansible Automates Nous utilisons cet outil pour déployer les infrastructures Big Data de nos clients. C’est pourquoi nous sommes allés à l’Ansible Automates Paris, à l’hôtel Pullman à Montparnasse. …