GitLab version 13.4, quoi de neuf ?
Sortie le 22 septembre dernier, la dernière version de GitLab apporte son lot de nouveautés pour réduire les risques et accroître l’efficacité des équipes, améliorer l’expérience utilisateur et accélérer la CI/CD.
Python 3.9, tour d’horizon et nouveautés
Python 3.9, tour d’horizon Python 3.9 vient d’être annoncé le 6 Octobre 2020. Cette version amène plusieurs fonctionnalités très prometteuses. Corrige des bugs et se positionne par rapport à l’avenir du langage. A Cyrès, nous constatons une augmentation des développements Python, que ce soit dans le domaine du Big Data, des containeurs ou DevOps, Des …
Continuer la lecture de « Python 3.9, tour d’horizon et nouveautés »
JupyterHub vs CDSW, comparatif : quelle solution choisir ?
Avec la hausse des données à analyser et du besoin en Big Data, les Data Scientists ont de plus en plus besoin d’outils et plateformes répondant à leurs besoins tels que la suite Jupyter (JupyterHub) et Cloudera Data Science Workbench (CDSW).
L’évolution prometteuse de Spark 3.0
Novembre 2019, alors que je continuais à préparer ma présentation sur Spark en interne pour présenter cette technologie à mes collègues, j’ai été agréablement surpris de voir que Spark 3.0 a été annoncé en preview. Au fil des années, Spark a su s’imposer en tant que technologie majeur au niveau du data processing, et cette annonce appuie ce fait, de nombreuses nouveautés et changements ont été annoncés, ceci se traduisant par plus de 3000 tickets Jira, ce qui est énorme !
Comment utiliser son budget innovation en tant que grand groupe ?
Yohann Berhouc, Directeur Général de Cyrès a donné son point de vue en juin dernier sur la manière dont les grands groupes utilisent leur budget innovation au travers les différents départements qui les composent. Comment se constitue un budget innovation, comment les DSI s’organisent-elles en fonction de celui-ci, quels sont les objectifs de développement qui y sont associés. Des thèmes traités dans cet avis d’expert, publié initialement chez ZDnet.fr et Docaufutur.fr.
Optimiser les coûts de stockage Big Data avec le Sliding Window
Le choix du moyen de stockage de données peut être décisif sur les performances d’une application. Entre HDFS, Apache Kudu et Amazon S3, les avantages varient et les inconvénients aussi.
Comment migrer vers le Cloud AWS des clusters Hadoop en 5 étapes
Migrer une infrastructure composée de plusieurs dizaines de serveurs vers des environnements cloud comme ceux proposés par AWS implique de se fixer des objectifs clairs, de recenser précisément l’infrastructure existante et de concevoir une méthodologie pour mettre en place un processus de migration efficace.
Architecture Lambda, Kappa ou Datalake : comment les exploiter ?
Aucune technologie ne permettant de résoudre seule des problématiques complexes liées à l’exploitation des données, trois types d’architectures Big Data ont été pensées pour y répondre. Celles-ci touchent à la transformation rapide des données stockées, au traitement des données et à la configuration de vues complètes des données traitées. Nos explications sur l’architecture Lambda, l’architecture Kappa et le Datalake dans cet article.
Conteneurisation et Virtualisation : où se situe le point de bascule ?
Bien que la virtualisation reste encore la technologie la plus en vue sur le marché du Cloud, la conteneurisation répond elle aussi à des besoins d’hébergement d’applications métiers, web et mobile. L’adoption de ces solutions semble être d’ailleurs partagée auprès des DSI d’entreprises.
Mais alors dans quel cas le choix d’une solution est-il fait au dépend de l’autre ? Rentrent-elles vraiment en concurrence ? « Oui et Non ». Nous vous éclairons ici sur cette bonne réponse de normand qui ne semble pas être si loin de la vérité… 🙂
L’industrialisation du cloud au service de l’architecture Big Data
A l’air du Big Data et de la Fast Data, les enjeux de rapidité et d’efficacité sont majeurs. Le cloud ayant pris place dans les infrastructures IT, il est difficile de ne pas être tenté d’associer les deux.