THÉMATIQUES: QUALITÉ / DÉVELOPPEMENT / RÉSEAU / GESTION
.NET Core - ABAP - Active Directory - Analyse de données - Angular - APIs - Architecture de système - Architecture orientée services - ASP.NET Core - AWS - Azure - Base de données orientée graphe - Bases de données relationnelles - Bash - Bootstrap - C - code AJAX - C# - C++ - Cassandra - CI/CD - Confluence - Crystal Reports - CSS - Cybersécurité - Dart - DataStage - DB2 - DevOps - Django - Docker - Express.js - Flutter - Git - GitHub - GitLab - Gradle - GraphQL - gRPC - Hadoop - Hibernate - HTML - J2EE - Java - JavaScript - Jenkins - Jira - JPA - jQuery - JSON - JUnit - Kotlin - Kubernetes - Laravel - Linux - Logiciel-service - Maven - Microsoft SQL Server - MongoDB - MVC - MySQL - Neo4j - Node.js - NoSQL - Oracle - Perl - PHP - PL/SQL - POO - PostgreSQL - Power BI - Python - React - Redis - Redux - REST - SAP - SAP HANA - Scala - Scriptage - Scrum - SDLC - Shell scripting - Spark - Spring - SOAP - Spring Boot - SQL - SSRS - Teradata - Terraform - TypeScript - UNIX - VBA - Virtualisation - Visual Studio - Vue.js - WCF
hadoop
Hadoop est un framework open-source de traitement et d'analyse de données volumineuses (big data) distribué, conçu pour traiter des ensembles de données de taille considérable en parallèle sur un cluster de serveurs. Il est basé sur un modèle de programmation MapReduce, qui permet de distribuer automatiquement les données et le traitement sur plusieurs nœuds du cluster.
Hadoop se compose de deux composants principaux :
Le système de fichiers distribué Hadoop (HDFS) : il permet de stocker et de répliquer les données sur plusieurs nœuds du cluster pour assurer la tolérance aux pannes et l'accès rapide aux données. Le moteur de traitement MapReduce : il permet de distribuer automatiquement les tâches de traitement sur plusieurs nœuds du cluster, en utilisant une approche de division de données en blocs et de traitement parallèle. Hadoop est souvent utilisé pour le traitement de données non structurées ou semi-structurées, telles que les logs web, les données de capteurs, les fichiers texte, les images, les vidéos, etc. Il est également souvent utilisé en combinaison avec d'autres outils et frameworks, tels que Apache Spark, Apache Hive, Apache Pig, Apache Flume, Apache Sqoop, etc. pour fournir des fonctionnalités supplémentaires telles que le traitement en temps réel, l'analyse SQL, le traitement de flux de données, etc.