kafka

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Prochaine révision
Révision précédente
kafka [2025/06/20 12:53] – créée administratorkafka [2025/06/22 17:00] (Version actuelle) administrator
Ligne 1: Ligne 1:
 THÉMATIQUES: [[6sigma|QUALITÉ]] / [[redux|DÉVELOPPEMENT]] / [[lan|RÉSEAU]] / [[scrum|GESTION]] / [[sqlserver|non classé]] THÉMATIQUES: [[6sigma|QUALITÉ]] / [[redux|DÉVELOPPEMENT]] / [[lan|RÉSEAU]] / [[scrum|GESTION]] / [[sqlserver|non classé]]
    
-[[azure_synapse|Azure Synapse]] / [[bigdata|BigData]] / [[bigquery|BigQuery]] / [[cosmosdb|CosmoDB]] / [[databricks|Databricks]] / [[esko|ESKO]] / [[gcp|GCP]] / [[lakehouse|Lakehouse]] / [[sqlserver|SQL Server]] / [[unity|Unity]] / [[amélioration continue|amélioration continue]] / [[bases_de_données|bases de données]] / [[chaine_approvisionnement|Chaîne d'approvisionnement]] / [[debogage|Débogage]] / [[dynamodb|DynamoDB]] / [[elasticsearch|Elasticsearch]] / [[ember_dot_js|Ember.js]] / [[entity_framework|Entity framework]] / [[esprit_analyse|Esprit d'analyse]] / [[essai_acceptation_utilisateur|Essai d'acceptation par l'utilisateur]] / [[essai_logiciels|Essai de logiciels]] / [[figjam|FigJam]] / [[kafka|Kafka]] / [[programmation_binome|Programmation en binôme]] / [[rabbitmq|RabbitMQ]] / [[sap_supply_chain_management|SAP Supply Chain Management]] / [[selenium|Selenium]] / [[symfony|Symfony]] / [[systemes_pgi|Systèmes PGI]] / [[ui|UI]]  / [[ux|UX]] +[[azure_synapse|Azure Synapse]] / [[bigdata|BigData]] / [[bigquery|BigQuery]] / [[cosmosdb|CosmoDB]] / [[databricks|Databricks]] / [[esko|ESKO]] / [[gcp|GCP]] / [[lakehouse|Lakehouse]] / [[sqlserver|SQL Server]] / [[unity|Unity]] / [[amélioration continue|amélioration continue]] / [[bases_de_données|bases de données]] / [[chaine_approvisionnement|Chaîne d'approvisionnement]] / [[debogage|Débogage]] / [[dynamodb|DynamoDB]] / [[elasticsearch|Elasticsearch]] / [[ember_dot_js|Ember.js]] / [[entity_framework|Entity framework]] / [[esprit_analyse|Esprit d'analyse]] / [[essai_acceptation_utilisateur|Essai d'acceptation par l'utilisateur]] / [[essai_logiciels|Essai de logiciels]] / [[figjam|FigJam]] / [[kafka|Kafka]] / [[programmation_binome|Programmation en binôme]] / [[rabbitmq|RabbitMQ]] / [[sap_supply_chain_management|SAP Supply Chain Management]] / [[selenium|Selenium]] / [[symfony|Symfony]] / [[systemes_pgi|Systèmes PGI]] / [[ui|UI]]  / [[ux|UX]]  / [[ansible|Ansible]] / [[apache_hive|Apache Hive]] / [[backbone_dot_js|Backbone.js]] / [[cordova|Cordova]] / [[cucumber|Cucumber]] / [[e-commerce|E-commerce]] / [[firebase|Firebase]] / [[flask|Flask]] / [[groovy|Groovy]] / [[intelligence_artificielle|Intelligence artificielle]] / [[jms|JMS]] / [[labView|LabView]] / [[looker|Looker]] / [[mapReduce|MapReduce]] / [[multifil|Multifil]] / [[netSuite|NetSuite]] / [[petSuite|NetSuite]] / [[power_pivot|Power Pivot]] / [[rds|RDS]] / [[robotique|Robotique]] / [[salesforce|Salesforce]] / [[sass|SASS]] / [[sharePoint|SharePoint]] / [[solr|Solr]] / [[splunk|Splunk]] / [[telerik|Telerik]] / [[test_intégration|Test d'intégration]] / [[xml|XML]] / [[xpath|Xpath]] 
  
  
  
 ====== Kafka ====== ====== Kafka ======
-U+Kafka est un projet de la fondation Apache qui fournit une plateforme de streaming de données distribuée et évolutive. Il permet de traiter et de gérer des flux de données en temps réel, en utilisant un modèle de publication/abonnement (pub/sub). 
 + 
 +Kafka est composé de plusieurs éléments clés : 
 + 
 +    Les producteurs : ils sont responsables de la publication des données dans Kafka. 
 +    Les consommateurs : ils sont responsables de la souscription aux sujets (topics) Kafka et de la consommation des données publiées. 
 +    Les brokers : ils sont les nœuds intermédiaires qui stockent et distribuent les données entre les producteurs et les consommateurs. 
 +    Les topics : ils sont les flux de données eux-mêmes, auxquels les producteurs et les consommateurs peuvent s'abonner. 
 +Kafka est souvent utilisé pour le traitement de données en temps réel, la réplication de données entre différents systèmes, la journalisation distribuée, et la mise en œuvre de workflows complexes. Il est connu pour sa haute disponibilité, sa scalabilité et ses performances élevées.