Objectifs
Comprendre le concept du Big Data
Être capable d'identifier l’écosystème et comprendre les technologies associées
Savoir anticiper son intégration dans les activités informatiques de l’entreprise
Être capable d'identifier l’écosystème et comprendre les technologies associées
Savoir anticiper son intégration dans les activités informatiques de l’entreprise
Compétences visées
- Avoir une introduction dédiée à la compréhension du Big Data
- Comprendre et appréhender le potentiel de rupture qu'offre la Big Data
- Connaître les méthodes et outils pour gérer efficacement un projet Big Data
- Cerner les fondamentaux du Big Data pour optimiser son Business
- Disposer d'une démonstration des principales technologies pour en comprendre les potentialités et les enjeux
- Comprendre et appréhender le potentiel de rupture qu'offre la Big Data
- Connaître les méthodes et outils pour gérer efficacement un projet Big Data
- Cerner les fondamentaux du Big Data pour optimiser son Business
- Disposer d'une démonstration des principales technologies pour en comprendre les potentialités et les enjeux
Public
Data miners, data scientists, développeurs, chefs de projet, consultants en informatique décisionnelle, statisticiens ...
Pré-requis
Aucun
Méthode pédagogique
Pédagogie active mêlant exposés, exercices et applications pratiques
Programme
- Définition commune du Big Data selon les grands acteurs du marché
- Caractéristiques techniques des 3V de Gartner (Vélocité, Variété et Volume) et les variantes (Véracité, Valeur, Validité....)
- Big Data : pourquoi maintenant ?
- Traitement des données structurées, semi-structurées et déstructurées
- Transformation des données massives en informations utiles et en valeur
- Gestion des données en cycles, de l’acquisition à la gouvernance. Use Case et stratégies (GAFA (Google, Apple, Facebook, Amazon), exemples santé, grande distribution, bancassurance…)
- Les grands acteurs et le marché du Big Data
- Description des technologies de référence du Big Data
- NoSQL (Not Only SQL) et les nouvelles compétences attendues (Python, R, Scala, Java)…
- Hadoop : un modèle d’open source du Big Data adopté par les grands acteurs de l’informatique (IBM, Oracle, Amazone, EMC, Google...)
- Principaux composants d’Hadoop : HDFS (Hadoop Distributed File System), MapReduce, Pig, Flume, Zookeeper, H-BASE, Lucene, Hive, Cloudera, Oozie, Cassandra, Machine Learning...
- Autres solutions : Docker, OpenStack, Elastic, Splunk…
- Nouvelles architectures techniques pour traiter des données massives et non-structurées, en temps réel (SPARK)
- Relation entre Big Data et Cloud DaaS (Data as a Service)
- Technologies associées au Cloud (datacenters, stockage, virtualisation, Grid, OS d’orchestration d’Openstack, réseaux...)
- Emergence des solutions Big Data proposées en mode Cloud DaaS (Data as a service)
- Déploiement et utilisation du Big Data
- Description d’une plate-forme de Big Data et bonnes pratiques
- Intégration des données et systèmes existants à la plate-forme Big Data
- Acquisition et qualification des données ouvertes des organisations publiques et sociales (Open Data)
- Traitement des données à la volée (Data Streaming)
- Analyse de données (Data Analytics et Business Intelligence)
- Présentation des informations (Data Visualization)
- L’apport du NoSQL
- Description des principales familles de bases de données NoSQL
- Zoom sur MongoDb
- Zoom sur Cassandra
- Zoom sur Neo4j
- Une journée au cœur des écosystèmes Hadoop et Spark
- Introduction générale
- Les principales briques et leur rôle
- PIG, Hive, Oozie, Flume, HDFS, MapReduce, Sqoop, Zookeeper, Hbase, Mahout, les connecteurs, …
- SparkML, SparkQL, MLlib, Kafka, Storm, Flink , Beam, …
- Démonstrations et discussions
Modalités d'évaluation
Un formulaire d'auto-évaluation proposé en amont de la formation nous permettra d'évaluer votre niveau et de recueillir vos attentes. Ce même formulaire soumis en aval de la formation fournira une appréciation de votre progression.
Des exercices pratiques seront proposés à la fin de chaque séquence pédagogique pour l'évaluation des acquis.
En fin de formation, vous serez amené(e) à renseigner un questionnaire d'évaluation à chaud.
Une attestation de formation vous sera adressée à l'issue de la session.
Trois mois après votre formation, vous recevrez par email un formulaire d'évaluation à froid sur l'utilisation des acquis de la formation.
Des exercices pratiques seront proposés à la fin de chaque séquence pédagogique pour l'évaluation des acquis.
En fin de formation, vous serez amené(e) à renseigner un questionnaire d'évaluation à chaud.
Une attestation de formation vous sera adressée à l'issue de la session.
Trois mois après votre formation, vous recevrez par email un formulaire d'évaluation à froid sur l'utilisation des acquis de la formation.
Pour aller plus loin
Nous vous recommandons la formation Analyse de données en environnement Hadoop
Solutions de financement
Cette formation peut être financée :
- dans le cadre du plan de développement des compétences de votre Entreprise
- par l’OPCO (opérateur de compétences) de votre Entreprise ou le FAF (Fonds d’Assurance Formation) pour les professionnels libéraux
- par France Travail dans le cadre du dispositif de l'Aide Individuelle à la Formation (soumis à accord de votre Agence)
- à titre personnel
Accessibilité
Vous souhaitez suivre notre formation Introduction au Big Data et êtes en situation de handicap ? Merci de nous contacter afin que nous puissions envisager les adaptations nécessaires et vous garantir de bonnes conditions d'apprentissage
Ce que pensent nos clients de la formation Introduction au Big Data
M. Moussa A., Ingénieur développement chez Nexeya France
Bonne formation. Claire, précise, concise.
M. Thierry R., Product Manager chez Continental Automotive France SAS
Formation permettant d'avoir une connaissance de base sur les outils de gestion de données. Très bien.
M. Stéphane A., Administrateur Informatique chez Continental Automotive France SAS
Très bon vernis sur le monde du Big Data