outils techniques d'analyse et traitement des données

Formation de groupe

€1150
940
  • 10 Personnes maximum
  •  
  •  
  •  
Populaire

Formation de longue durée

Nous contacter
  • Formation sur mesure pour vos salariés

    Cognitus étant référencé organisme de formation auprès de l'état Français, vous pourrez bénéficier des aides au financement

Prochaines dates

1 Juillet



15 Juillet

Avantages et bénéfices distinctifs

Les bonnes raisons d’intégrer nos formations

☑️ Formation conçue pour les PME


☑️ L’acquisition d’un savoir-faire pratique pour une mise en œuvre rapide


☑️ Réponse sur mesure et adaptée en temps réel aux besoins exprimés par le marché

☑️ Utilisation de case study business avec mise en situation en temps réel


☑️ Tournée vers la concrétisation de vos projets réels, portée par des formateurs chercheurs internationaux et Dr en Big Data


☑️ Approche stratégique orientée compétitivité internationale des marchés

Type de certification

Cognitus est référencé et Datadocké organisme de formations

Efforts Nécessaires

2 heures par jour recommandé

Modalités

Formation en présentiel. Maximum 20 personnes par session

Niveau

Avancé, notions techniques et programmation

Durée

2 jours en moyenne (Variable suivant besoins)

Rythme

7h/ jour sur 2 jours

Langue

Français Cette formation est également proposée en anglais

Planning

Flexible suivant vos disponibilités

Lieu

Dans vos locaux ou Dans les locaux de Cognitus selon votre convenance

Sujets

Les outils techniques essentiels au bon déroulement d'un projet Big Data Science & IA, et leur maîtrise

Audience

CDO, Programmeurs, développeurs web, CTO

Tarifs

940€/jour + TVA pour tout le programme

Contexte et enjeu de la formation

D’ici 2025, près de 30 % des données générées le seront en temps réel

La part des données générées par les consommateurs par rapport à la part des données générées par les entreprises passera de 47 % en 2017 à 36 % en 2025

D’ici 2025, plus de 6 milliards de consommateurs interagiront avec des données (Soit 75 % de la population mondiale)

OBJECTIFS DE LA FORMATION

  • Les entreprises sont aujourd’hui submergées par des quantités d’informations de plus en plus importantes qu’elles peinent à maitriser.
  • Exploiter ces données pour en extraire les plus importantes est un enjeu vital mais surtout un immense défi.
  • De plus, les nouveaux modes de consommation et la rapidité à laquelle l’information évolue complexifient de manière exponentielle le traitement des données.
  • Cette formation vous offre la possibilité d’acquérir les bases du Big Data, de découvrir les possibilités qu’offre cette technologie, et ses contraintes.
  • Les connaissances acquises durant cette formation vous permettront d’échanger avec les experts du domaine et de prendre les décisions cohérentes quant à l’intégration du Big Data dans votre entreprise.
  • La formation vous permettra également d’acquérir les concepts théoriques de la Data Science et, de manière pratique, de découvrir quelles sont les technologies adaptées à votre structure.
  • Vous serez initiés à des cas pratiques de traitement de données en temps réel ou en mode batch. Vous apprendrez également comment élaborer des modèles de données en utilisant le Machine Learning et les techniques statistiques.
  • Vous découvrirez les concepts et les technologies de visualisation des données, et vous pourrez ainsi implémenter ces informations dans des tableaux de bord en utilisant des technologies telles que R et D3.js.

Profils des PME concernées

A qui s’adresse cette formation ?

 Cette formation est pour vous si …  

Vous êtes un Directeur Technique, un programmeur, ou développeur web
Ou Un membres de : 

  • Directeurs techniques, chefs de projets, architectes, consultants, administrateurs de bases de données, ingénieurs systèmes et réseaux, développeurs
  • Direction innovation
  • Direction des systèmes d’information

Votre PME évolue dans l’assurance, les mutuelles, les institutions de prévoyance, le courtage, la bancassurance, l’assistance.

Programme détaillé de la formation

  • Apprentissage des concepts d’acquisition et de consolidation des données.
  • Description des architectures et des composants nécessaires à l’acquisition des données.
  • Extraction de données hétérogènes issues de divers formats sérialisés.
  • Conception de collecteurs de données hétérogènes : audio, vidéo, texte, données géo localisées,
    données issues de bases de données relationnelles.
  • Conception et paramétrage des collecteurs de données centralisés et distribués permettant
    d’obtenir des flux d’information temps-réel.
    Conception de collecteurs de données centralisés et distribués pour un traitement en
    mode batch.
  • Implémentation d’un Web Crawler permettant d’indexer des informations stockées dans
    des portails Web.
  • Développement d’une solution d’ingestion de données en streaming au sein d’une plateforme
    opérationnelle.
  • Développement d’une solution d’ingestion de données en mode batch.
  • Acquisition des connaissances conceptuelles des bases de données NoSQL.
  • Explication des différentes méthodes de stockage des données dans les bases NoSQL.
  • Explication des différentes méthodes de stockage des données dans des systèmes distribués.
  • Explication des composants et de l’architecture des technologies NoSQL comme Apache Cassandra, Redis,
    MongoDB et Neo4j.
  • Explication des composants et de l’architecture des systèmes distribués comme HDFS, Lustre File System
    et Ceph File System.
  • Transmission des connaissances pratiques pour stocker les données dans une base NoSQL.
  • Transmission des connaissances pratiques pour stocker les données dans un système distribué.
  • Présentation et description d’une simulation de cas concret réel de stockage de données.
  • Concepts et méthodes de traitement des données.
    Algorithmes de traitement des données non structurées, semi-structurées ou structurées.
  • Techniques de filtrage et de partitionnement des données dans des infrastructures
    de grande échelle.
  • Méthodes efficaces de distribution des données dans des clusters.
    Tâches de traitements des données efficaces garantissant le respect de la qualité
    des informations.
  • Concepts des technologies de traitements de données en temps réel.
  • Tolérance aux pannes dans une architecture distribuée.
    Développement d’une solution de traitement des données en temps réel.
  • Gestion et maintenance des clusters.
    Mise en place d’une architecture de clusters Apache Storm.
  • Adaptation des performances d’Apache Storm.
  • Présentation d’un scénario de traitement de données en temps réel.
  • Concepts fondamentaux d’analyse des données en temps réel.
  • Techniques et Algorithmes de machine learning.
  • Méthodes d’analyse statistiques
  • Le machine learning en pratique : conception et développement d’un modèle d’analyse de données.
  • Mise en oeuvre d’un modèle analytique et déploiement de ce modèle dans un cluster Apache Storm.
  • Gestion d’un cluster Apache Storm.
  • Simulation d’un scénario d’analyse de données temps réel.
  • Acquisition des concepts fondamentaux du traitement par lots.
  • Description des technologies du traitement par lots.
  • Compréhension de l’architecture et des composants d’Apache Spark et Hadoop MapReduce.
  • Configuration et gestion des clusters Apache Spark en mode noeud simple et multiple.
  • Configuration et gestion des clusters Apache Hadoop / MapReduce en mode noeud simple et multiple.
  • Exemples pratiques de configuration et de requêtes en parallèle dans un cluster Apache Spark.
  • Intégration d’autres technologies avec Apache Spark, par exemple intégrer MongoDB et Apache Spark grâce à Apache Hadoop.
  • Mise en uvre du traitement par lots en utilisant MapReduce.
  • Configuration et création de requêtes MapReduce avec des clusters Hadoop en mode nud simple et multiple.
  • Concepts fondamentaux de l’analyse des données par lots.
  • Bibliothèques d’analyse de données par lots comme Spark MLlib ou Apache Mahout.
  • Configuration concrète des bibliothèques pour l’apprentissage automatique, notamment en intégrant Apache Mahout avec Hadoop et MLlib avec Apache Spark.
  • Utilisation concrète des modèles analytiques dans ces bibliothèques.
  • Mise en uvre des modèles analytiques sur des clusters à noeud simple ou multiple avec des bibliothèques d’analyse de données de type Spark MLlib et Apache Mahout.
  • Présentation et description d’une simulation à partir de données réelles.
  • Concepts fondamentaux de la visualisation des données.
    Techniques et algorithmes de visualisation des données.
  • Description des technologies de visualisation comme R.
    Comparaison des technologies de visualisation entre elles.
  • Connaissance pratique de la visualisation des données avec R.

Prochaines dates

1 Juillet



15 Juillet
Fermer le menu