Konica Minolta

Programme BIG DATA Tarifs : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD01 Big Data  État de l’art Publics Chefs de projet Architectes Développeurs Pré-requis Bonne culture générale des systèmes d’informations Objectifs pédagogiques • Acquérir les connaissances sur les nouveaux outils dédiés au Big Data • Apprendre les techniques de stockage des informations qui vous permettront de traiter et d’analyser les données efficacement et vous aideront à prendre des décisions métier éclairées Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 2 jours (14 heures) Nombre de participants : 8 maximum Présentation du Big Data Définition • Les quatre dimensions du Big Data : volume, vélocité, variété, véracité • Présentation de l’ensemble MapReduce, stockage et requêtes Améliorer les résultats de l’entreprise grâce au Big Data • Mesurer l’importance du Big Data au sein d’une entreprise • Réussir à extraire des données utiles • Intégrer le Big Data aux données traditionnelles Stockage du Big Data Analyser les caractéristiques de vos données • Sélectionner les sources de données à analyser • Supprimer les doublons • Présentation des entrepôts de Big Data • Modèles de données : valeur clé, graphique, document, famille de colonnes • Système de fichiers distribué Hadoop (HDFS) Choisir un entrepôt de Big Data • Choisir un entrepôt de données en fonction des caractéristiques de vos données • Injecter du code dans les données, mettre en œuvre des solutions de stockage des données multilingues Traitement du Big Data Intégrer différents entrepôts de données • Mapper les données avec le Framework de programmation, se connecter aux données et les extraire de l’entrepôt de stockage, transformer les données à traiter • Fractionner les données pour Hadoop MapReduce Utiliser Hadoop MapReduce • Créer les composants des tâches Hadoop MapReduce • Distribuer le traitement des données entre plusieurs fermes de serveurs, exécuter les tâches Hadoop MapReduce Gérer des données de streaming • Comparer des modèles de traitement en temps réel • Exploiter Storm pour extraire des événements en direct • Traitement rapide avec Spark et Shark • Techniques et outils d’analyse du Big Data Synthétiser les tâches Hadoop MapReduce avec Pig • Communiquer avec Hadoop en Pig Latin • Exécuter des commandes avec le shell Grunt Lancer des requêtes ad hoc sur le Big Data avec Hive • Assurer la persistance des données dans le Hive MegaStore • Lancer des requêtes avec HiveQL Mise en œuvre d’une stratégie dédiée au Big Data Élaborer une stratégie dédiée au Big Data • Définir les besoins en matière de Big Data • Atteindre les objectifs grâce à la pertinence des données • Évaluer les différents outils du marché dédiés au Big Data Une méthode analytique innovante • Identifier l’importance des traitements métier • Cerner le problème • Choisir les bons outils • Obtenir des résultats exploitables • Garder une longueur d’avance 152 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

RkJQdWJsaXNoZXIy MTEzMjA=