Konica Minolta

Big Data Big Data État de l’art Hadoop Cloudera Administration Hadoop Horton Works Administration NoSQL Cloud Computing DevOps État de l’art Ansible Kubernetes Docker ELASTIC SEARCH, Logstash et Kibana

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD01 Big Data État de l’art Publics Chefs de projet Architectes Développeurs Pré-requis Bonne culture générale des systèmes d’informations Objectifs pédagogiques Etre capable de : • Utiliser les nouveaux outils dédiés au Big Data • Apprendre les techniques de stockage des informations qui vous permettront de traiter et d’analyser les données efficacement et vous aideront à prendre des décisions métier éclairées Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 2 jours (14 heures) Nombre de participants : 8 maximum Présentation du Big Data Définition • Les quatre dimensions du Big Data : volume, vélocité, variété, véracité • Présentation de l’ensemble MapReduce, stockage et requêtes Améliorer les résultats de l’entreprise grâce au Big Data • Mesurer l’importance du Big Data au sein d’une entreprise • Réussir à extraire des données utiles • Intégrer le Big Data aux données traditionnelles Stockage du Big Data Analyser les caractéristiques de vos données • Sélectionner les sources de données à analyser • Supprimer les doublons • Présentation des entrepôts de Big Data • Modèles de données : valeur clé, graphique, document, famille de colonnes • Système de fichiers distribué Hadoop (HDFS) Choisir un entrepôt de Big Data • Choisir un entrepôt de données en fonction des caractéristiques de vos données • Injecter du code dans les données, mettre en œuvre des solutions de stockage des données multilingues Traitement du Big Data Intégrer différents entrepôts de données • Mapper les données avec le Framework de programmation, se connecter aux données et les extraire de l’entrepôt de stockage, transformer les données à traiter • Fractionner les données pour Hadoop MapReduce Utiliser Hadoop MapReduce • Créer les composants des tâches Hadoop MapReduce • Distribuer le traitement des données entre plusieurs fermes de serveurs, exécuter les tâches Hadoop MapReduce Gérer des données de streaming • Comparer des modèles de traitement en temps réel • Exploiter Storm pour extraire des événements en direct • Traitement rapide avec Spark et Shark • Techniques et outils d’analyse du Big Data Synthétiser les tâches Hadoop MapReduce avec Pig • Communiquer avec Hadoop en Pig Latin • Exécuter des commandes avec le shell Grunt Lancer des requêtes ad hoc sur le Big Data avec Hive • Assurer la persistance des données dans le Hive MegaStore • Lancer des requêtes avec HiveQL Mise en œuvre d’une stratégie dédiée au Big Data Élaborer une stratégie dédiée au Big Data • Définir les besoins en matière de Big Data • Atteindre les objectifs grâce à la pertinence des données • Évaluer les différents outils du marché dédiés au Big Data Une méthode analytique innovante • Identifier l’importance des traitements métier • Cerner le problème • Choisir les bons outils • Obtenir des résultats exploitables • Garder une longueur d’avance 168 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD03 Hadoop Cloudera Administration Publics Administrateurs Hadoop Chefs de projet technique Pré-requis Connaissance du système Linux Objectifs pédagogiques Etre capable de : • déployer un cluster • configurer Hadoop et les Framework associés • gérer en permanence la maintenance des nœuds dans le cluster • équilibrer et optimiser la performance d’un cluster • déplacer et gérer les données dans le cluster Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 3 jours (21 heures) Nombre de participants : 8 maximum Installation • Introduction à la plateforme de données Hadoop • Stockage Hadoop : architecture HDFS • Prérequis pour l’installation Configuration et gestion de données • Service de configuration • Configuration HDFS • Configuration de Hadoop Operating System (YARN) et MapReduce • Configuration HBase • Configuration ZooKeeper • Configuration Schedulers • Intégrité des données Management des données • HDFS service Web • Apache Hive Data Warehouse • Transfert de données aves Sqoop • Mouvement de données log avec Flume • HDFS NFS Gateway • Workflow management : Oozie • Management du cycle de vie des données avec Falcon Cloudera Platform • Rack Awareness and Topology • NameNode Federation Architecture • NameNode High-Availability (HA) Architecture • Backup et Recovery • Security 169 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD04 Hadoop Horton Works Administration Publics Administrateurs Hadoop Chefs de projet technique Pré-requis Connaissance du système Linux Objectifs pédagogiques Etre capable de : • déployer un cluster • configurer Hadoop et les Framework associés • gérer en permanence la maintenance des nœuds dans le cluster • équilibrer et optimiser la performance d’un cluster • déplacer et gérer les données dans le cluster Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 3 jours (21 heures) Nombre de participants : 8 maximum Installation • Introduction à la plateforme de données Hadoop • Stockage Hadoop : Architecture HDFS • Pré requis pour l’installation • Gestion HDP : Ambari • Ambari et la ligne de commande Configuration et gestion de données • Service de configuration • Configuration HDFS • Configuration de Hadoop Operating System (YARN) et MapReduce • Configuration HBase • Configuration Schedulers • Intégrité des données • Copie de données entre les clusters Management des données / Hortonworks Data Platform (HDP) • HDFS service Web • Apache Hive Data Warehouse • Transfert de données aves Sqoop • Mouvement de données log avec Flume • HDFS NFS Gateway • Workflow management : Oozie • Management du cycle de vie des données avec Falcon Hortonworks Data Platform (HDP) • Rack Awareness and Topology • NameNode Federation Architecture • NameNode High-Availability (HA) Architecture • Backup et Recovery • Security 170 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD02 NoSQL Publics Architectes Administrateurs Développeurs Chefs de projet Pré-requis Posséder une expérience en bases de données Objectifs pédagogiques Etre capable de : • Connaître le concept des BDD NoSQL et des domaines d’application • Connaître les typologies de NoSQL et mise en œuvre du NoSQL • Présentation de solutions NoSQL et réalisation de cas pratiques Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 2 jours (14 heures) Nombre de participants : 8 maximum NoSQL Introduction • Concepts de base • Données structurées et non structurées • ACID et CAP • Extensibilité horizontale Typologie des bases NoSQL • Base de données « clé - valeur » • Base de données « document » • Base de données « colonnes » • Base de données « graphes » Classification des bases NoSQL et cas d’usage • Matrice des BDD NoSQL Caractéristiques techniques • Schémas NoSQL • Distribution et réplication des données • Haute disponibilité • Optimisation : cache, MVCC NoSQL et Big Data • Hadoop et Map Reduce • Base de données NoSQL et Hadoop • Cas d’utilisation NoSQL et Cloud • DBaaS • Cas d’usage : SimpleDB (AWS) • Cas d’usage : MongoDB Conclusion • Limites du NoSQL • Évolution et tendances 171 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD05 Cloud Computing Publics Personnes souhaitant mettre en place une solution de Cloud Computing Pré-requis Aucun Objectifs pédagogiques Être capable de : • présenter des concepts et des solutions du marché relatives au Cloud Computing Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 2 jours (14 heures) Nombre de participants : 8 maximum Cloud Computing – l’introduction • Historique, évolution du Cloud Computing • Définition du Cloud Computing • Bénéfice du Cloud, freins à l’adoption du Cloud Cloud Services Model [SPI] • Définitions du NIST et du CSA pour les SPI [Software, Platform, Infrastructure] • Les plus et moins des différents Model de Service [SPI] • Description des acteurs des différents modèles de service Cloud Cloud Infrastructure building blocks • Les Datacenter à l’heure du Cloud • La composante « Compute » • La composante « Network » • La composante « Storage » • La virtualisation, le SDN, le SDS La Sécurité du Cloud • Description de la sécurité dans le Cloud, la vie privée • Les attaques dans un environnement Cloud • Compréhension des différences sécuritaires dans un Cloud privé ou publique Cloud Econonomics et GRC • Qu’est-ce que l’utility pricing ? • Notion de Gouvernance et de Risk Management pour un environnement Cloud Méthode de Projet Agile • Qu’est ce que la Méthode agile ?, en quoi elle est importante pour un projet Cloud ? • le « continuous Delivery » est primordiale pour les développements Cloud Présentation des différents acteur du Cloud Computing • Présentation des principaux Acteurs Cloud Native concernant le IaaS • Amazon Web Services • Rackspace • Google Compute • Openstack • Présentation des certains Acteurs du Cloud Computing concernant le PaaS • Google Apps Engine • Heroku • Cloud Foundry Présentation d’un Panel de Startup du Cloud Computing concernant le SaaS 172 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD09 DevOps État de l’art Publics Décideurs Métiers Architectes d’entreprise Responsables et acteurs de la DSI Pré-requis Aucune connaissance particulière Objectifs pédagogiques Etre capable de : • Comprendre les différentes facettes du mouvement DevOps • Appréhender ce qui distingue radicalement le fonctionnement DevOps de celui des DSI traditionnelles • Partager la manière d’acclimenter DevOps dans les DSI traditionnelles Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 2 jours (14 heures) Nombre de participants : 8 maximum Démarche DevOps : à la recherche d’une première définition • Description de DevOps par les adeptes de DevOps • Constat des objectifs divergents • Origine de DevOps et sociétés de l’Internet • La solution DevOps La généalogie de DevOps : Méthodes Agiles • La fabrication de masse de l’informatique traditionnelle • Le « juste à temps » ne s’intéresse pas à la nature des activités • L’optimisation du flux et de la productivité, la chaîne de valeur • La suppression des goulets d’étranglement et des gaspillages • La diminution de la taille des lots jusqu’au pièce-à-pièce • L’arrêt au premier défaut • « Le Manifeste Agile » Fonctionnement et procédés clés de la DSI DevOps • Cycle de la vie de la Release • Développement Agile de type Scrum • Backlog et gaspillage, sprint et réactivité, Scrum Master • Intégration continue : principe et outils (Jenkins, SVN, Git) • L’automatisation des tests • Déploiement continu, modularité, rôle des interfaces • Industrialisation / Automatisation de déploiements : outils Capistrano, Ansible… • Infrastructure en service et provisionning des serveurs De l’exploitabilité à la sûreté de fonctionnement • Les exigences non fonctionnelles • Soutien logistique intégré et coût total de possession • DevOps et la sûreté de fonctionnement • Atteindre la sûreté de fonctionnement par l’instrumentation de la plateforme • L’offre Cloud et l’instrumentation • Infrastructure programmable • Productivité et sûreté de fonctionnement : les deux pilliers de DevOps Mouvement DevOps et DSI traditionnelles : des différences radicales • La réticence des DSI traditionnelles • L’organisation des DSI traditionnelles • Mode intégré et mode taylorisé • Deux façons de rechercher la productivité • DevOps : un nouveau paradigme de l’informatique d’entreprise Organiser une DSI traditionnelle vers DevOps • Un changement inévitable, souhaitable, possible, jusqu’où et à quel prix ? • La révolution numérique, SaaS, Cloud et comportement des métiers L’architecture d’entreprise pour conduire le changement • Promesse DevOps : réactivité et sûreté de fonctionnement pour les métiers • Modification des responsabilités, compétences nécessaires et impact RH • Une culture collaborative • Construction de la trajectoire par application. Applications éligibles • Urbanisation et maîtrise des interfaces, modularité du SI à atteindre • Impact sur la stratégie d’externalisation. Périmètre et nouveaux types de contrats • Programme d’instrumentation de la plateforme de production 173 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD08 Ansible Publics Administrateurs systèmes Développeurs Chefs de projet désirant automatiser les tâches d’administrations (configuration, provisioning et déploiement applicatif) récurrentes sur leurs serveurs Pré-requis Bonnes connaissances des systèmes Linux Objectifs pédagogiques Etre capable de : • automatiser toutes les tâches manuelles répétitives d’administration des serveurs afin d’accélérer le temps de mise sur le marché de nouvelles fonctionnalités applicatives Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 3 jours (21 heures) Nombre de participants : 8 maximum Introduction • Présentation d’Ansible • Place et intérêt d’Ansible dans l’éco système DevOps Vue d’ensemble d’Ansible • Architecture d’Ansible • Exécution de commandes ad-hoc Ansible pour gérer les serveurs distants Cas pratique : installer Ansible, utiliser Ansible en ligne de commande Playbook Ansible • Le langage YAML • Écriture d’un Playbook Ansible Cas pratique : écrire et exécuter les Playbooks pour automatiser les tâches d’administration Gestion des variables Ansible • Déclaration et utilisation des variables • Portée et précédence des variables Cas pratique : organiser et utiliser les variables dans les Playbooks Rôles Ansible • Intérêt des Rôles Ansible (ensemble de scripts Ansible réutilisables) Cas pratique : implémenter et exécuter les Rôles Ansible pour automatiser les tâches d’administration Ansible Vault • Gestion des données secrètes (mots de passe, clés ssl/ssh…) utilisées dans les scripts d’automatisation Ansible, avec Ansible Vault Cas pratique : crypter, décrypter et utiliser les données secrètes dans un Playbook Ansible Tower • Orchestration et gestion des projets Ansible avec Ansible Tower Cas pratique : installation, configuration et utilisation d’Ansible Tower Cas d’utilisation Ansible / Ansible Tower • Déploiement disruptif • Déploiement non disruptif • Déploiement Blue Green Cas pratique : écriture de Playbook de déploiement d’une application Java sur Tomcat Cas pratique : écriture de Playbook de déploiement d’une infrastructure de monitoring et de supervision basée sur Prometheus, Grafana et Consul Conclusion et perspectives Appendices 174 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD07 Kubernetes Publics Développeurs Architectes Administrateurs systèmes DevOps Pré-requis Connaissances de base d’un système Unix Objectifs pédagogiques Etre capable de : • Connaître les spécificités et les avantages des micros-services • Déployer ses applications sur des infrastructures élastiques • Installer et utiliser Kubernetes • Positionner automatiquement ses conteneurs sur un cluster ou dans le Cloud • Automatiser le passage à l’échelle de ses applications • Optimiser le stockage de grandes masses de données avec les volumes Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 3 jours (21 heures) Nombre de participants : 8 maximum Introduction • L’évolution des applications : la méthodologie des « 12 facteurs » • Les micro-services • Refactoriser une application en microservices Rappels sur les conteneurs • Vue d’ensemble de Docker • Vue d’ensemble des conteneurs • Installer et exécuter des images Docker • Interagir avec des conteneurs • Créer ses propres images • Différence entre les dépôts privés et publics Les fondamentaux de Kubernetes • Créer un cluster Kubernetes : sur votre poste de travail, dans votre datacenter ou dans le Cloud • Déployer une application sur plusieurs machines • Explorer une application • Exposer une application sur le réseau • Passage à l’échelle • Mise à jour des versions logicielles Mise en œuvre de Kubernetes • Vue d’ensemble des Pods • Configuration et sécurité d’une application (ConfigMaps et Secrets) • Vue d’ensemble des Services (ClusterIP, NodePort, LoadBalancer, Headless) • Créer son propre service Déployer ses micro-services • Stratégies de déploiement d’applications micro-service • Stratégies de calcul intensif (Jobs) Cas pratique : déploiements avec Kubectl et Yaml • Stratétégies de passage à l’échelle (Replicasets et Daemonsets) Cas pratique : installation d’un gestionnaire de journaux distribués • Stratégie de mise à jour logicielle (Deployments) Cas pratique : Rolling update Concepts avancés • Stockages volatiles et persistants • Techniques de supervision avancées : Prometheus CloudFoundry • Présentation des concepts • Exemples de mise en œuvre 175 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Référence : BGD10 Docker Publics Administrateurs systèmes Développeurs Chefs de projet désirant automatiser les tâches d’administrations (configuration, provisioning et déploiement applicatif) récurrentes sur leurs serveurs Pré-requis Bonnes connaissances des systèmes Linux Objectifs pédagogiques Etre capable de : • Installer Docker • Appréhender la mise en œuvre et déploiement de conteneurs virtuels Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 3 jours (21 heures) Nombre de participants : 8 maximum Introduction aux conteneurs • Présentation du concept de conteneur Linux • Cas d’utilisation des conteneurs Linux • Les différences entre conteneurs et machines virtuelles • Présentation de Docker et de son architecture Créer ses premiers conteneurs Docker • Installation de Docker • Le cycle de vie d’un conteneur • Lancer un conteneur avec Docker Run (en mode interactif, en mode détaché…) • Interagir avec un conteneur depuis le host (exec, inspect, logs…) Les images Docker • Qu’est-ce qu’une image Docker ? • Créer une image à partir d’un conteneur • Créer une image à partir d’un « Dockerfile » • Stocker et récupérer des images depuis le « Docker Hub » • Mettre en place un registry privé et y stocker ses images Le réseau avec Docker • Comprendre la « stack réseau » de Docker • Utiliser les « links Docker » • Créer des networks Docker et connaître les drivers réseaux La persistance des données avec Docker • Créer et persister des volumes Docker (host / conteneur, inter-conteneurs) • Bonnes pratiques de persistance de données avec Docker Introduction à l’écosystème Docker • Créer des instances Docker avec Docker Machine • Créer sa « stack logicielle » avec Docker Compose • Orchestrer le déploiement de conteneurs sur plusieurs machines avec Docker Swarm Introduction aux concepts avancés • Mettre en place une architecture micro-services avec Docker (Service Discovery, automatisation…) • Sécuriser son infrastructure Docker (TLS, App Armor, SELinux…) Rancher • Qu’est-ce Rancher ? • Mise en place d’une infrastructure avec un orchestrateur • Ajout d’un host • Création d’un service 176 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

Programme BIG DATA Mise à jour : Octobre 2023 Tarifs Inter : 800€ HT/jour/pers. Tarifs Intra / sur mesure : nous consulter Délais : nous consulter Moyens d’encadrement : formateur spécialiste du domaine Introduction • Présentation de la pile Elastic • Positionnement d’Elasticsearch et des produits complémentaires – Kibana – Logstash – Beats – X-Pack • Principe – Base technique Lucene – Apports d’Elasticsearch • Fonctionnement distribué • Cas d’usage classiques – Analyse de logs et sécurité – Analyse de métriques – Recherches Web… Installation et Configuration • Prérequis technique • Premiers pas dans la console Dev Tools et Kibana Concepts-clés • Présentation des concepts-clés d’Elasticsearch – Index – Types - Documents – Nœuds – Clusters – Shards – Replica • Notions de Data types et mappings • Opérations CRUD – Exemples d’opérations basiques – Création d’index et mappings – Format et stockage des données • Format des données • Conversion au format JSON des données à traiter • Structure des données • Stockage et indexation • Terminologie Elasticsearch – Notions de document – Index • Métadonnées – _index – _ID • Choix de l’identifiant par l’application avec L’API index ou génération automatique d’un identifiant • Indexation inversée Outils d’interrogation • API RESTful en HTTP • Exemples de requêtes simples et plus complexes – Recherche de « phrases » – Extraction de plusieurs documents… • Notion de pertinence du résultat « score » • Requêtes avec Search Lite et avec Query DSL (Domain Specific Language) • Utilisation de « filtres » pour affiner des requêtes • Agrégation de résultats Gestion des accès concurrents • Utilisation du numéro de version • Gestion par l’application : différentes méthodes selon les contraintes fonctionnelles • Utilisation d’un numéro de version externe Analyse et visualisation de données • Principes de base de l’analyse de texte • Recherche dans des données structurées • Recherche full text • Ecriture de requêtes complexes • Notions d’agrégations Exemple de travaux pratiques (à titre indicatif) • Préparation des données • Agrégation de mesures • Bucket aggregation Flux logstash et présentation Kibana • Traitement de Logs avec Logstash • Introduction à Beats : installation et configuration • Présentation Kibana et démonstrations • Fonctionnalités - Recherches • Visualisation • Création de tableaux de bord • Graphiques à partir des données fournies par Elasticsearch Les + de la formation • Les travaux pratiques sont réalisés sur Linux ELASTIC SEARCH, Logstash et Kibana Référence : BGD10 Publics Architectes Techniques, développeurs, analystes Pré-requis Avoir des connaissances générales des systèmes d’information et des systèmes d’exploitation (Linux ou Windows). Connaître un langage de programmation structuré Objectifs pédagogiques Etre capable de : • Comprendre le fonctionnement et les apports d’Elasticsearch dans le traitement de données • Mettre en œuvre Elasticsearch pour analyser les données Moyens pédagogiques et techniques Explications théoriques et exercices pratiques pour mise en situation rapide 1 vidéoprojecteur par salle 1 ordinateur par stagiaire 1 support de cours par stagiaire Évaluation et documents fournis • Document d’évaluation de satisfaction • Attestation de présence • Exercices pratiques de validation des acquis sous contrôle du formateur Lieu : • Centre de formation Konica Minolta • Site client (nous consulter) Durée totale : 2 jours (14 heures) Nombre de participants : 6 maximum 177 Voir notre catalogue KONICA MINOLTA BUSINESS SOLUTIONS FRANCE

RkJQdWJsaXNoZXIy MTEzMjA=