Blog ENI : Toute la veille numérique !
Bénéficiez de la certification Python (avec e-surveillance) à prix réduit ! Je découvre
Découvrez nos e-formations certifiantes, avec accompagnement et certification. Je découvre
  1. Supports de cours
  2. Microsoft Fabric - De l’analyse à la mise en place d’une plateforme de données unifiée

Microsoft Fabric De l’analyse à la mise en place d’une plateforme de données unifiée

Bientôt disponible !
Suivez-nous pour être informé dès la sortie

Caractéristiques

  • Reliure spirale - 17 x 21 cm (Médian)
  • ISBN : 978-2-409-04646-9
  • EAN : 9782409046469
  • Ref. ENI : EIMMICFAB
Ce support est le guide essentiel pour quiconque souhaite exploiter la puissance des données avec Microsoft Fabric. Que vous soyez Analyste Data, Data Engineer, décideur informatique, responsable data ou étudiant en Data Analyse ou Data Architecture, il vous fournira toutes les clés pour analyser, présenter et collaborer autour des données. Organisé en deux parties, ce support commence par introduire Microsoft Fabric et les étapes pour y accéder. Les premiers chapitres vous guideront pour passer...
Aperçu du livre papier
  • Niveau Confirmé à Expert
  • Parution décembre 2024
Ce support est le guide essentiel pour quiconque souhaite exploiter la puissance des données avec Microsoft Fabric. Que vous soyez Analyste Data, Data Engineer, décideur informatique, responsable data ou étudiant en Data Analyse ou Data Architecture, il vous fournira toutes les clés pour analyser, présenter et collaborer autour des données.

Organisé en deux parties, ce support commence par introduire Microsoft Fabric et les étapes pour y accéder. Les premiers chapitres vous guideront pour passer d’une donnée exis­tante à un rapport, en couvrant toutes les étapes du flux de données : création d’un lakehouse, ingestion de données et création de rapports.

Dans la seconde partie, vous apprendrez à mettre en place Microsoft Fabric pour votre équipe ou votre entreprise. Vous approfondirez vos connaissances sur l’architecture de la solution, incluant l’organisation de votre datalake et de vos entrepôts de données. Vous découvrirez des fonction­nalités avancées telles que l’analyse de données en temps réel, la data science et la collaboration en équipe. Pour ceux qui jouent un rôle clé dans l’implémentation de Fabric, des chapitres sont dédiés à l’administration, à la sécurisa­tion de la plateforme de données et à l’optimisation des coûts, vous fournissant toutes les clés pour un déploiement réussi.

Ce support est écrit par un collectif d’auteurs issus du groupe produit Azure, des équipes clients chez Microsoft, ainsi que des membres de la communauté française “Club Power BI” et de partenaires experts.

Téléchargements

Introduction à Microsoft Fabric
  1. 1. Qu'est-ce que Microsoft Fabric ?
    1. 1.1 Un changement de paradigme dans les équipes data
    2. 1.2 Un produit jeune mais basé sur l'expérience
    3. 1.3 Les principes de Microsoft Fabric
  2. 2. L'architecture de Fabric
    1. 2.1 Une solution Software as a Service - SaaS
    2. 2.2 Architecture de Fabric
    3. 2.3 Les expériences Fabric
    4. 2.4 Les expériences partenaires
  3. 3. Les scénarios d'utilisation de Microsoft Fabric
    1. 3.1 Quels sont les métiers/rôles qui utilisent Fabric ?
    2. 3.2 Fabric pour les utilisateurs de Power BI
Démarrer avec Fabric
  1. 1. Accéder à Microsoft Fabric
    1. 1.1 Tenant professionnel
    2. 1.2 Premier accès à Microsoft Fabric
    3. 1.3 Les expériences dans Fabric
    4. 1.4 Activer Fabric sur votre Tenant
    5. 1.5 Collaboration entre Tenants
  2. 2. S'organiser dans Microsoft Fabric
    1. 2.1 Espaces de travail
    2. 2.2 Mon espace de travail
    3. 2.3 Dossiers et domaines
    4. 2.4 Bonnes pratiques d’organisation
  3. 3. Naviguer dans Microsoft Fabric
    1. 3.1 Le Portail Microsoft Fabric
    2. 3.2 Recherche et navigation
    3. 3.3 Autres éléments du portail
      1. 3.3.1 Panneau central
      2. 3.3.2 Bandeau supérieur
      3. 3.3.3 Barre latérale
  4. 4. Créer ses premiers éléments Fabric
    1. 4.1 Mon premier rapport avec Microsoft Fabric
    2. 4.2 Analyser un fichier de données en 3 clics
    3. 4.3 Option : utiliser le modèle sémantique par défaut
  5. 5. L'essentiel de vos premiers pas avec Microsoft Fabric
Du Lakehouse à la première analyse
  1. 1. Évolution des architectures de données
    1. 1.1 Entrepôt de données
    2. 1.2 Lac de données
    3. 1.3 Data Lakehouse
  2. 2. Le stockage des données dans Fabric
    1. 2.1 OneLake
    2. 2.2 Delta Lake
    3. 2.3 Unifier les données
  3. 3. Le Lakehouse dans Microsoft Fabric
    1. 3.1 Exploiter Spark
    2. 3.2 Point de terminaison analytique SQL
    3. 3.3 Modèle sémantique
    4. 3.4 Gérer la sécurité et le partage
  4. 4. Cas d’usages
    1. 4.1 Première analyse
      1. 4.1.1 Création d’un espace de travail
      2. 4.1.2 Création d’un Lakehouse
      3. 4.1.3 Récupération des données
      4. 4.1.4 Chargement des données dans une table
      5. 4.1.5 Première analyse visuelle
      6. 4.1.6 Première analyse en SQL
      7. 4.1.7 Création manuelle d’un rapport
      8. 4.1.8 Création automatique d’un rapport
      9. 4.1.9 Création avec Copilot
    2. 4.2 Architecture Médaillon
      1. 4.2.1 Ingestion
      2. 4.2.2 Transformation
      3. 4.2.3 Chargement incrémentiel
      4. 4.2.4 Création de tables d’agrégat
      5. 4.2.5 Analyse
      6. 4.2.6 Orchestration
      7. 4.2.7 Maintenance
    3. 4.3 Hub and Spokes
Unifier des données dans OneLake
  1. 1. Introduction
  2. 2. Organisation et gouvernance autour de OneLake
    1. 2.1 OneLake, le OneDrive des données
    2. 2.2 Les stratégies d’organisation d’un Data Lake
  3. 3. Implémenter une approche Data Mesh au travers de Microsoft Fabric
    1. 3.1 Le Data Mesh
    2. 3.2 L’organisation des données par domaines fonctionnels dans Fabric
  4. 4. Structuration de la donnée au sein de OneLake
    1. 4.1 La Data virtualisation au travers des raccourcis (Shortcuts)
    2. 4.2 Le fonctionnement des raccourcis
    3. 4.3 La structuration des données dans OneLake
  5. 5. Gouvernance et sécurité des fichiers dans Fabric
    1. 5.1 Accéder aux données de OneLake
    2. 5.2 La gouvernance des données dans OneLake
      1. 5.2.1 Promotion des items grâce aux labels Promu, Certifié et Master data
      2. 5.2.2 Labélisation des items au travers des étiquettes de confidentialité (sensitivity labels)
      3. 5.2.3 Gouvernance des données via le Microsoft Purview Hub
Ingérer des données dans Fabric
  1. 1. Introduction
    1. 1.1 Les différents types d'ingestion de données
    2. 1.2 Ingestion en mode ETL vs ELT
    3. 1.3 Les méthodes d'ingestion de données dans Fabric
    4. 1.4 Ingérer de la donnée manuellement dans OneLake
    5. 1.5 Les passerelles (data gateway)
      1. 1.5.1 L’On-premises data gateway
      2. 1.5.2 La Virtual Network (VNet) data gateway
    6. 1.6 Ingérer des données avec les flux de données Gen2 - Dataflows Gen2
      1. 1.6.1 Utilisation des flux de données Gen2 (Dataflow Gen2) pour l'import de données dans Fabric
      2. 1.6.2 Dataflow Gen1 vs Dataflow Gen2
    7. 1.7 Ingérer des données avec des Pipelines de données (Data Pipelines)
      1. 1.7.1 Utilisation des Pipelines pour intégrer des données dans Fabric
      2. 1.7.2 Fabric Data Pipelines, les Pipelines Azure Data Factory et les Synapse Pipelines
    8. 1.8 Intégrer des données en direct vers un Warehouse Fabric
    9. 1.9 Ingérer des données via des Notebooks Spark
    10. 1.10 Ingérer des données temps réel
    11. 1.11 Utilisation de Copilot pour ingérer et transformer des données
    12. 1.12 Ingestion de données avec Apache Airflow
      1. 1.12.1 Qu'est-ce que Apache AirFlow ?
      2. 1.12.2 Intégrer des données avec un flux de travail de données (Data workflow) (Preview)
    13. 1.13 Quelle fonctionnalité choisir pour ingérer mes données ?
    14. 1.14 Ingérer des données dans Fabric depuis un outil externe
Transformation avancée des données
  1. 1. Les transformations de données dans le cycle de vie de la donnée
    1. 1.1 La création de valeur de l'étape de transformation
      1. 1.1.1 Un travail nécessaire pour exploiter les données
      2. 1.1.2 La place de la transformation de données
      3. 1.1.3 Les rôles et responsabilités
    2. 1.2 Les différents moments de la transformation de données
      1. 1.2.1 Transformer des données brutes en nettoyées
      2. 1.2.2 Transformer des données nettoyées en curées
      3. 1.2.3 Transformer des données curées en exploitables
    3. 1.3 Choisir le bon outil pour la transformation de données
  2. 2. Transformations low-code avec Dataflow Gen2
    1. 2.1 Création d'un dataflow
      1. 2.1.1 Créer et gérer ses sources de données
      2. 2.1.2 Conception d'un dataflow
      3. 2.1.3 Sauvegarder et publier
      4. 2.1.4 Programmer l'exécution
    2. 2.2 Manipuler les données
    3. 2.3 Stocker les données transformées
      1. 2.3.1 Enregistrer dans un lakehouse ou un warehouse
      2. 2.3.2 Reverse ETL vers Azure SQL
      3. 2.3.3 Azure Data Explorer
  3. 3. Transformations avec SQL
    1. 3.1 Introduction aux transformations SQL
      1. 3.1.1 Avantages des transformations SQL
      2. 3.1.2 Les transformations avec T-SQL
      3. 3.1.3 Les transformations avec Spark SQL
    2. 3.2 Techniques de transformations SQL
      1. 3.2.1 Manipulation des données avec les fonctions conditionnelles
      2. 3.2.2 Classement et numérotation des lignes
      3. 3.2.3 Fonctions de fenêtrage pour l'analyse avancée
      4. 3.2.4 Sauvegarder les résultats de la transformation
    3. 3.3 Planification des transformations T-SQL
      1. 3.3.1 Création de requêtes paramétrisées et de procédures stockées
      2. 3.3.2 Planification avec les Data Pipelines
    4. 3.4 Utiliser T-SQL avec des Notebooks
  4. 4. Transformations avec Spark
    1. 4.1 Introduction à Apache Spark
      1. 4.1.1 Les déclinaisons du moteur dans Microsoft Fabric
      2. 4.1.2 Approche cluster « à la demande »
      3. 4.1.3 Approche cluster dédié
      4. 4.1.4 Comportement du moteur Spark, concurrence et file d'attente
      5. 4.1.5 La notion d'environnement
      6. 4.1.6 Native Execution Engine
    2. 4.2 Notebooks Spark
      1. 4.2.1 Création et utilisation
      2. 4.2.2 Utilisation de PySpark
      3. 4.2.3 Transformations faciles avec Data Wrangler
      4. 4.2.4 Utiliser les ressources de Notebooks
      5. 4.2.5 Préparer les Notebooks pour la production
  5. 5. Orchestration des transformations
    1. 5.1 Pipelines
    2. 5.2 Notebooks
      1. 5.2.1 Exécuter un Notebook depuis un autre
      2. 5.2.2 Orchestrer l'exécution de plusieurs Notebooks
      3. 5.2.3 Interagir avec Fabric depuis un Notebook
    3. 5.3 Apache Airflow Jobs
      1. 5.3.1 Introduction aux Apache Airflow Jobs
      2. 5.3.2 Création d'un Apache Airflow Job
Organiser ses données
  1. 1. Introduction
  2. 2. Un peu d'histoire : OLTP, OLAP et Big Data
    1. 2.1 Deux univers inconciliables : OLTP et OLAP
    2. 2.2 Naissance du concept de Data Lake
  3. 3. Le Data Warehouse : un entrepôt de données structurées et optimisées pour l'analytique
  4. 4. Le Data Lakehouse : un Data Lake structuré et optimisé pour l'analytique
  5. 5. Le Data Warehouse : les avantages de la maturité ?
    1. 5.1 Instructions DDL
    2. 5.2 Instructions DML
    3. 5.3 Sécurité plus fine dans un Data Warehouse
  6. 6. Différences et convergences
    1. 6.1 Faire du SQL sur un Lakehouse
    2. 6.2 L’impact du stockage physique
    3. 6.3 Interactions entre Lakehouse et Warehouse dans Fabric
    4. 6.4 Accès concurrents
    5. 6.5 Accès aux Lakehouse et Warehouse entre espaces de travail
  7. 7. Comment choisir ?
    1. 7.1 Points forts de chacun des services
    2. 7.2 Performances
    3. 7.3 Critères non fonctionnels
      1. 7.3.1 Historique et existant
      2. 7.3.2 Compétences de vos équipes
      3. 7.3.3 Impact du choix
    4. 7.4 Notre point de vue
  8. 8. Exemple d’une chaîne complète Lakehouse et Warehouse
  9. 9. Bases de données en miroir
    1. 9.1 Quel est l’usage des bases de données en miroir ?
    2. 9.2 Comment fonctionne une base en miroir ?
    3. 9.3 Démonstration pas à pas
    4. 9.4 Chaîne de connexion et sécurité
  10. 10. Synthèse
Traiter et analyser des données en temps réel
  1. 1. De multiples définitions du « temps réel » et leurs applications
  2. 2. Du temps réel à l’analytique
  3. 3. Qu’est-ce que le Complex Event Processing (CEP) ?
    1. 3.1 Présentation
    2. 3.2 Comprendre la notion de fenêtre temporelle
      1. 3.2.1 Tumbling Windows (Fenêtre à bascule)
      2. 3.2.2 Hopping Windows (Fenêtre récurrente)
      3. 3.2.3 Session Windows (Fenêtre de session)
      4. 3.2.4 Sliding Windows (Fenêtre glissante)
      5. 3.2.5 Snapshot Windows (Fenêtre d’instantané)
  4. 4. Le temps réel dans Microsoft Fabric
    1. 4.1 Création du workspace lié au temps réel
    2. 4.2 Les Hubs d’évènements en source
      1. 4.2.1 Source externe : Azure Event Hubs
      2. 4.2.2 Source externe : Azure IoT Hub
      3. 4.2.3 Point de terminaison personnalisé
      4. 4.2.4 Exemples de données
    3. 4.3 Les connecteurs partenaires
    4. 4.4 Le moteur de CEP : Stream Processor et les destinations
    5. 4.5 Le moteur de CEP : Stream Processor et les traitements
    6. 4.6 Le moteur de CEP : Stream Processor et le monitoring
  5. 5. Intégrer les données dans une base de données Time Series
    1. 5.1 Comprendre les bases de données orientées évènements temporels
    2. 5.2 Les bases de données Data Explorer (Eventhouse) dans Microsoft Fabric
      1. 5.2.1 Qu'est-ce qu'une base de données KQL ?
      2. 5.2.2 Création d’un Eventhouse et d’une base de données KQL
      3. 5.2.3 Le concept d'eventhouse
      4. 5.2.4 Le concept de dossier OneLake et de copie unique
    3. 5.3 Le KQL, ou comment interagir avec vos données
    4. 5.4 Copilot pour l'intelligence temps-réel
    5. 5.5 L’intégration dans les modèles sémantiques
      1. 5.5.1 Interaction native KQL via les « jeux de requêtes KQL » et Power BI
      2. 5.5.2 Interaction via un « shortcut » de table
    6. 5.6 Tableau de bord en temps réel
    7. 5.7 Organisation et flux de tâches
  6. 6. Recevoir des alertes en temps réel sur vos données
    1. 6.1 Qu’est-ce qu’une alerte et pourquoi ?
    2. 6.2 Comprendre Data Activator dans Microsoft Fabric
    3. 6.3 La définition des alertes sur les flux d'évènements
Concevoir des modèles sémantiques
  1. 1. Introduction
  2. 2. Donnée, Information et Connaissance
  3. 3. Modélisation
    1. 3.1 Les différentes étapes
    2. 3.2 Modélisations adaptées à la BI
    3. 3.3 D’autres techniques de modélisation
  4. 4. Modèle sémantique
  5. 5. Architecture tabulaire
    1. 5.1 VertiPaq
    2. 5.2 DAX
  6. 6. Mode d’accès aux données
    1. 6.1 Import
    2. 6.2 Direct Query
    3. 6.3 Live Connection
    4. 6.4 Composite
    5. 6.5 Direct Lake
  7. 7. Création d’un modèle
    1. 7.1 Type de données
    2. 7.2 Relations
    3. 7.3 Table de date
    4. 7.4 Propriétés
    5. 7.5 Hiérarchie
    6. 7.6 Perspective
    7. 7.7 Table et colonne calculée
    8. 7.8 Mesure
    9. 7.9 Groupe de calcul
    10. 7.10 Traduction
    11. 7.11 Sécurité
  8. 8. Optimisations
    1. 8.1 Intégrité référentielle
    2. 8.2 Query Folding
    3. 8.3 Direct Query
    4. 8.4 Indice d’encodage
    5. 8.5 Hiérarchies d'attributs
    6. 8.6 Modèles sémantiques volumineux
    7. 8.7 Date/heure automatique
    8. 8.8 Partition
    9. 8.9 Rafraîchissement incrémentiel
    10. 8.10 Table hybride
    11. 8.11 Scale-Out
    12. 8.12 Agrégation
    13. 8.13 Agrégation automatique
    14. 8.14 Mise en cache des requêtes
    15. 8.15 Comportement de secours
    16. 8.16 Variables DAX
    17. 8.17 DAX Pattern
    18. 8.18 Gestion des erreurs
    19. 8.19 Management
    20. 8.20 Outils tiers
  9. 9. Copilot
Analyse et reporting d'entreprise
  1. 1. Appréhender un jeu de données
    1. 1.1 Quick Insights
    2. 1.2 L’Explorateur de données
  2. 2. Créer des rapports interactifs
    1. 2.1 Introduction à Power BI
      1. 2.1.1 Power BI Desktop
      2. 2.1.2 Power BI Service
    2. 2.2 Conception d’un rapport interactif
      1. 2.2.1 Présentation de l’interface
      2. 2.2.2 Ajouter une visualisation
      3. 2.2.3 Personnaliser l’apparence d’une visualisation
      4. 2.2.4 Gérer les interactions
    3. 2.3 Ajouter des filtres et segments
      1. 2.3.1 Utiliser des filtres
      2. 2.3.2 Utiliser des segments
    4. 2.4 Publier un rapport
  3. 3. Générer des rapports automatiquement
    1. 3.1 Copilot
      1. 3.1.1 Générer un rapport
      2. 3.1.2 Utiliser le visuel Narrative
    2. 3.2 Rapports automatiques
    3. 3.3 Modèles de rapports
      1. 3.3.1 Créer des modèles de rapport personnalisés
      2. 3.3.2 Utiliser les modèles
    4. 3.4 Rapports paginés
      1. 3.4.1 Des rapports à la mise en page précise
      2. 3.4.2 Création de rapports paginés
    5. 3.5 Métriques
      1. 3.5.1 Définir et créer des KPI dans Power BI
      2. 3.5.2 Mesurer la performance
      3. 3.5.3 Suivre l'évolution des métriques
    6. 3.6 Tableaux de bord
      1. 3.6.1 Avantages des tableaux de bord
      2. 3.6.2 Création d’un tableau de bord
  4. 4. Vers un reporting proactive
    1. 4.1 Souscriptions
    2. 4.2 Alerte
  5. 5. Considérations pour un reporting d’entreprise
    1. 5.1 L’accessibilité des rapports
    2. 5.2 Bonnes pratiques de construction des rapports
    3. 5.3 Storytelling
    4. 5.4 Information sur les données
Utiliser l'IA dans Fabric
  1. 1. Une brève introduction à l'IA et les outils Microsoft associés
    1. 1.1 Microsoft, du Data Mining à la générative IA, un peu d'histoire
    2. 1.2 L'impact de l'IA sur les plateformes de données
    3. 1.3 Le langage Python
    4. 1.4 Introduction aux outils Microsoft
      1. 1.4.1 Microsoft Fabric Data Science persona
      2. 1.4.2 Microsoft AI Studio
      3. 1.4.3 Microsoft Azure Machine Learning
    5. 1.5 La librairie Synapse Machine Learning (SynapseML)
  2. 2. Comprendre les services IA dans Microsoft Fabric
    1. 2.1 Introduction aux Microsoft AI Services
    2. 2.2 Les AI services dans Microsoft Fabric
      1. 2.2.1 Text Analytics
      2. 2.2.2 Azure AI translator
      3. 2.2.3 Azure Open AI service
    3. 2.3 Utilisation de la librairie Synapse Machine Learning (ML)
      1. 2.3.1 Préparation de l'environnement d'analyse
      2. 2.3.2 Analyse des données de commentaires à l'aide des AI Services
      3. 2.3.3 Création d'un rapport sur les commentaires enrichis
  3. 3. Microsoft Fabric et l'IA générative
    1. 3.1 Comprendre les modèles LLM
    2. 3.2 Comprendre les modèles SLM
    3. 3.3 Utiliser un modèle LLM dans Microsoft Fabric en appel interne
    4. 3.4 Utiliser un modèle LLM dans Microsoft Fabric en appel externe
      1. 3.4.1 Mise en place de l'environnement Azure
      2. 3.4.2 Catégorisation des commentaires à l'aide du modèle gpt-35-turbo
      3. 3.4.3 Création d'un rapport sur les commentaires par catégories
    5. 3.5 Utiliser un modèle SLM dans Microsoft Fabric
    6. 3.6 Introduction au RAG avec Microsoft Fabric et Microsoft AI Studio
    7. 3.7 Les AI Skills dans Microsoft Fabric
  4. 4. Créer vos expériences de Machine Learning
    1. 4.1 Préparation des données
    2. 4.2 Entraînement des modèles de Machine Learning
    3. 4.3 Évaluation du modèle
    4. 4.4 Exemple Customer churn prediction
  5. 5. Interaction entre les modèles sémantiques et l'expérience de Data Science
    1. 5.1 Comprendre l'interaction entre les modèles sémantique et le persona de Data Science
    2. 5.2 Introduction à la librairie de Semantic Link Labs
    3. 5.3 Exemple d'implémentation
Collaborer en équipe
  1. 1. Introduction
  2. 2. Collaborer pendant le développement
    1. 2.1 Les fondamentaux : DevOps & DataOps
      1. 2.1.1 DevOps à l'origine
      2. 2.1.2 DataOps, une même philosophie mais des pratiques différentes
    2. 2.2 Contrôle de code source
      1. 2.2.1 Le code dans Fabric
      2. 2.2.2 Développer ensemble en même temps
      3. 2.2.3 Configurer le contrôle de code source
    3. 2.3 Environnements et gestion des branches
      1. 2.3.1 Environnements
      2. 2.3.2 Modèles Git
      3. 2.3.3 Avantages et inconvénients
      4. 2.3.4 En synthèse
    4. 2.4 Déployer
      1. 2.4.1 Environnements et Pipelines de déploiement
      2. 2.4.2 Déployer des éléments
      3. 2.4.3 Paramètres et règles de déploiement
      4. 2.4.4 Pour aller plus loin
    5. 2.5 Synthèse
  3. 3. Partager ses analyses et collaborer avec d'autres personnes
    1. 3.1 Les fondamentaux du partage
      1. 3.1.1 Qui, Quoi, Comment, Où, Pourquoi
      2. 3.1.2 RBAC
      3. 3.1.3 Comment partager ?
    2. 3.2 Utilisateurs
      1. 3.2.1 Utilisateurs externes à votre entreprise
      2. 3.2.2 Groupes
      3. 3.2.3 Applications
    3. 3.3 Que partage-t-on ?
      1. 3.3.1 Les espaces de travail
      2. 3.3.2 Les données
      3. 3.3.3 Les rapports
      4. 3.3.4 Une application
    4. 3.4 Autres façons de collaborer
      1. 3.4.1 API GraphQL
      2. 3.4.2 S'abonner aux données
      3. 3.4.3 Teams
      4. 3.4.4 Power Point
      5. 3.4.5 Power BI Mobile App
    5. 3.5 Synthèse
Architecture
  1. 1. Les tendances des architectures analytiques
  2. 2. Le concept d'architecture autour de Microsoft Fabric
    1. 2.1 Les différents modèles d'architectures
      1. 2.1.1 Monolithique
      2. 2.1.2 Plusieurs groupes de travail avec une capacité unique
      3. 2.1.3 Plusieurs groupes de travail et différentes capacités
      4. 2.1.4 Plusieurs tenants
    2. 2.2 Le Hub de données autour du OneLake
    3. 2.3 Les architectures logiques des flux de tâches
  3. 3. Fabric et le Data Mesh
    1. 3.1 Qu'est-ce que le concept d'architecture de Data Mesh ?
      1. 3.1.1 Les produits (Data Products)
      2. 3.1.2 Les domaines (Domains)
      3. 3.1.3 La plateforme de données (Self-serve data infrastructure as a platform)
      4. 3.1.4 La gouvernance fédérée (Federated governance)
      5. 3.1.5 Une architecture logique et unifiée
    2. 3.2 Le positionnement de Microsoft Fabric
  4. 4. Fabric et l'approche verticalisée par métier
    1. 4.1 Well architected framework for Industry
    2. 4.2 Les verticaux par industries
    3. 4.3 Déploiement du modèle industrie Retail
  5. 5. Architectures et comportement en charge de la plateforme
    1. 5.1 Les questions avant la mise en production
    2. 5.2 Une démarche standardisée
    3. 5.3 Les scénarios à envisager pour vos projets
    4. 5.4 Que sont TPC et TPC-H 3.0.1 ?
    5. 5.5 Génération de données avec TPCH et Spark
    6. 5.6 Génération de données avec TPCH et DBgen
      1. 5.6.1 Compilation de l'outil DBgen
      2. 5.6.2 Génération de données avec DBgen
Sécuriser sa plateforme de données
  1. 1. Introduction
  2. 2. Software as a Service
  3. 3. Microsoft Fabric
  4. 4. Authentification
  5. 5. Sécurité du réseau
    1. 5.1 Sécurité des réseaux entrants
    2. 5.2 Sécurité des réseaux sortants
  6. 6. Sécurités multicouches
    1. 6.1 Rôles d’administration
    2. 6.2 OneLake
    3. 6.3 Capacité
    4. 6.4 Domaines
    5. 6.5 Espace de travail
    6. 6.6 Objet
    7. 6.7 Recommandation et approbation
  7. 7. Sécurité par expériences
    1. 7.1 Power BI
    2. 7.2 GraphQL
    3. 7.3 Warehouse
    4. 7.4 Eventhouse
    5. 7.5 Sécurité des développements
  8. 8. Partage et gestion des autorisations
  9. 9. Supervision
    1. 9.1 Statut du service
    2. 9.2 Log d'activités
    3. 9.3 Espace de travail Monitoring de l’administrateur
    4. 9.4 Microsoft Purview
Administrer Fabric
  1. 1. Introduction à l'administration Fabric
    1. 1.1 Vue d'ensemble de l'administration
      1. 1.1.1 Activer Fabric pour votre organisation
      2. 1.1.2 Gérer les utilisateurs
    2. 1.2 Les interfaces d'administration
      1. 1.2.1 Console d'administration Microsoft 365
      2. 1.2.2 La console d'administration Fabric
      3. 1.2.3 Le portail Azure
      4. 1.2.4 Les autres outils et consoles d'administration
    3. 1.3 Planifier les rôles et responsabilités
      1. 1.3.1 Qui crée et administre les capacités Fabric ?
      2. 1.3.2 Qui a le droit de créer des espaces de travail ?
      3. 1.3.3 Qui va associer les espaces de travail aux capacités ?
  2. 2. Administrateur de la plateforme
    1. 2.1 Gérer les fonctionnalités au niveau du tenant
    2. 2.2 Déléguer des droits d'administration
    3. 2.3 Supporter les espaces de travail
      1. 2.3.1 Restaurer un espace de travail supprimé
      2. 2.3.2 Accéder à un espace de travail personnel
  3. 3. Administrateur de capacité
    1. 3.1 Créer une capacité
    2. 3.2 Associer une capacité à un espace de travail
      1. 3.2.1 Associer en tant qu'administrateur de la plateforme
      2. 3.2.2 Associer en tant que propriétaire d'espace de travail
  4. 4. Administrateur d'espace de travail
    1. 4.1 Gérer les connexions à Azure
    2. 4.2 Utiliser une identité d'espace de travail
    3. 4.3 Gérer les paramètres Spark
Maîtriser et optimiser les coûts de la plateforme
  1. 1. Comprendre l'utilisation des ressources de la plateforme Fabric
    1. 1.1 Je suis un utilisateur
    2. 1.2 Je suis un développeur ou data engineer
    3. 1.3 Je suis un administrateur ou un architecte
  2. 2. Comprendre le business model de Fabric
    1. 2.1 La notion de CU/s et la mesure de la consommation
    2. 2.2 Qu'est-ce que le Bursting ?
    3. 2.3 Qu'est-ce que le Smoothing ?
    4. 2.4 Qu'est-ce que le Throttling ?
    5. 2.5 Qu'est-ce que le Queueing ?
    6. 2.6 Comprendre la scalabilité d'une capacité Fabric
    7. 2.7 Le OneLake
    8. 2.8 Le réseau
    9. 2.9 La réplication de données
    10. 2.10 Résumé des vecteurs de coûts Microsoft Fabric
  3. 3. L'application métriques de capacité
    1. 3.1 Installation de l'application Microsoft Fabric Capacity Metrics
    2. 3.2 Compréhension de l'application Microsoft Fabric Capacity Metrics
      1. 3.2.1 Section Compute
      2. 3.2.2 Section Storage
  4. 4. L'optimisation d'utilisation de la plateforme
    1. 4.1 Profil développeur
    2. 4.2 Profil architecte
    3. 4.3 Profil administrateur
    4. 4.4 Optimisation des achats
    5. 4.5 Calculette Microsoft Fabric
  5.  
  6.  
  7.  
  8. Conclusion
  9. Index
Auteur : Emilie BEAU

Emilie BEAU

Emilie BEAU est spécialiste technique sur les technologies du traitement de la donnée. Chez Microsoft depuis 15 ans, elle prend plaisir à partager ses connaissances et à s’engager dans des discussions sur la manière dont les avancées en matière de BI, de Big Data et d’Intelligence Artificielle peuvent aider les industries à relever de nouveaux défis.
 
LinkedIn : Emilie BEAU | LinkedIn
En savoir plus
Auteur : Romain CASTERES

Romain CASTERES

Romain CASTERES est un architecte de solution cloud chez Microsoft, passionné par la musique, les nouvelles technologies, les voyages … et la Data. Ancien MVP (Microsoft Most Valuable Professional) avec plus de 15 ans d'expériences dans le domaine de la Data, il aime résoudre les défis en exploitant la valeur des données, apprendre et partager des connaissances.

LinkedIn : Romain Casteres | LinkedIn
Blog : https://pulsweb.fr/
YouTube : https://www.youtube.com/@DataChouette
En savoir plus
Auteur : Frédéric GISBERT

Frédéric GISBERT

Frédéric GISBERT est un architecte solution cloud chez Microsoft depuis près de 17 ans. Il a intégré diverses entités, passant de Microsoft Professional Services aux divisions clients, et évolue depuis 4 ans dans la division partenaires. Passionné par les nouvelles technologies, il traite des sujets allant des bases de données à l’IA générative et Microsoft Fabric aujourd'hui.

LinkedIn : Frederic Gisbert | LinkedIn
En savoir plus
Auteur : Christopher MANEU

Christopher MANEU

Christopher MANEU est ingénieur Cloud et Principal Data Advocate chez Microsoft. Sa mission est d’aider tous les "tech" à réussir, en se concentrant sur les données et l’équipe "data" chargée des données derrière les applications.

LinkedIn: https://linkedin.com/in/cmaneu
En savoir plus
Auteur : Jean-Pierre RIEHL

Jean-Pierre RIEHL

Jean-Pierre RIEHL est un leader technologique qui conjugue Data, innovation et valeur métier. Passionné par les données, fan de Power BI et Fabric, guidé par l'innovation mais orienté par le business, artificiellement intelligent, il travaille depuis plus de 25 ans sur des projets stimulants, allant du web à l'IoT en passant par beaucoup de données et d'IA. Reconnu MVP (Microsoft Most Valuable Professional) Data Platform depuis 2008, il a toujours été très impliqué dans les communautés en France, en tant qu’organisateur et conférencier. Il pilote la communauté Data Microsoft en France au travers notamment du Club Power BI et du Club Fabric.
En savoir plus

Nos nouveautés

voir plus