FAQ

Corso Fabric Data Engineer DP-700

Obiettivi | Certificazione | Contenuti | Tipologia | Prerequisiti | Durata e Frequenza | Docenti | Modalità di Iscrizione | Calendario

Corso Fabric Data Engineer DP-700

Il Corso DP-700 Fabric Data Engineer è rivolto a partecipanti che devono progettare e distribuire soluzioni di data engineering su Microsoft Fabric per scenari di enterprise-scale data analytics, lavorando su data loading patterns, data architectures e orchestration processes. Il percorso copre la progettazione di carichi full e incremental, la preparazione dei dati per un dimensional model, e l’implementazione di pipeline di ingest e trasformazione sia batch sia streaming. Vengono approfondite le scelte operative tra Dataflow Gen2, pipelines e notebooks, l’uso di Power Query (M), PySpark, SQL/T-SQL e KQL, oltre alla gestione di data connections, mirroring e integrazioni con OneLake e Real-Time Intelligence. Ampio spazio è dedicato a security & governance (workspace/item access controls, row/column/object/folder-file level security, dynamic data masking, sensitivity labels, endorsement) e alla gestione del ciclo di vita con version control, database projects e deployment pipelines. La parte finale si concentra su monitoring, alerting, troubleshooting e ottimizzazione di performance su Lakehouse, data warehouse, Spark, query e componenti real-time. Il corso contribuisce alla preparazione dell’esame di Certificazione Fabric Data Engineer Associate.

Contattaci ora per ricevere tutti i dettagli e per richiedere, senza alcun impegno, di parlare direttamente con uno dei nostri Docenti (Clicca qui)
oppure chiamaci subito al nostro Numero Verde (800-177596).

Calling from abroad? Reach us at +39 02 87168254.

Obiettivi del corso

Di seguito una sintesi degli obiettivi principali del corso Corso Fabric Data Engineer DP-700:

  • Progettare data loading patterns (full/incremental) e preparare dati per dimensional modeling in Fabric.
  • Ingestire e trasformare dati batch con Dataflow Gen2, pipelines e notebooks usando Power Query (M), PySpark, SQL/T-SQL e KQL.
  • Progettare e implementare ingest/processing streaming con Eventstream, Spark Structured Streaming, KQL e windowing functions.
  • Implementare security & governance (workspace/item controls, fine-grained security, dynamic data masking, sensitivity labels, endorsement).
  • Monitorare, risolvere errori e ottimizzare performance su Lakehouse, warehouse, Spark, pipelines e query.

Certificazione del corso

Esame DP-700 Fabric Data Engineer Associate; Questo esame verifica le competenze del candidato nell’implementare e gestire una soluzione di data engineering in Microsoft Fabric su tre macro-aree: implementazione/gestione, ingest/transform e monitor/optimize. I topics testati includono la configurazione delle workspace settings (Spark, domain, OneLake, data workflow), la gestione del ciclo di vita con version control, database projects e deployment pipelines, e l’implementazione di security & governance con controlli di accesso a livello workspace e item, row/column/object/folder-file level security, dynamic data masking, sensitivity labels, endorsement e workspace logging, inclusa la sicurezza di OneLake.
Sul fronte ingest e trasformazione, l’esame copre la progettazione di modelli di caricamento full e incremental, la preparazione dei dati per un dimensional model, e la progettazione di un modello di caricamento per dati streaming. Per i workload batch valuta la scelta di un data store appropriato, la selezione tra Dataflows, notebooks, KQL e T-SQL per la trasformazione, la gestione di data connections, l’implementazione del mirroring, l’ingest con pipelines e con integrazione continua da OneLake, e le trasformazioni con Power Query (M), PySpark, SQL e KQL, incluse denormalization, group/aggregate e gestione di dati duplicati, mancanti o in ritardo.
Per lo streaming include la scelta del motore, le opzioni tra storage nativo/mirroring/links in Real-Time Intelligence, processing con Eventstream, Spark Structured Streaming e KQL, oltre a windowing functions. Chiude con monitoraggio (ingest/transform/semantic model refresh, alerting), troubleshooting di errori (pipelines, dataflows, notebooks, Eventhouse/Eventstream, T-SQL, OneLake shortcuts) e ottimizzazione (Lakehouse tables, pipelines, warehouse, Eventstream/Eventhouse, Spark e query performance).

Contenuti del corso

Implement and manage a Fabric analytics solution

  • Configure workspace settings for Spark, domains, OneLake, and data workflow
  • Enable and use workspace logging for traceability and operational auditing
  • Organize Fabric items (lakehouse/warehouse/eventhouse/notebooks/pipelines) with dependency awareness
  • Apply OneLake security concepts and data estate organization principles
  • Define standards for naming, ownership, and asset lifecycle (draft → promoted → certified)
  • Establish operational responsibilities across data engineer, platform admin, and analytics teams

Lifecycle management and delivery

  • Set up version control for workspaces and Fabric items
  • Use database projects for SQL/T-SQL artifacts and change tracking
  • Configure deployment pipelines (dev/test/prod) with controlled promotions
  • Manage releases across notebooks, pipelines, dataflows, and SQL artifacts with dependency alignment
  • Design rollback and hotfix strategies for production incidents
  • Implement repeatable deployment patterns and environment configuration consistency

Security and governance

  • Configure workspace-level access controls and admin roles
  • Apply item-level access controls and secure sharing patterns
  • Implement fine-grained security: row-level, column-level, object-level, folder/file-level security
  • Configure dynamic data masking where appropriate and validate impact on analytics
  • Apply sensitivity labels and understand downstream effects on sharing and compliance
  • Use endorsement (promoted/certified) to manage trust and governance signals

Orchestration and process design

  • Choose the right tool per workload: Dataflow Gen2 vs pipelines vs notebooks
  • Build orchestration with parameters, reusable templates, and dynamic expressions
  • Implement scheduling and event-based triggers (where applicable)
  • Design dependency chains, retries, failure handling, and idempotent re-runs
  • Separate orchestration patterns for batch vs streaming workloads
  • Create operational runbooks for execution monitoring and incident response

Data loading patterns and modeling readiness

  • Design full load vs incremental load patterns and choose the correct approach per source
  • Prepare data for dimensional modeling (staging, conforming dimensions, fact shaping)
  • Define strategies for late-arriving data, reprocessing, and backfills
  • Handle duplicates, missing values, and out-of-range data with deterministic rules
  • Establish data quality checks and acceptance criteria for analytics consumption
  • Decide the target store pattern: lakehouse tables vs warehouse objects vs eventhouse structures

Ingest and transform batch data

  • Select the appropriate storage target (lakehouse/warehouse) based on query patterns and SLAs
  • Create and manage data connections and reusable ingestion configurations
  • Implement ingestion with pipelines and continuous integration patterns with OneLake
  • Use Power Query (M) for shaping, standardization, and enrichment where it fits
  • Use PySpark for scalable transforms and complex processing
  • Use SQL/T-SQL and KQL where they provide the best performance/maintainability trade-off

Ingest and transform streaming data (Real-Time Intelligence)

  • Select the streaming engine based on throughput/latency and operational constraints
  • Choose between native storage, mirroring, or links in Real-Time Intelligence
  • Distinguish accelerated vs non-accelerated links and their use cases
  • Implement processing with Eventstream and event flow design
  • Implement Spark Structured Streaming for advanced streaming transformations
  • Use KQL for real-time analytics scenarios and apply windowing functions for time-based aggregations

Monitoring, troubleshooting, and optimization

  • Monitor ingestion, transformation, and semantic model refresh with actionable alerting
  • Troubleshoot failures in pipelines, dataflows, notebooks, and T-SQL execution
  • Diagnose streaming issues in Eventhouse/Eventstream and ingestion bottlenecks
  • Troubleshoot OneLake shortcuts issues and connectivity/data access problems
  • Optimize performance: lakehouse table design, warehouse objects, Spark performance, and query efficiency
  • Track technical KPIs (latency, throughput, failure rate, cost drivers) and apply continuous improvements

Tipologia

Corso di Formazione con Docente

Docenti

I docenti sono Istruttori Autorizzati Microsoft e in altre tecnologie IT, con anni di esperienza pratica nel settore e nella Formazione.

Infrastruttura laboratoriale

Per tutte le tipologie di erogazione, il Corsista può accedere alle attrezzature e ai sistemi presenti nei Nostri laboratori o direttamente presso i data center del Vendor o dei suoi provider autorizzati in modalità remota. Ogni partecipante dispone di un accesso per implementare le varie configurazioni avendo così un riscontro pratico e immediato della teoria affrontata. Ecco di seguito alcuni scenari tratti dalle attività laboratoriali:

Corso Microsoft Fabric Analytics Engineer (DP-600)

Dettagli del corso

Prerequisiti

Durata del corso

  • Durata Intensiva 4gg;

Frequenza

Varie tipologie di Frequenza Estensiva ed Intensiva.

Date del corso

  • Corso Fabric Data Engineer (Formula Intensiva) – Su richiesta – 09:00 – 17:00

Modalità di iscrizione

Le iscrizioni sono a numero chiuso per garantire ai tutti i partecipanti un servizio eccellente.
L’iscrizione avviene richiedendo di essere contattati dal seguente Link, o contattando la sede al numero verde 800-177596 o inviando una richiesta all’email [email protected].