Microsoft Fabric – „All-in-One“- Plattform für Datenanalyse
Microsoft Fabric liefert alle Funktionen, die für die Bereitstellung und Analyse von beliebigen Daten benötigt werden. Das beginnt mit dem zentralen Bereitstellen von Daten über das Modellieren und Visualisieren bis hin zum datengestützten Auslösen von Prozessen. Als „Software-as-a-Service“-Lösung ist Fabric außerordentlich skalierbar und eignet sich für alle Unternehmensgrößen.
Microsoft Fabric in der Übersicht
Microsoft Fabric in der Übersicht
Was ist Microsoft Fabric?
Microsoft Fabric ist eine „Software-as-a-Service (SaaS)“-Lösung mit der Unternehmen Ihre Daten vereinheitlicht und abgesichert zur Analyse bereitstellen. Die Daten werden aus beliebigen Datenquellen zentral zusammengestellt und zur Auswertung optimal vorbereitet oder in Echtzeit an Visualisierungen ausgeliefert. Die Daten werden mit Power BI dargestellt oder mittels Machine-Learning-Verfahren untersucht. Überschrittene Schwellwerte lösen automatisierte Prozesse aus. Fabric eignet sich sowohl für relationale Daten als auch für die Analyse unstrukturierter Informationen. Der Einsatzbereich erstreckt sich von kleinen Datenmengen bis hin zu Big-Data-Szenarien.
Vergrößern durch Anklicken des Videos
Daten zentralisieren – Data Factory
Kopieren oder verknüpfen Sie Ihre Rohdaten aus unterschiedlichen Quellen in einen zentralen Data Lake. Über 300 Power-Query-Transformationen oder KI-Funktionen des integrierten grafischen Dataflow-Designers stehen zur Verfügung, um perfekte Rohdaten für Ihr Datenprojekt zu schaffen. Orchestrieren Sie die Datenübertragung in Pipelines und generieren Sie daraus flexible Workflows jeder Komplexität oder Größe für Ihre individuellen Datenbedürfnisse.
ANWENDUNGSFÄLLE FÜR DATA FACTORY
Daten zentralisieren – Data Factory
Kopieren oder verknüpfen Sie Ihre Rohdaten aus unterschiedlichen Quellen in einen zentralen Data Lake. Über 300 Power-Query-Transformationen oder KI-Funktionen des integrierten grafischen Dataflow-Designers stehen zur Verfügung, um perfekte Rohdaten für Ihr Datenprojekt zu schaffen. Orchestrieren Sie die Datenübertragung in Pipelines und generieren Sie daraus flexible Workflows jeder Komplexität oder Größe für Ihre individuellen Datenbedürfnisse.
ANWENDUNGSFÄLLE FÜR DATA FACTORY
Relationale Daten perfektionieren – Data Warehouse
Bilden Sie mit T-SQL (Transact Structured Query Language) aus Ihren zentralisierten Rohdaten perfekte Datenmodelle für die Analyse relationaler Daten. Ihre Rohdaten unterschiedlicher Quellen verbinden Sie komfortabel zu wohl definierten Tabellen. Gliedern Sie Ihre Daten in Fakten und Dimensionen und gewinnen Sie Klarheit und Übersichtlichkeit für Ihre Analysedaten. Fehlende Werte ergänzen Sie automatisch oder bilden Sie Regeln zur Transformationen Ihrer Daten für die einfache Auswertung.
ANWENDUNGSFÄLLE FÜR DATA WAREHOUSE
Vergrößern durch Anklicken des Videos
Relationale Daten perfektionieren – Data Warehouse
Bilden Sie mit T-SQL (Transact Structured Query Language) aus Ihren zentralisierten Rohdaten perfekte Datenmodelle für die Analyse relationaler Daten. Ihre Rohdaten unterschiedlicher Quellen verbinden Sie komfortabel zu wohl definierten Tabellen. Gliedern Sie Ihre Daten in Fakten und Dimensionen und gewinnen Sie Klarheit und Übersichtlichkeit für Ihre Analysedaten. Fehlende Werte ergänzen Sie automatisch oder bilden Sie Regeln zur Transformationen Ihrer Daten für die einfache Auswertung.
ANWENDUNGSFÄLLE FÜR DATA WAREHOUSE
Vergrößern durch Anklicken des Videos
Big Data verarbeiten – Data Lakehouse
Mit PySpark bilden Sie aus Ihren zentralisierten Rohdaten perfekte Datenmodelle für die Analyse unstrukturierter Daten oder sehr großer Datenmengen. Verwenden Sie viele parallele Rechenprozesse im flüchtigen Speicher, um riesige Datenmengen mit extremer Geschwindigkeit zu verarbeiten. Python-Bibliotheken wie Pandas oder NumPy bieten sehr vielfältige Funktionen für Ihre Analysen oder Visualisierungen. Verwenden Sie MLlib, um die Machine-Learning-Funktionen von Spark auf großen Datenmengen zu verwenden.
ANWENDUNGSFÄLLE FÜR DATA LAKEHOUSE (DATA ENGINEERING)
Big Data verarbeiten – Data Lakehouse
Mit PySpark bilden Sie aus Ihren zentralisierten Rohdaten perfekte Datenmodelle für die Analyse unstrukturierter Daten oder sehr großer Datenmengen. Verwenden Sie viele parallele Rechenprozesse im flüchtigen Speicher, um riesige Datenmengen mit extremer Geschwindigkeit zu verarbeiten. Python-Bibliotheken wie Pandas oder NumPy bieten sehr vielfältige Funktionen für Ihre Analysen oder Visualisierungen. Verwenden Sie MLlib, um die Machine-Learning-Funktionen von Spark auf großen Datenmengen zu verwenden.
ANWENDUNGSFÄLLE FÜR DATA LAKEHOUSE
In Echtzeit analysieren– Kusto DB
Untersuchen Sie mit KQL (Kusto Query Language) große Mengen ihrer zentralisierten Daten aus unterschiedlichen Quellen in Echtzeit. Bilden Sie einfache Datenmodelle, um unterschiedliche Datenformate besonders schnell zu analysieren. Bei dynamisch wachsenden Datenmengen nutzen Sie die automatische Skalierung. Visualisieren Sie Ihre KQL-Abfragen direkt in Power BI oder schreiben Sie die Ergebnisdaten in den zentralen Data Lake. Das Web-Portal verwenden Sie, um Abfragen und Visualisierungen zu erstellen.
ANWENDUNGSFÄLLE FÜR KUSTO DB (REAL TIME ANALYTICS)
Vergrößern durch Anklicken des Videos
In Echtzeit analysieren– Kusto DB
Untersuchen Sie mit KQL (Kusto Query Language) große Mengen ihrer zentralisierten Daten aus unterschiedlichen Quellen in Echtzeit. Bilden Sie einfache Datenmodelle, um unterschiedliche Datenformate besonders schnell zu analysieren. Bei dynamisch wachsenden Datenmengen nutzen Sie die automatische Skalierung. Visualisieren Sie Ihre KQL-Abfragen direkt in Power BI oder schreiben Sie die Ergebnisdaten in den zentralen Data Lake. Das Web-Portal verwenden Sie, um Abfragen und Visualisierungen zu erstellen.
ANWENDUNGSFÄLLE FÜR KUSTO DB
Vergrößern durch Anklicken des Videos
Künstliche Intelligenz – Data Science
Bilden Sie Machine-Learning-Modelle basierend auf den Rohdaten in Ihrem Data Lake, auf Ihren Data Warehouses, auf Ihren Data Lakehouses oder auf Ihren Power-BI-Auswertungen. Mit dem grafischen Data Wrangler untersuchen Sie Ihre Daten und generieren daraus automatisch den Python-Code für Ihre Datenvorverarbeitung. Erstellen Sie ein Machine-Learning-Modell mit Python in Jupyter Notebooks. Das generierte Machine-Learning-Modell wenden Sie auf Ihren produktiven Daten an und speichern die getroffenen Vorhersagen zur weiteren Analyse in den Data Lake.
ANWENDUNGSFÄLLE FÜR DATA SCIENCE
Künstliche Intelligenz – Data Science
Bilden Sie Machine-Learning-Modelle basierend auf den Rohdaten in Ihrem Data Lake, auf Ihren Data Warehouses, auf Ihren Data Lakehouses oder auf Ihren Power-BI-Auswertungen. Mit dem grafischen Data Wrangler untersuchen Sie Ihre Daten und generieren daraus automatisch den Python-Code für Ihre Datenvorverarbeitung. Erstellen Sie ein Machine-Learning-Modell mit Python in Jupyter Notebooks. Das generierte Machine-Learning-Modell wenden Sie auf Ihren produktiven Daten an und speichern die getroffenen Vorhersagen zur weiteren Analyse in den Data Lake.
ANWENDUNGSFÄLLE FÜR DATA SCIENCE
Daten visualisieren - Power BI
Zeigen Sie Ihre Daten grafisch, dynamisch und interaktiv in Dashboards oder Berichten an. Mittels Power Query versorgen Sie Ihre Auswertungen mit Daten aus Ihrem Data Lake, Ihren Data Warehouses, Ihren Data Lakehouses, Ihren Echtzeitdaten oder Ihren KI-Vorhersagen. Bilden Sie mit der Formelsprache DAX (Data Analysis Expressions) dynamische Kennzahlen und Datenmodelle. Detaillierte Benutzer-Berechtigungen definieren Sie bis auf die Datensatzeben für Ihre Datenmodelle. Veröffentlichen Sie Ihre dynamischen Analysen in Ihrer Organisation im Web-Browser. Ausführliche Informationen zu Power BI finden Sie auf unserer Power-BI-Produktseite.
ANWENDUNGSFÄLLE FÜR POWER BI
Vergrößern durch Anklicken des Videos
Daten visualisieren - Power BI
Zeigen Sie Ihre Daten grafisch, dynamisch und interaktiv in Dashboards oder Berichten an. Mittels Power Query versorgen Sie Ihre Auswertungen mit Daten aus Ihrem Data Lake, Ihren Data Warehouses, Ihren Data Lakehouses, Ihren Echtzeitdaten oder Ihren KI-Vorhersagen. Bilden Sie mit der Formelsprache DAX (Data Analysis Expressions) dynamische Kennzahlen und Datenmodelle. Detaillierte Benutzer-Berechtigungen definieren Sie bis auf die Datensatzeben für Ihre Datenmodelle. Veröffentlichen Sie Ihre dynamischen Analysen in Ihrer Organisation im Web-Browser. Ausführliche Informationen zu Power BI finden Sie auf unserer Power-BI-Produktseite.
ANWENDUNGSFÄLLE FÜR POWER BI
Vergrößern durch Anklicken des Videos
Ereignisse auslösen – Data Activator
Mit dem Fabric Data Activator führen Sie Aktionen aus, wenn in Ihren Daten Muster erkannt oder Bedingungen erfüllt werden. Überwachen Sie dazu Eventstreams oder Power-BI-Berichte auf Überschreitungen von Schwellwerten. Verwenden Sie die No-Code-Umgebung, um Daten einzubinden oder um Aufgaben wie Email-Versand, Teams-Benachrichtigungen oder Power-Automate-Workflows anhand Ihrer Daten auszulösen. Definieren Sie nahtlos Intervalle, in denen Ihre Daten geprüft werden sollen.
ANWENDUNGSFÄLLE FÜR DATA ACTIVATOR
Ereignisse auslösen – Data Activator
Mit dem Fabric Data Activator führen Sie Aktionen aus, wenn in Ihren Daten Muster erkannt oder Bedingungen erfüllt werden. Überwachen Sie dazu Eventstreams oder Power-BI-Berichte auf Überschreitungen von Schwellwerten. Verwenden Sie die No-Code-Umgebung, um Daten einzubinden oder um Aufgaben wie Email-Versand, Teams-Benachrichtigungen oder Power-Automate-Workflows anhand Ihrer Daten auszulösen. Definieren Sie nahtlos Intervalle, in denen Ihre Daten geprüft werden sollen.
ANWENDUNGSFÄLLE FÜR DATA ACTIVATOR
Wie wird Fabric lizenziert?
Microsoft Fabric wird als Azure-Produkt bereitgestellt. Das Lizenzmodell von Microsoft Fabric besteht aus drei Komponenten.
Rechenleistung – Kapazitätseinheit (CU)
Einer Fabric-Kapazität wird mit dem Lizenzerwerb eine feste Menge an Rechenleistung zugeordnet. Die ausgeführten Aktionen teilen sich die erworbene Leistung.
Speicherplatz - OneLake
Die Kosten für Speicherplatz sind abhängig von der genutzten Menge. Data Lake Storage ist mit etwa 25 EUR* pro Terrabyte und Monat vergleichsweise preiswert.
Regionsübergreifender Datentransfer
Datenübertragungen von einer Azure Region in eine andere Region sind kostenpflichtig. Die Kosten liegen je nach Regionen zwischen 20 EUR* und 150 EUR* pro Terrabyte und Monat.
Weitere Informationen zur Lizenzierung finden Sie auf unserer Preisseite. *Die angegebenen Preise für Fabric sind unverbindlich und entsprechen dem Stand vom 03.12.2024. Sie verstehen sich zzgl. gesetzlicher Mehrwertsteuer. Für ein konkretes Angebot vereinbaren Sie bitte eine professionelle Lizenzberatung.
Welche Dienstleistungen bieten wir Ihnen an?
Unsere Dienstleistungen umfassen die vollständige Betreuung Ihres Microsoft-Fabric-Projektes. Unser erfahrenes Team unterstützt Sie in allen Phasen des Projekts. Egal, ob Sie von Anfang an eine Rundumbetreuung wünschen oder nur Hilfe bei bestimmten Modulen benötigen. Wir passen unsere Unterstützung an Ihre individuellen Anforderungen an. Unsere Experten begleiten Sie durch die wesentlichen Projektschritte, um sicherzustellen, dass Ihr Business-Intelligence-Projekt erfolgreich umgesetzt wird.
Design
Ein Datenprojekt löst definierte Fragen. Wir helfen Ihnen die richtigen Fragen zu finden und eindeutig zu formulieren. Was ist das Ergebnis einer Analyse? Wie muss ich auf die Ergebnisse reagieren? Wie wird das Ergebnis der Analysen dargestellt?
Scoping
Welche Fabric-Komponenten sind für mein Projekt geeignet? Welche Produktversion ist die passende für unsere Anforderungen? Welche Skills prägen wir selbst aus? Welcher Mitarbeiter wird für welche Aufgabe ausgebildet? Welche Leistungen kaufen wir von Spezialisten ein?
Einrichtung
Wir helfen bei der Einrichtung und Konfiguration von Microsoft Fabric. Wir definieren Ihre Anforderungen an Zugriffsberechtigungen und entwickeln geeignete Konzepte, um diese langfristig sicherzustellen. Wir integrieren Ihre Microsoft-Fabric-Kapazität in Ihre IT-Umgebung.
Schulungen
Jede Komponente von Microsoft Fabric ist eine komplexe Anwendung und bedarf separater Schulungen. Was leistet die jeweilige Fabric Komponente? Welche Werkzeuge und Programmiersprachen gibt es? Wie wende ich die diese an?
Entwicklung
Unsere Fachleute und Spezialisten erstellen die Lösung für Sie. Wir leiten aus Ihren Anforderungen einen geeigneten Projektplan ab und realisieren die Anwendung für Sie. Wie werden die Daten bereitgestellt? Wie werden die Daten optimiert? Wie werden die Daten visualisiert?
Coaching
Unsere Fachleute begleiten Ihr Team bei der Realisierung Ihres Projektes. Wir helfen bei der Konzeption, beim Projektmanagement und bei der Realisierung. Wir vermitteln Best-Practices und helfen bei der Einhaltung dieser.
Microsoft Fabric – jetzt direkt hier informieren!
Sie möchten mehr über Fabric erfahren? Gerne stellen wir Ihnen die Funktionen und Vorteile von Microsoft Fabric in einer unverbindlichen, kostenlosen Online-Präsentation vor. Vereinbaren Sie hier einen Termin:
Microsoft Fabric – jetzt direkt hier informieren!
Sie möchten mehr über Fabric erfahren? Gerne stellen wir Ihnen die Funktionen und Vorteile von Microsoft Fabric in einer unverbindlichen, kostenlosen Online-Präsentation vor. Vereinbaren Sie hier einen Termin:
Weiterführende YouTube-Videos rund um Microsoft Fabric
Mit diesem kurzen Überblick startet unser Geschäftsführer Andreas Koblischke eine neue Video-Reihe, die sich intensiv mit dem Tool von Microsoft auseinandersetzt.
Im zweiten Teil der Videoreihe zeigt Andreas Koblischke einige praxisnahe Beispiele für den Einsatz von Microsoft Fabric auf.
Der dritte Teil der Videoreihe ist ein kurzer Deep Dive in die Technik von Fabric. Durch viele Beispiele werden die einzelnen Komponenten anschaulich erklärt.
Häufig gestellte Fragen (FAQ)
Ist Power BI in Microsoft Fabric enthalten?
Ab einer Kapazität mit 64 Kapazitätseinheiten (F64) ist das Ausführen von Power-BI-Berichten für beliebig viele Anwender enthalten. Für Fabric-Instanzen mit weniger Kapaziätseinheiten wird dafür eine separate Power-BI-Lizenz pro Benutzer benötigt. Für das Erstellen von Power-BI-Dashboards ist generell mindestens eine Power-Pro-Lizenz erforderlich.
Wie bestimme ich, wie viel Rechenleistung (CU) für mein Projekt benötigt wird?
Je nach Datenmenge, erforderlicher Fabric-Dienste, nötiger Verarbeitungsgeschwindigkeit und Benutzeranzahl ist die benötigte Leistung sehr unterschiedlich. Datenprojekte wachsen mit der Zeit. Wir empfehlen, sich von unten heranzutasten und erst bei Bedarf mehr Leistung zu erwerben. Für eine gute Indikation empfehlen wir bei größeren Projekten einen Belastungstest als Proof-of-Concept mit Demo-Daten zur Ermittlung aufzusetzen.
Kann ich Fabric mit Apple Computern verwenden?
Microsoft Fabric ist eine SaaS (Software-as-a-Service)-Anwendung und wird im Web-Browser betrieben. Es ist damit mit jedem Betriebssystem wie beispielsweise Windows, Linux oder MacOS kompatibel. Einige Anwendungen wie z.B. Power BI haben zusätzlich Windows-Desktop-Anwendungen, die nur auf Windows-Computern installiert werden können. Die Funktionen stehen aber meistens auch in der Web-Anwendung zur Verfügung. Microsoft ist sehr aktiv dabei, alle Funktionen als SaaS-Lösung bereitzustellen.