Business Intelligence Glossar A-Z

Nachschlagewerk

Business Intelligence Glossar A-Z

Alle wichtigen Begriffe rund um Business Intelligence, Datenanalyse und datengetriebene Unternehmensführung – kompakt und verständlich erklärt.

25+ Begriffe aus der Welt der Business Intelligence – von Ad-hoc-Analyse bis Visualisierung. Jeder Eintrag mit Definition, Kontext und Praxisbezug. Dieses Glossar wird laufend erweitert.

A

Ad-hoc-Analyse

Eine spontane, einmalige Datenauswertung zur Beantwortung einer konkreten Geschäftsfrage. Im Gegensatz zu standardisierten Reports wird eine Ad-hoc-Analyse nur bei Bedarf durchgeführt – z.B. „Warum sind die Retouren in KW 12 um 40% gestiegen?“ Moderne Self-Service-BI-Tools ermöglichen es Fachanwendern, solche Analysen ohne IT-Unterstützung durchzuführen.

Augmented Analytics

Ein von Gartner geprägter Begriff für die Integration von KI und Machine Learning in BI-Tools. Augmented Analytics automatisiert Datenaufbereitung, Mustererkennung und Insight-Generierung. Beispiel: Power BI Copilot, das natürlichsprachliche Fragen in Datenvisualisierungen übersetzt. Einer der Top-Trends für 2026.

B

Business Analytics (BA)

Erweitert Business Intelligence um prädiktive und präskriptive Methoden. Während BI primär rückwärtsgewandt fragt „Was ist passiert?“, beantwortet BA die Frage „Was wird passieren?“ und „Was sollten wir tun?“. Nutzt statistische Modelle, Regressionsanalysen und Simulationen. Mehr dazu: BI vs. Business Analytics.

Business Intelligence (BI)

Oberbegriff für Technologien, Strategien und Prozesse, die Unternehmensdaten in handlungsrelevante Erkenntnisse verwandeln. Umfasst Datensammlung, ETL, Data Warehousing, Analyse und Visualisierung. Ziel: bessere Geschäftsentscheidungen auf Basis von Fakten statt Intuition. Ausführliche Definition →

C

Cloud BI

BI-Lösungen, die vollständig in der Cloud betrieben werden (Azure, AWS, Google Cloud). Vorteile: keine eigene Server-Infrastruktur, nutzungsbasierte Kosten, automatische Updates, Skalierbarkeit. Besonders für den Mittelstand attraktiv, da geringere Einstiegsinvestition.

Cube (OLAP-Cube)

Multidimensionale Datenstruktur für analytische Abfragen. Organisiert Daten entlang von Dimensionen (Zeit, Produkt, Region) und Kennzahlen (Umsatz, Menge). Ermöglicht schnelle Drill-Down-, Roll-Up- und Slice-&-Dice-Operationen. In modernen Cloud-DWH durch In-Memory-Engines oft abgelöst.

D

Dashboard

Visuelle Darstellung der wichtigsten KPIs und Kennzahlen auf einen Blick. Interaktive Dashboards erlauben Filtern, Drill-Down und Zeitvergleiche. Das Äquivalent zum Cockpit im Flugzeug – alle relevanten Informationen übersichtlich für den Entscheider. Tools: Power BI, Tableau, Qlik.

Data Governance

Gesamtheit aller Regeln, Prozesse und Verantwortlichkeiten für die Verwaltung von Unternehmensdaten. Umfasst Datenqualitätsstandards, Zugriffsrechte, Datenschutz (DSGVO), Datenklassifizierung und Data Stewardship. Unverzichtbar für verlässliche BI und regulatorische Compliance.

Data Lake

Zentraler Speicher für Rohdaten in jedem Format (strukturiert, semi-strukturiert, unstrukturiert). Günstiger als ein Data Warehouse, aber ohne Schema-Vorgaben – daher Gefahr des „Data Swamp“ ohne Governance. Ideal für Data Science und Machine Learning. Vergleich: DWH vs. Data Lake.

Data Lakehouse

Hybride Architektur, die die Flexibilität eines Data Lake mit der Performance und Governance eines Data Warehouse kombiniert. Beispiele: Databricks Delta Lake, Apache Iceberg. Trend ab 2024.

Data Mining

Automatisierte Entdeckung von Mustern, Korrelationen und Anomalien in großen Datenmengen. Nutzt statistische Verfahren, Clustering und Assoziationsanalysen. Beispiel: Warenkorbanalyse im Einzelhandel – „Kunden, die X kaufen, kaufen oft auch Y.“

Data Warehouse (DWH)

Zentrale, für analytische Abfragen optimierte Datenbank, die Daten aus verschiedenen Quellsystemen in einem konsistenten Modell zusammenführt. Speichert auch historische Daten für Trendanalysen. Das Herzstück jeder professionellen BI-Lösung. Ausführlicher Leitfaden →

Datenqualität

Maß dafür, wie gut Daten die Realität abbilden. Dimensionen: Vollständigkeit, Korrektheit, Konsistenz, Aktualität, Integrität und Konformität. Schlechte Datenqualität ist der häufigste Grund für gescheiterte BI-Projekte. Mehr zum Thema →

DAX (Data Analysis Expressions)

Formelsprache in Microsoft Power BI und Analysis Services. Ermöglicht komplexe Berechnungen, Zeitintelligenz (Year-over-Year, Running Totals) und dynamische Aggregationen. Die Beherrschung von DAX ist die Kernkompetenz für professionelle Power-BI-Entwicklung.

Dimension

Beschreibende Kategorie in einem BI-Datenmodell, über die Fakten (Kennzahlen) analysiert werden. Typische Dimensionen: Zeit, Kunde, Produkt, Region, Vertriebskanal. Dimensionen bilden die „Achsen“ der Analyse – z.B. „Umsatz pro Produkt pro Region pro Quartal.“

Drill-Down

Navigation von einer aggregierten Ansicht zu detaillierteren Daten. Beispiel: Gesamtumsatz Deutschland → Umsatz nach Bundesland → Umsatz nach Stadt → einzelne Transaktionen. Das Gegenteil ist Roll-Up (von Detail zur Aggregation).

E

ETL (Extract, Transform, Load)

Standardprozess der Datenintegration: Daten aus Quellsystemen extrahieren, bereinigen und in ein einheitliches Format transformieren, dann ins Data Warehouse laden. Variante ELT lädt zuerst roh und transformiert im Zielsystem – moderner Ansatz mit Cloud-DWH. Mehr zur BI-Architektur →

Embedded BI

Integration von BI-Funktionen direkt in andere Anwendungen (ERP, CRM, Webportale). Der Nutzer arbeitet mit Analysen, ohne ein separates BI-Tool öffnen zu müssen. Beispiele: Power BI Embedded, Tableau Embedded Analytics.

F

Fakt (Fact)

Numerischer Messwert in einem BI-Datenmodell. Fakten sind die Kennzahlen, die analysiert werden: Umsatz, Menge, Kosten, Marge, Dauer. Fakten werden in Fakt-Tabellen gespeichert und über Dimensionen aufgeschlüsselt.

K

KPI (Key Performance Indicator)

Strategisch relevante Kennzahl, die den Fortschritt bei der Erreichung eines Geschäftsziels misst. Nicht jede Metrik ist ein KPI – nur die handlungsrelevanten. Sollte SMART definiert sein: spezifisch, messbar, erreichbar, relevant, terminiert. KPIs definieren →

M

Master Data Management (MDM)

Prozesse und Technologien zur Sicherstellung einer einheitlichen, konsistenten und aktuellen Verwaltung von Stammdaten (Kunden, Produkte, Lieferanten, Mitarbeiter). Ohne MDM entstehen Dubletten und widersprüchliche Daten – Gift für jede BI-Lösung.

O

OLAP (Online Analytical Processing)

Technologie für multidimensionale Datenanalysen in Echtzeit. Ermöglicht Drill-Down, Roll-Up, Slice und Dice über beliebige Dimensionen. MOLAP (Multidimensional), ROLAP (Relational) und HOLAP (Hybrid) sind die drei Varianten. In modernen Cloud-Systemen oft durch In-Memory-Engines ersetzt.

P

Predictive Analytics

Einsatz statistischer Modelle und Machine Learning zur Vorhersage zukünftiger Ereignisse. Beispiele: Absatzprognose, Kundenabwanderungsvorhersage (Churn Prediction), Preisoptimierung. Baut auf historischen Daten auf und erfordert saubere Datenbasis.

R

ROI (Return on Investment)

Kennzahl für die Wirtschaftlichkeit einer Investition. Im BI-Kontext: Verhältnis von Einsparungen und Mehrerlösen durch BI zu den Gesamtkosten. Durchschnittlicher BI-ROI laut Nucleus Research: 1.300%. BI-ROI berechnen →

S

Self-Service BI

BI-Ansatz, bei dem Fachanwender eigenständig Analysen durchführen und Dashboards erstellen – ohne Programmier- oder SQL-Kenntnisse. Erfordert saubere Datenmodelle, Governance-Regeln und Schulung. Ausführlicher Leitfaden →

Star Schema

Standardmäßiges Datenmodell für Data Warehouses. Eine zentrale Fakt-Tabelle (z.B. Verkäufe) ist über Fremdschlüssel mit denormalisierten Dimensionstabellen (Zeit, Kunde, Produkt) verbunden – grafisch ergibt das eine Sternform. Einfach, performant und der empfohlene Ansatz für BI.

V

Visualisierung

Grafische Darstellung von Daten und Analyseergebnissen: Balken-, Linien-, Kreisdiagramme, Maps, Heatmaps, Treemaps, Scatter Plots. Gute Visualisierung macht komplexe Daten auf einen Blick verständlich und ist der Schlüssel zur Akzeptanz von BI im Unternehmen.

Augmented Analytics

Augmented Analytics nutzt Machine Learning und KI, um Datenaufbereitung, Insight-Erkennung und -Erklärung zu automatisieren. Statt manueller Analyse schlägt das System automatisch Muster, Anomalien und Handlungsempfehlungen vor. → Augmented Analytics im Detail

Change Data Capture (CDC)

Technik zur Erfassung von Datenänderungen in Quellsystemen in nahezu Echtzeit. Statt eines kompletten Datenabzugs werden nur INSERT/UPDATE/DELETE-Operationen erfasst. Grundlage für Echtzeit-BI und effiziente Data Pipelines.

Columnar Database (Spaltenbasierte Datenbank)

Datenbanken, die Daten spaltenweise statt zeilenweise speichern. Ideal für analytische Abfragen (OLAP), da nur die benötigten Spalten gelesen werden. Beispiele: Snowflake, BigQuery, ClickHouse. 10-100× schneller für Aggregationen als zeilenbasierte Systeme.

Copilot (Microsoft)

KI-Assistent in Power BI, der natürlichsprachige Abfragen in DAX/Visualisierungen übersetzt, automatische Narratives erstellt und Reports per Sprachbefehl generiert. Benötigt Microsoft Fabric Capacity. → GenAI in BI

Data Mesh

Dezentraler Architekturansatz, bei dem die Verantwortung für Datenprodukte bei den Fachbereichen (Domains) liegt, nicht bei einem zentralen Data Team. Vier Prinzipien: Domain Ownership, Data as a Product, Self-Serve Platform, Federated Governance.

Data Pipeline

Automatisierte Kette aller Schritte, die Rohdaten in analysierbare Informationen verwandeln: Ingestion → Staging → Transformation → Serving → Consumption. → Data Pipeline aufbauen

dbt (Data Build Tool)

Open-Source-Tool für SQL-basierte Datentransformationen im Data Warehouse. Bringt Software-Engineering-Praktiken (Git, Tests, Dokumentation) in die Datenmodellierung. Standard im Modern Data Stack. → dbt im Detail

Descriptive Analytics

Erste Stufe der Datenanalyse: „Was ist passiert?“ Vergangenheitsdaten aufbereiten und visualisieren (Dashboards, Standard-Reports). 80% aller BI-Nutzung findet auf dieser Stufe statt. → 4 Arten der Datenanalyse

Diagnostic Analytics

Zweite Stufe: „Warum ist es passiert?“ Ursachenforschung durch Drill-Down, Korrelationsanalyse und Ausreißer-Erkennung. → 4 Arten der Datenanalyse

Hub-and-Spoke-Modell

Empfohlenes Organisationsmodell für BI-Teams: Zentrales Team (Hub) für Infrastruktur, Governance und Standards. Dezentrale Analysten in den Fachbereichen (Spokes). Vereint Standardisierung mit Business-Nähe. → BI-Team aufbauen

Modern Data Stack

Architekturansatz bestehend aus Cloud-basierten, spezialisierten Tools: Managed Ingestion (Fivetran/Airbyte) + Cloud DWH (Snowflake/BigQuery) + dbt (Transformation) + BI-Tool (Power BI/Looker). → Data Pipeline

OEE (Overall Equipment Effectiveness)

Königs-KPI der Produktion: Verfügbarkeit × Leistung × Qualität. Misst die Gesamtanlageneffektivität. Weltklasse: >85%, Durchschnitt: ~60%. → BI in der Produktion

OLAP (Online Analytical Processing)

Technologie für schnelle, mehrdimensionale Analyse großer Datenmengen. Im Gegensatz zu OLTP (Transaktionssysteme) optimiert für SELECT-Abfragen über Millionen Zeilen. Basis für Data Warehouses. → OLAP vs. OLTP

People Analytics

Datenbasierte Analyse von HR-Daten: Fluktationsanalyse, Recruiting-Optimierung, Vergütungsanalyse, Workforce Planning. Unterliegt besonderen DSGVO-Anforderungen und Mitbestimmungspflicht. → BI im Personalwesen

Prescriptive Analytics

Höchste Stufe der Datenanalyse: „Was sollen wir tun?“ Optimierungsalgorithmen, Simulation und What-If-Szenarien empfehlen konkrete Handlungen. → 4 Arten der Datenanalyse

Slowly Changing Dimension (SCD)

Konzept der Datenmodellierung für Dimensionen, die sich über die Zeit ändern (z.B. Kundenadresse). SCD Type 1 = überschreiben, Type 2 = historisieren (neue Zeile mit Gültigkeitszeitraum), Type 3 = vorheriger Wert in extra Spalte.

Star Schema

Standard-Datenmodell für BI: Zentrale Fakt-Tabelle (messbare Geschäftsvorfälle) umgeben von denormalisierten Dimensions-Tabellen (Wer, Was, Wann, Wo). Wenige Joins = schnelle Queries. → Datenmodellierung

Surrogate Key

Künstlicher Integer-Schlüssel im Data Warehouse, der den natürlichen Business-Key (z.B. Kundennummer) ergänzt. Vorteile: Performance (Integer statt VARCHAR), Unabhängigkeit von Quellsystem-Änderungen. → Datenmodellierung

Begriff nicht gefunden?

Dieses Glossar wird laufend erweitert. Fehlt ein Begriff? Kontaktieren Sie mich – ich nehme ihn gerne auf.

Begriff vorschlagen →

Weiterführende Artikel

📖

Was ist Business Intelligence?

Der umfassende Grundlagen-Leitfaden.

🏗️

BI-Technologie & Architektur

Data Warehouse, ETL, Cloud im Detail.

🛠️

BI-Tools Vergleich

Power BI, Tableau, Qlik & mehr.

Controlling-KPIs

Die wichtigsten Kennzahlen für Controlling-Dashboards – von Rentabilität über Liquidität bis Effizienz.

Break-Even-Point (Gewinnschwelle)
Der Punkt, an dem Umsatz und Gesamtkosten gleich hoch sind – ab hier wird Gewinn erzielt. Berechnung: Fixkosten ÷ Deckungsbeitrag pro Stück. Essenziell für Preiskalkulation, Produktplanung und Investitionsentscheidungen. Im Controlling-Dashboard zeigt der Break-Even den Mindest-Umsatz, den ein Produkt oder Geschäftsbereich erreichen muss.
Budgetabweichung (Budget Variance)
Die Differenz zwischen Plan- und Ist-Werten – absolut oder prozentual. Positive Abweichung = besser als geplant, negative = schlechter. Wird typischerweise monatlich oder quartalsweise ausgewertet. Im Controlling-Dashboard die zentrale Steuerungsgröße für Kostenkontrolle und Forecast-Qualität. Formel: (Ist-Wert − Plan-Wert) ÷ Plan-Wert × 100.
Cash Conversion Cycle (CCC)
Misst die Anzahl der Tage, die ein Unternehmen benötigt, um investiertes Kapital (Materialien, Produktion) in Cash aus Verkäufen umzuwandeln. Formel: DSO + DIO − DPO (Debitorenlaufzeit + Lagerdauer − Kreditorenlaufzeit). Je kürzer der Zyklus, desto effizienter das Working Capital Management. Negativer CCC bedeutet: Das Unternehmen wird von Kunden bezahlt, bevor es Lieferanten bezahlen muss.
Debitorenlaufzeit (Days Sales Outstanding / DSO)
Durchschnittliche Anzahl der Tage, bis offene Kundenrechnungen bezahlt werden. Formel: (Forderungen ÷ Umsatz) × 365. Branchenüblich sind 30–45 Tage. Steigende DSO-Werte deuten auf Zahlungsprobleme bei Kunden oder ineffizientes Mahnwesen hin. Kernkennzahl für Liquiditätssteuerung und Forderungsmanagement.
Deckungsbeitrag (Contribution Margin)
Der Betrag, der nach Abzug der variablen Kosten vom Umsatz zur Deckung der Fixkosten und Gewinnerzielung verbleibt. Deckungsbeitrag I = Umsatz − variable Kosten. Deckungsbeitrag II berücksichtigt zusätzlich produktfixe Kosten. Zentrale Kennzahl für Produktportfolio-Entscheidungen, Preisuntergrenzen und Make-or-Buy-Analysen. Im Dashboard oft als DB-Marge (DB ÷ Umsatz × 100) dargestellt.
EBITDA
Earnings Before Interest, Taxes, Depreciation and Amortization – Ergebnis vor Zinsen, Steuern und Abschreibungen. Zeigt die operative Ertragskraft eines Unternehmens unabhängig von Finanzierungsstruktur und Bilanzpolitik. Die EBITDA-Marge (EBITDA ÷ Umsatz × 100) ist die wichtigste Vergleichskennzahl zwischen Unternehmen und Branchen. Standard-KPI in jedem Controlling-Dashboard auf Geschäftsführungsebene.
Eigenkapitalrendite (Return on Equity / ROE)
Misst, wie effizient das eingesetzte Eigenkapital zur Gewinnerzielung genutzt wird. Formel: Jahresüberschuss ÷ Eigenkapital × 100. Eine ROE über dem risikofreien Zinssatz plus Risikoprämie signalisiert Wertschöpfung für die Eigentümer. Wichtig für Investorenberichte und Shareholder-Value-Steuerung. Typische Zielwerte: 10–20% je nach Branche.
Kreditorenlaufzeit (Days Payable Outstanding / DPO)
Durchschnittliche Anzahl der Tage, bis ein Unternehmen seine Lieferantenrechnungen bezahlt. Formel: (Verbindlichkeiten aus L&L ÷ Wareneinsatz) × 365. Lange DPO verbessert die eigene Liquidität, kann aber Lieferantenbeziehungen belasten. Im Working-Capital-Dashboard immer zusammen mit DSO und Lagerreichweite betrachtet.
Lagerumschlagshäufigkeit (Inventory Turnover)
Zeigt, wie oft der gesamte Lagerbestand innerhalb eines Zeitraums verkauft und ersetzt wird. Formel: Wareneinsatz ÷ Ø Lagerbestand. Hoher Umschlag = effiziente Lagerhaltung und wenig gebundenes Kapital. Niedriger Umschlag kann auf Überbestände, veraltete Ware oder schwache Nachfrage hindeuten. Branchenabhängig: Lebensmittel >20×, Maschinenbau 3–5×.
Liquiditätsgrade (Current Ratio / Quick Ratio)
Messen die Fähigkeit eines Unternehmens, kurzfristige Verbindlichkeiten zu bedienen. Liquidität 1. Grades (Cash Ratio): Flüssige Mittel ÷ kurzfristige Verbindlichkeiten. Liquidität 2. Grades (Quick Ratio): (Flüssige Mittel + Forderungen) ÷ kurzfristige Verbindlichkeiten – Zielwert >100%. Liquidität 3. Grades (Current Ratio): Umlaufvermögen ÷ kurzfristige Verbindlichkeiten – Zielwert >120%. Frühwarnsystem für Zahlungsunfähigkeit.
Operativer Cashflow (Operating Cash Flow / OCF)
Zeigt, wie viel liquide Mittel das Kerngeschäft generiert – ohne Finanzierungs- und Investitionsaktivitäten. Der „Herzschlag“ eines Unternehmens. Positiver OCF bedeutet: Das Geschäftsmodell trägt sich selbst. Im Controlling-Dashboard oft als Wasserfalldiagramm (Cash-Zuflüsse vs. -Abflüsse) visualisiert. Basis für Kapitaldienstfähigkeit, Investitionsspielraum und Dividendenpolitik.
Umsatzrendite (Return on Sales / ROS)
Anteil des Gewinns am Umsatz – zeigt, wie viel von jedem Euro Umsatz als Gewinn übrig bleibt. Formel: Betriebsergebnis ÷ Umsatz × 100. Varianten: Brutto-Umsatzrendite (vor Steuern) und Netto-Umsatzrendite (nach Steuern). Branchenabhängig: Software 20–30%, Handel 2–5%, Industrie 5–15%. Im Dashboard als Trendlinie über Monate/Quartale besonders aussagekräftig.
Working Capital (Netto-Umlaufvermögen)
Differenz zwischen Umlaufvermögen und kurzfristigen Verbindlichkeiten. Zeigt, wie viel Kapital im operativen Geschäft gebunden ist (Vorräte, Forderungen minus Verbindlichkeiten). Zu hohes Working Capital = Kapital ist unnötig gebunden. Zu niedriges = Liquiditätsrisiko. Ziel im Controlling: Working Capital Ratio (WC ÷ Umsatz) kontinuierlich optimieren. Wichtige Stellschrauben: Lagerbestände reduzieren, Forderungen schneller einziehen, Zahlungsziele bei Lieferanten nutzen.
Nach oben scrollen