Business Intelligence Software

Die richtige Business Intelligence Software für die eigenen Anforderungen zu finden, zu implementieren und zu nutzen hat eine längerfristige Auswirkung auf Ihren Unternehmensalltag. Da das Datenaufkommen im Unternehmensumfeld eher steigt als fällt, wird es umso wichtiger sich auf die relevanten Daten zu fokussieren und moderne Werkzeuge zu nutzen.

Business Intelligence Tools unterstützen häufig die Eckpunkte mit folgende Anforderungen:

Datenkorrelation

  • Benchmarking
  • Ad-hoc-Berichte
  • Rentabilitätsanalyse
  • Leistungskennzahlen (KPI’s)

Datenvisualisierung

  • Dashboard
  • Visuelle Analytik
  • Prädiktive Analytik
  • Strategische Planung

Datenbewirtschaftung

  • Trend- / Problemindikatoren
  • Veröffentlichung / Teilen
  • Wertungslisten

Business Intelligence Softwareanbieter

Data Warehouse (DWH)

In einer idealen Welt ist die Lücke zwischen Theorie und Praxis nicht groß oder zumindest nicht von großer Auswirkung auf den Lebenszyklus eines Projekts. In der realen Welt weiß man jedoch, dass das nicht stimmt, schon gar nicht bei der Arbeit mit Daten. Die Datenspeicherung (vor allem Langzeitspeicherung), kann unordentlich werden und zu unsauberen Datentabellen führen, die irgendwann verarbeitet und für eine bessere und effizientere Analyse in Ordnung gebracht werden müssen, daher die Notwendigkeit von ETL-Pipelines.

Die theoretischen Faustregeln, die in diesem Beitrag erläutert werden, können in Verbindung mit kleineren (oder größeren) Anpassungen aufgrund von Dateninkonsistenzen zu sehr sauberen und nützlichen Data Warehouses (DWH) führen, die für ein Unternehmen von großem Wert sein können. Die Dateninkonsistenzen können recht umfangreich sein, da die meisten von ihnen auf menschliche Fehler zurückzuführen sind.

So kreativ die Menschen bei den von ihnen begangenen Fehlern auch sein mögen, die Arten von Problemen, mit denen man bei der Durchführung von ETL konfrontiert wird, sind recht häufig die gleichen.

Es gibt drei Hauptschritte, die jede ETL-Pipeline durchläuft:

  1. Datenanalyse
    eine gründliche Analyse des IST-Zustandes mit dem Ziel, zu verstehen, welche Transformationen durchgeführt werden müssen.
  2. Modelldefinition
    die Definition der Tabellen und der Beziehungen zwischen ihnen.
  3. ETL-Implementierung
    die eigentliche Implementierung des Datenmodells, das mit Daten aus verschiedenen Datenquellen gefüttert wird und das entworfene Datenmodell erzeugt.

Analyse der Daten

Die Bedeutung dieses Schrittes ist zweifach:

1. Geschäftsbedürfnisse

Verständnis der Informationen, die aus dem Meer der Datenquellen für das zu implementierende Data Warehouse gewonnen werden müssen, unter der Leitung der Geschäftseinheit.
Ein Data Warehouse kann auf vielen verschiedenen Datenquellen basieren, die zusammengefügt werden, oder auf nur einer Datenquelle, aber mit nur einer Teilmenge der darin enthaltenen Tabellen. Es kann zwei Szenarien für den Geschäftsbedarf geben:

  • eines, bei dem sie genau wissen, welche Art von Analyse sie anschließend mit dem Data Warehouse durchführen wollen,
  • und eines, bei dem sie keine konkrete/ spezifische Vorstellung haben.

So oder so besteht die Aufgabe in diesem Schritt darin, zu verstehen, welche Tabellen für den Entwurf des Datenmodells verwendet werden sollen, und genauer gesagt, welche Attribute dieser Tabellen nützlich sind.

Die goldene Regel ist, ein DWH zu entwerfen, das die Anforderungen erfüllt – sofern sie existieren – und dabei Raum für mögliche zukünftige Erweiterungen dieser Anforderungen zu lassen.

Falls keine spezifischen Anforderungen definiert sind, kann eine Lösung darin bestehen, die gängigsten Analyseszenarien für die betreffenden Daten zu identifizieren und dann die Daten für diese Szenarien vorzubereiten. Der letztere Fall ist allerdings eher selten, da ein Unternehmen kaum in etwas investiert, das keine kurz- oder mittelfristigen Einnahmen in Aussicht stellt.

2. Datenqualität

Verstehen und bewerten des aktuellen Zustands der Datenquellen, die verwendet werden sollen.
Sobald die gewünschten Tabellen identifiziert sind, ist es an der Zeit, in die Tiefe zu gehen: die Analyse dieser Tabellen und ihrer Attribute. In der Praxis bedeutet dies, dass für jede Tabelle die Attribute betrachtet werden müssen. Es könnte Tabellen mit über 200 Attributen geben, aber nicht alle davon sind nützlich und nicht alle sind mit Werten gefüllt.

Die erste Prüfung, die durchgeführt werden muss, ist die Suche nach fehlenden Werten und wie viele fehlende Daten es gibt. Ein Attribut, das, sagen wir, zu 90-95% NULL ist, kann kaum für die Analyse oder eine Berichtsvisualisierung verwendet werden, also kann es verworfen werden. Bei Datensammlungen über viele Jahre kann es zu Inkonsistenzen in der Grundgesamtheit der Tabelle kommen.

Eine weitere Quelle für Inkonsistenzen in den Daten kann entstehen, wenn dieselbe Tabelle aus mehr als einer Quelle gespeist wird. Für diese Art von Problemen ist es wichtig, die Logik hinter den Inkonsistenzen zu verstehen und zu sehen, ob sie behoben werden können.
Die Lösungen hängen von der Analyse ab:
alte Daten können für das DWH verworfen werden, wenn sie nicht mehr relevant sind, oder, wenn möglich, kann eine Transformation angewendet werden, um eine Vereinheitlichung der Daten zu erreichen.

Am Ende dieses Schrittes, also nach der Datenbereinigung und den Geschäftsanforderungen, hat man einen Pool, wenn man mit einem Meer von Daten begonnen hat.

Modelldefinition

Die Modelldefinition lässt sich auf die Aufteilung der Tabellen in Dimensionen und Faktentabellen sowie die Einrichtung der Beziehungen zwischen diesen Tabellen darlegen. Der Königsweg liegt hier zwischen den Anforderungen und datengestützter Möglichkeit, diese zu erfüllen. In der Praxis kommt es hier im Lauf der Zeit zu Anpassungen, so dass es sinnvoll ist, von Anfang an Möglichkeiten der Erweiterung zu berücksichtigen.

Dimensionen

Bei den Dimensionen (vergleichbar mit einer Spalte in Excel) ist zu beachten, ob es sich um eine „Slowly Changing Dimension“ (SCD) handelt und welcher Typ von SCD am besten zu Ihren Anforderungen passt. SCD vom Typ 2 ist der häufigste.
Beispielsweise können Filialleiter unterjährig wechseln, so dass für eine wirkliche Vergleichbarkeit der Daten diese Ausprägung berücksichtigt werden muss.

Fakten

Ein wichtiger Aspekt ist, dass die für die weitere Analyse und Definition von KPIs bereits das Datenmodell auf der niedrigsten Granularitätsebene implementiert wird so dass Raum für jede Art von Aggregation bleibt.
Visualisierungstools können die Möglichkeiten der Datentransformation einschränken oder sehr erschweren, so dass das Vorantreiben dieser Berechnung auf der Ebene der DWH-Implementierung eine große Erleichterung darstellt und auch die Implementierung zukünftiger visueller Analysen vereinfacht.

Beziehungen

Die Unterscheidung der beiden Kategorien Dimensionen und Fakten ist ziemlich einfach, aber was knifflig werden kann, ist das Einrichten der Beziehungen, wobei eines der Hauptprobleme auftritt, wenn mehrere Faktentabellen vorhanden sind, was recht häufig vorkommen kann, und diese Faktentabellen miteinander sowie Dimensionen sprechen müssen. Die Grundregel ist, dass Beziehungen zwischen zwei Faktentabellen zu vermeiden sind und man sich immer an das Sternschema halten sollte, was zu einem Data Warehouse mit mehr als einem Sternschema führen kann.

Namenskonventionen

Wählen Sie eine sprechende Namenskonvention und halten Sie sich daran. Ob Deutsch oder Englisch ist Geschmacksache.

Staging-Bereich / Temporärer Zwischenspeicher zum Datenabruf

Ziehen Sie eine Replikationsschicht für Ihre Quelldatentabellen in Betracht. Beispielsweise kann es sinnvoll sein eine Produktivdatenbank in einer zweiten Datenbank zu spiegeln, damit der Datenabruf nicht gegebenenfalls den Produktivbetrieb ausbremst.
Andererseits wissen ohne Replikationsschicht nach 5 Minuten ganze Abteilungen daß der Berater wieder im Haus ist, auch eine Facette die neue Möglichkeiten eröffnet. 

Indizierung und Partitionierung

Für eine bessere (d.h. schnellere) Effizienz der Abfragen, basierend auf der Größe der zu erstellenden Tabellen, kann eine Partitionierung (chunks)in Betracht gezogen und gegebenenfalls implementiert werden. Auch die Wahl der richtigen Indizierung kann einen großen Einfluss auf die Abfrageleistung haben. Grundsätzlich machen sie mit einem aufsteigenden Index nichts falsch.

Technische / Verwaltungs- Attribute

Obwohl das Hinzufügen und Pflegen dieser Attribute mühsam sein kann, kann es für die Zukunft hilfreich sein, Zusatzinformationen wie z. B.

  • Zeitstempel des Einfügens
  • Aktualisierens von Datensätzen
  • Ursache für die Aktualisierung
  • Funktion des Attributs

festzuhalten.

Aktualisierungshäufigkeit

Abhängig von der Notwendigkeit der Analyse kann die Planung der DWH-Aktualisierung periodisch täglich, einigen Tagen pro Woche, oder auch Triggergesteuert variieren. Die Zeit, die für eine Aktualisierung benötigt wird, kann einen Einfluss darauf haben und muss daher bei der Planung der Aktualisierungen berücksichtigt werden.

Erweiterbarkeit

Machen Sie das Modell leicht erweiterbar, anpassbar an Veränderungen, das ist die Praxis. Immer.

Die ETL-Implementierung

Das letzte Puzzlestück: die eigentliche Implementierung der Einzelkomponenten und Befüllung des Modells mit Daten. Gerne gesagt: Jetzt kommt Fleisch an die Knochen.

Wenn sie die beiden vorangegangenen Schritte gründlich durchgeführt wurden, fällt dieser Schritt recht leicht und Sie werden trotzdem mit kleinen Überraschungen konfrontiert, die Sie in den vorangegangenen Analyseschritten vielleicht übersehen haben.

Das Werkzeug, das für die ETL-Implementierung verwendet wird, hat den größten Einfluss auf die Menschenkinder, die das entworfene Modell umsetzen und pflegen, weniger auf das Endprodukt.
Heutzutage gibt es eine Vielzahl von Tools, die diese Aufgabe erfüllen, aber die Wahl der ETL-Implementierungssoftware hängt stark von verschiedenen Faktoren ab, wie z. B. von anderer Software (Schnittstellen), Plattformen (Softwarebündel) und Programmiersprachen, die das Unternehmen verwendet, dem vorhandenen Budget für das Projekt und weiterer Faktoren.

Unabhängig von dem Tool, das zum Aufbau der Pipeline verwendet wird, ist der wichtigste Schritt das Testen auf technische und inhaltliche Korrektheit. Wenn alles implementiert wurde, wird die Korrektheit des gesamten Prozesses durch die Durchführung von Tests überprüft. Jede Tabelle muss geprüft werden und es muss auf alle Attribute jeder Tabelle geachtet werden, damit das Endergebnis korrekt ist und mit den ursprünglichen Anforderungen übereinstimmt.
Die Erstellung eines Schemas mit erschöpfenden Testfällen (Einfügen, Aktualisieren oder Löschen von Datensätzen sind die grundlegenden) kann entmutigend erscheinen, aber es ist der beste Weg, um die Gültigkeit Ihres Modells sicherzustellen. Das intensive Testen durch den zukünftigen Endnutzer ist auch ein praxistauglicher Weg, kann je nach Grad der Einbindung allerdings die Akzeptanz erhöhen, oder die Skepsis ausbauen.

Zu guter letzt

Das Design und die Entwicklung eines Data Warehouse ist genau genommen ein ziemlich mechanischer Prozess. Die Beteiligung der Endnutzer (in verschiedene kaufmännische Aspekte) ist es, die die Analyse vorantreibt und die Analyse ist es, die den Rest des Prozesses vorantreibt.
Das Design und die Implementierung des Modells sind eine Ansammlung von Anforderungen, die evaluiert und bei Bedarf implementiert werden müssen. Ein gut entworfenes Modell kann die zukünftige Datenanalyse und die Entwicklung von Dashboards zu einer sehr einfachen und dankbaren Aufgabe machen.

Beste Open-Source ETL Tools für die Datenintegration

Die Suche nach ETL- und Datenintegrationssoftware kann ein entmutigender (und teurer) Prozess sein, ein Prozess, der lange Stunden der Recherche und tiefe Taschen erfordert. Die beliebtesten Tools für die Verwaltung von Unternehmensdaten bieten oft mehr als das, was für Nicht-Unternehmensorganisationen notwendig ist, mit erweiterten Funktionen, die nur für die technisch versiertesten Benutzer relevant sind. Glücklicherweise gibt es eine Reihe freier und quelloffener ETL-Tools. Einige dieser Lösungen werden von Anbietern angeboten, die Ihnen schließlich ihr Unternehmensprodukt verkaufen wollen, und andere werden von einer Gemeinschaft von Entwicklern gewartet und betrieben, die den Prozess demokratisieren wollen.

In diesem Artikel zeige ich freie und quelloffene ETL-Tools, indem wir zunächst einen kurzen Überblick darüber geben, was zu erwarten ist, und auch mit kurzen Unschärfen über jede der derzeit verfügbaren Optionen im Raum. Dies ist das vollständigste und aktuellste Verzeichnis im Internet.Apache Airflow ist eine pythonbasierte Plattform, die es ermöglicht Datenverarbeitungsschritte programmatisch zu erstellen, zu planen und zu überwachen. Das Tool ermöglicht es Benutzern, Workflows als gerichtete azyklische Graphen (DAGs) zu erstellen. Airflow führt Aufgaben für eine Reihe von Arbeitern aus, wobei er die angegebenen Abhängigkeiten beachtet. Airflow bietet umfangreiche Befehlszeilen-Dienstprogramme, die die Durchführung komplexer Operationen an DAGs einfach machen. Die Benutzeroberfläche bietet auch Funktionen, mit denen Benutzer Pipelines, die in Produktion sind, visualisieren, den Fortschritt überwachen und bei Bedarf Probleme beheben können.

Zum Download
Betriebssysteme: Webbasiert

Apache Kafka ist eine javabasierte Streaming-Plattform, die es Anwendern ermöglicht, Datenströme in beide Richtungen zu streamen, das heißt zu veröffentlichen und zu abonnieren, Datenströme zu speichern und sie bei ihrem Auftreten zu verarbeiten. Kafka wird vor allem für den Aufbau von Echtzeit-Streaming-Datenpipelines und -Anwendungen verwendet und wird als Cluster auf einem oder mehreren Servern ausgeführt, die sich über mehrere Rechenzentren erstrecken können. Der Kafka-Cluster speichert Ströme von Datensätzen in Kategorien, die als Themen bezeichnet werden, und jeder Datensatz besteht aus einem Schlüssel, einem Wert und einem Zeitstempel.

Zum Download
Betriebssysteme: Webbasiert

Apache NiFi ist ein javabasiertes System zur Verarbeitung und Verteilung von Daten und bietet gerichtete Graphen der Datenweiterleitung, Transformation und Systemvermittlungslogik. NiFi verfügt über eine webbasierte Benutzeroberfläche, mit der Benutzer zwischen Design, Steuerung, Feedback und Überwachung umschalten können. Es ist in hohem Maße konfigurierbar (dynamische Priorisierung, Gegendruck, Strömungsmodifikation zur Laufzeit) und kann für Erweiterungen ausgelegt werden. NiFi bietet auch Multi-Tenant-Autorisierung sowie interne Autorisierung und Richtlinienverwaltung.

Zum Download
Betriebssysteme: Webbasiert

Apatar ist ein kostenloses und quelloffenes Softwarepaket zur Datenintegration, das Geschäftsanwendern und Entwicklern dabei helfen soll, Daten in und aus einer Vielzahl von Datenquellen und -formaten zu verschieben. Das Tool erfordert weder Programmierung noch Design, um selbst komplexe Integration mit Joins über mehrere Datenquellen hinweg zu bewerkstelligen. Apatar bietet eine visuelle Schnittstelle, um die Auswirkungen von Systemänderungen zu minimieren. Das Tool wird mit einem vorgefertigten Satz von Integrationswerkzeugen geliefert und ermöglicht es den Benutzern, auch bereits erstellte Mapping-Schemata wiederzuverwenden.

Zum Download
Betriebssysteme: Linux, Windows

CloverETL (jetzt CloverDX) war eines der ersten Open-Source-ETL-Werkzeuge. Das Java-basierte Datenintegrations-Framework wurde entwickelt, um Daten in verschiedenen Formaten zu transformieren, abzubilden und zu manipulieren. CloverETL kann eigenständig oder eingebettet verwendet werden und verbindet sich mit RDBMS, JMS, SOAP, LDAP, S3, HTTP, FTP, ZIP und TAR. Obwohl das Produkt vom Anbieter nicht mehr angeboten wird, kann es mit SourceForge sicher heruntergeladen werden. CloverDX unterstützt auch weiterhin CloverETL gemäß ihrer Standard-Support-Vereinbarung.

Zum Download
Betriebssysteme: Linux, Mac, Windows

Jaspersoft ETL ist javabasiert und Teil des Open-Source-Produktportfolios Community Edition von TIBCO, mit dem Benutzer Daten aus verschiedenen Quellen extrahieren, die Daten auf der Grundlage definierter Geschäftsregeln transformieren und in ein zentrales Data Warehouse für die Berichterstellung und Analyse laden können. Die Datenintegrationsmaschine des Tools wird von Talend betrieben. Die Community Edition bietet eine grafische Entwurfsumgebung, mehr als 500 Konnektoren und Komponenten sowie eine Job-Versionierung.

Zum Download
Betriebssysteme: Linux, Mac, Windows

KETL ist eine produktionsreife javabasierte ETL-Plattform, die die Entwicklung und Bereitstellung von Datenintegrationsbemühungen unterstützen soll, die ETL und Terminplanung erfordern. Es ermöglicht die Verwaltung komplexer Datenmanipulationen unter Nutzung einer Open-Source-Datenintegrationsplattform. Die KETL-Engine besteht aus einem Multi-Threading-Server, der verschiedene Auftragsausführer verwaltet. Jeder Ausführer führt eine bestimmte Funktion aus, und Auftragsausführer fallen in die Kategorien SQL, OS, XML, Sessionizer und Empty.

Zum Download
Betriebssysteme: Linux, Mac, Windows

Pentaho Kettle ist ein freies ETL Communityprojekt (Teil der Hitachi Vantara Community) das von Penthao finanziell unterstützt wird. Das Tool bietet eine grafische Drag-and-Drop-Designumgebung und eine auf Standards basierende Architektur, die metadatengesteuert wird. Mit Pentaho können Benutzer ihre eigenen Datenmanipulationsaufträge erstellen, ohne eine einzige Codezeile eingeben zu müssen. Es verwendet ein gemeinsames, gemeinsam genutztes Repository, das auch eine entfernte ETL-Ausführung ermöglicht. Hitachi Vantara bietet auch Open-Source-Business-Intelligence-Tools für Reporting und Data Mining an.

Zum Download
Betriebssysteme: Linux, Mac, Windows

Der BI-Hersteller Talend bietet mit Open Studio for Data Integration und OPEN STUDIO FOR BIG DATA kostenlose und quelloffene ETL-Tools an. Es bietet Anwendern eine grafische Designumgebung, ETL- und ELT-Unterstützung, Versionierung und ermöglicht den Export und die Ausführung von eigenständigen Jobs in Laufzeitumgebungen. Die Software bietet eine Vielzahl von Integrationsmöglichkeiten für RDBMS, SaaS, gebündelte Anwendungen und Technologien wie Dropbox, Box, SMTP, FTP/SFTP, LDAP und mehr.

Weiter bietet Talend auch freie Softwaretools für Datenaufbereitung und Datenqualität an.

Zum Download
Betriebssysteme: Windows, Mac

Scriptella ist ein in Java geschriebenes Open-Source-ETL- und Skriptausführungswerkzeug. Die Software ist unter Apache lizenziert. Scriptella wird in der Regel für die Ausführung von in SQL, JavaScript, JEXL und Velocity geschriebenen Skripts sowie für Datenbankmigrationen, datenbankübergreifende ETL-Operationen und automatisierte Datenbankschema-Upgrades verwendet. Zu den bemerkenswerten Merkmalen gehören eine einfache XML-Syntax für Skripte, die Fähigkeit, mit mehreren Datenquellen in einer einzigen Datei zu arbeiten, und die transaktionale Ausführung.

Zum Download
Betriebssysteme: Linux, Mac, Windows

GeoKettle ist ein Metadaten-gesteuertes räumliches ETL-Werkzeug zur Integration verschiedener Geodatenquellen für den Aufbau und die Aktualisierung von Geodaten-Warehouses. Es handelt sich um eine raumgestützte Version des Pentaho-Kessels. GeoKettle profitiert auch von georäumlichen Fähigkeiten aus ausgereiften Open-Source-Bibliotheken wie JTS, GeoTools und deegree. Das Tool bietet auch einen kartografischen Viewer zur Vorschau Ihrer Transformationen, einschließlich Tools zur Kartenanpassung und grundlegende kartografische Funktionen.

Zum Download
Betriebssysteme: Linux, Mac, Windows

HPCC Systems ist eine Open-Source-Plattform mit einer Software-Architektur, die auf Commodity Shared-Nothing-Computerclustern implementiert ist und auf C++ basiert. Es ist so konfigurierbar, dass es sowohl parallele Batch-Datenverarbeitung als auch hochleistungsfähige Datenlieferungsanwendungen mit indizierten Datendateien unterstützt. Die ETL-Engine von HPCC heißt Thor und verwendet eine ECL-Skriptsprache, die speziell für die Arbeit mit großen Datenmengen entwickelt wurde.

Zum Download
Betriebssysteme: Linux, Mac, Windows

Abwanderungsquote

Was bedeutet Abwanderungsquote?

Die Fluktuationsrate wird als Prozentsatz der Mitarbeiter gemessen, die ein Unternehmen aus irgendeinem Grund über einen bestimmten Zeitraum verlassen haben. Diese periodische Maßnahme bestimmt, wie erfolgreich ein Unternehmen seine Mitarbeiter bindet.

Warum ist sie von Bedeutung?

Die Fluktuationsrate Ihres Unternehmens ist aus mehreren Gründen wichtig, auch wenn sie Ihnen zu bestimmten Zeitpunkten unterschiedliche Dinge sagen kann. Die Fluktuationsrate Ihres Unternehmens zu verstehen, ist ein wichtiger Teil, um die Zufriedenheit der Mitarbeiter zu verstehen, sowie ein erster Einblick in die möglichen Ursachen für die Fluktuation in Ihrem Unternehmen.Wenn es Ihrem Unternehmen gut geht, kann eine hohe Fluktuationsrate ein Indikator dafür sein, dass Ihre Mitarbeiter unzufrieden sind.

Wenn es Ihrem Unternehmen hingegen schlecht geht, kann eine hohe Fluktuationsrate einfach das Ergebnis einer Strategie der Kostenreduzierung durch Personalabbau sein. Im Allgemeinen bedeutet eine niedrige Fluktuationsrate jedoch, dass Ihr Unternehmen gut dafür sorgt, dass Ihre Mitarbeiter zufrieden sind und Ihr Arbeitsplatz reibungslos funktioniert.

Wie misst man die Abwanderungsquote?

Um Ihre Fluktuationsrate zu ermitteln, müssen Sie zunächst den Zeitrahmen definieren, den Sie messen wollen. Sobald Sie diese Kennzahl festgelegt haben, können Sie die durchschnittliche Anzahl der Mitarbeiter in Ihrem Unternehmen (ermittelt als arithmetisches Mittel der Mitarbeiter in einem Kalenderjahr oder einem Zeitraum) sowie die Anzahl derer, die ausgeschieden sind, nehmen. Dann dividieren Sie einfach die Anzahl der ausgeschiedenen Mitarbeiter durch Ihre durchschnittliche Mitarbeiterzahl und multiplizieren diese mit 100.

Welche Quellen würden Sie verwenden, um den KPI zu messen?

Einige der wichtigsten Datenquellen für die Fluktuationsrate kommen direkt aus Ihrer Personalabteilung. Dazu gehören die Messung von Neueinstellungen und Entlassungen sowie die wöchentliche, monatliche und jährliche Anzahl der Mitarbeiter.

Geben Sie mir ein Beispiel…

Stellen Sie sich vor, Ihre Manager beschweren sich bei Ihnen, dass sie nicht genug Personal haben, um weiterhin mit voller Effizienz zu arbeiten, obwohl Sie ständig in Neueinstellungen und Schulungen investieren.

Wenn Sie Ihre aktuelle Gehaltsliste untersuchen, stellen Sie fest, dass Ihre Beschäftigungszahlen trotz des Zustroms von Neueinstellungen weit unter dem optimalen Niveau liegen, und das Problem ist nicht neu. Das Problem ist nicht neu. Wenn Sie Ihre Fluktuationsrate auf einer konsistenten Basis verstehen, können Sie schneller Änderungen vornehmen, um den Verlust von Mitarbeitern und den damit verbundenen Investitionen zu vermeiden, und gleichzeitig die Gründe für deren Weggang aufdecken. Noch wichtiger ist, dass es Ihnen helfen kann, Ihre Richtlinien und Strategien entsprechend anzupassen.

Welche Benchmarks/Indikatoren sollte ich verwenden?

Einige nützliche Indikatoren sind:

  • Mitarbeiterzufriedenheit
  • Mitarbeiterfluktuation insgesamt
  • Gesamtzahl der Mitarbeiter pro Jahr
  • Durchschnittliche Mitarbeiterzahl pro Jahr

Quality of Hire

Definition

Die Einstellungsqualität (englisch: Quality of hire) bezieht sich auf den Wert, den ein neuer Mitarbeiter für Ihr Unternehmen bringt. Die Kennzahl ist etwas abstrakter als die KPIs „Time to fill“ oder „Time to hire“, aber sie ist auch eine Kennzahl, die die Effizienz der HR-Analytik und den Erfolg bei der Identifizierung der richtigen Bewerber für benötigte Positionen zeigt.

Warum ist das wichtig?

Für jedes Unternehmen besteht das Ziel einer Neueinstellung nicht einfach darin, Positionen mit Arbeitskräften zu besetzen, sondern sicherzustellen, dass die neuen Mitarbeiter im Unternehmen bleiben und einen echten Wert liefern, der die Investition in sie rechtfertigt.

Der Quality of Hire KPI hilft Ihnen festzustellen, ob eine Stelle mit dem richtigen Kandidaten besetzt wurde. Dies ist für Unternehmen von entscheidender Bedeutung, da es ihnen hilft festzustellen, ob ihre Einstellungsprozesse durchweg die richtigen Kandidaten finden und ob sich diese Einstellungen in erfolgreiche, produktive Mitarbeiter verwandeln.

Geben Sie mir ein Beispiel…

Stellen Sie sich vor, Sie haben gerade eine neue Einstellungsrunde für ein Projekt abgeschlossen, und so gut die Kandidaten auf dem Papier auch aussahen, nur wenige haben die Erwartungen wirklich erfüllt. Das bedeutet, dass Sie noch mehr Geld dafür ausgeben werden, die Hälfte des Teams, das Sie gerade zusammengestellt haben, zu entlassen und eventuell neu einzustellen.

Die Einstellungsqualität kann Ihnen sagen, worauf Sie Ihre Aufmerksamkeit richten müssen, wenn es um Einstellungsparameter geht, und sicherstellen, dass Sie nicht nur die „besten“ Kandidaten einstellen, sondern diejenigen, die am besten für die Arbeit in Ihrem Unternehmen qualifiziert sind.

Wie messen Sie den KPI?

Da es sich bei der Einstellungsqualität um eine etwas subjektive Kennzahl handelt (sie kann sich von Unternehmen zu Unternehmen ändern), gibt es mehrere Faktoren, die angewendet werden können, um ein klares Bild der Kennzahl zu erhalten.

In vielen Fällen lässt sich die Einstellungsqualität als eine Kombination aus Faktoren wie

  • Mitarbeiterbindung
  • Dauer der Stellenbesetzung
  • Zufriedenheit der einstellenden Manager
  • Arbeitsleistung
  • Anlaufzeit/Einarbeitungszeit (wie lange es dauert, bis die volle Produktivität erreicht ist)
  • Engagement

messen.

Welche Quellen würden Sie verwenden, um den KPI zu messen?

Um die Qualität der Einstellungen zu messen, können Sie auf Datenquellen zurückgreifen, die :

  • den Einstellungsprozess (Zeit bis zur Einstellung, Mitarbeiterbindung)
  • die Leistung (Produktivität, Engagement, Qualität)
  • die Unternehmenskultur (Passung der Mitarbeiter, Zufriedenheit)

umfassen.

Welche Benchmarks/Indikatoren sollte ich verwenden?

Einige nützliche Benchmarks sind:

  • Arbeitsleistung
  • Einarbeitungszeit
  • Kulturelle Eignung

Time-to-Hire

Time-to-Hire Definition

Die Zeit bis zur Einstellung (englisch: Time-to-Hire) bezieht sich auf die Anzahl der Tage (oder den entsprechenden Zeitrahmen), die von dem Moment, in dem ein potenzieller Mitarbeiter angesprochen und ihm eine Stelle angeboten wird, bis zu dem Zeitpunkt, an dem er die Stelle annimmt, vergehen.

Diese HR-Analytics-Kennzahl ist ein Maß dafür, wie effizient der Rekrutierungs- und Einstellungsprozess eines Unternehmens funktioniert.

Wie messen Sie den KPI?

Die Zeit bis zur Einstellung kann leicht gemessen werden, da die Kennzahl hauptsächlich arithmetisch ist. Um den KPI zu ermitteln, subtrahieren Sie einfach den Tag, an dem ein Kandidat in die Einstellungspipeline kam, von dem Tag, an dem der Kandidat das Angebot angenommen hat. In dieser Formel ist Tag 0 der Zeitpunkt, an dem die Position offiziell für potenzielle Kandidaten sichtbar gemacht wurde.

Time to hire: Tag: Eingang der Bewerbung – Tag: Angebot an den Kandidaten versand

Warum ist die Zeit bis zur Einstellung wichtig?

Der Time-to-Hire KPI ist eine entscheidende Komponente des Einstellungsprozesses. Diese zeigt genau auf, wie effektiv Ihr HR-Team neue Positionen nach Bedarf besetzt. Die Kennzahl zeigt auch an, wie erfolgreich Ihr Team zwei wichtige Aspekte der Personalbeschaffung handhabt:

  1. die Identifizierung der richtigen Talente
  2. die Sicherstellung, dass sie für die benötigten Positionen eingestellt werden.

Die Zeit bis zur Einstellung kann Unternehmen helfen, ihre Pipelines besser zu verstehen, Engpässe zu ermitteln und Bereiche zu identifizieren, in denen sie Reibungsverluste beseitigen können. Langfristig hilft eine bessere Verfolgung der „Time to Hire“-Kennzahlen dabei, die richtigen Kandidaten einzustellen und den gesamten Eindtellungsprozess zu verbessern.

Ein Beispiel

Nehmen wir an, Ihr HR-Team ist hocheffektiv bei der Identifizierung von Top-Talenten. Irgendwie scheint es, dass Sie, wenn Sie neue Mitarbeiter einstellen, schon bei der dritten oder vierten Option angelangt sind, wodurch die Qualität Ihres Teams sinkt. Dies könnte auf eine Vielzahl von Faktoren zurückzuführen sein, aber ein langwieriger Bewerbungs- und Onboarding-Prozess könnte der Übeltäter sein.

Wenn potenzielle Kandidaten gezwungen sind, durch mehrere Reifen und unnötige Verfahrensschritte zu springen, nur um eine Position zu besetzen, von der Sie wissen, dass sie dafür qualifiziert sind, suchen sie vielleicht einfach nach Positionen mit einfacheren Einstellungsprozessen.

Wenn Sie verstehen, wie Sie den Prozess rationalisieren und Schmerzpunkte beseitigen können, können Sie Top-Talente anziehen und an sich binden.

Welche Benchmarks/Indikatoren sollte ich verwenden?

Einige nützliche Benchmarks sind:

  • Zeit bis zur Besetzung (time to fill)
  • Anzahl der qualifizierten Kandidaten
  • Vorstellungsgespräche pro Einstellung (Interviews per hire)
  • Qualität der Einstellung (Interviews per hire)

Welche Quellen würden Sie verwenden, um Time-to-Hire zu messen?

Um die Zeit bis zur Einstellung zu messen, müssen Sie sowohl den gesamten Rekrutierungsprozess als auch eher interne Faktoren betrachten. Sie können Datenquellen wie

  • Vorstellungsgespräche pro Einstellung,
  • Anzahl der Kandidaten für eine Position
  • interne Metriken, wie
    • Größe des HR-Teams

Mitarbeiterproduktivität

Definition Mitarbeiterproduktivität

Die Kennzahl Mitarbeiterproduktivität (Englisch: Employee productivity) misst wie effektiv die Belegschaft über einen bestimmten Zeitraum ist.

Zudem können weitere Faktoren aus ihr abgeleitet werden, wie

  • Effizienz,
  • Mitarbeiterzufriedenheit und
  • Engagement.

Warum hat es Relevanz?

Die Produktivität Ihrer Mitarbeiter zu verstehen, ist für Ihr Endergebnis und Ihre laufenden Bemühungen zur Verbesserung der Zufriedenheit von größter Bedeutung. Die Produktivität ist ein Indikator für den Grad der Zufriedenheit, des Engagements und des Glaubens an die Mission Ihres Unternehmens durch Ihre Mitarbeiter.

Eine niedrige Produktivität an sich kann darauf hindeuten, dass

  • bestehende Struktur nicht förderlich für einen positiven Arbeitsablauf sind
  • größere kulturelle oder
  • unternehmerische Probleme hinweisen.

Daher ist die Kennzahlen ein wichtiger Maßstab um Strategien zu verstehen, mit denen Ihr Team sein volles Potenzial ausschöpfen kann, ohne es zu längeren Arbeitszeiten zu zwingen.

Beispiel

Stellen Sie sich vor, dass Sie nach mehreren Monaten solider Produktion und Wachstum feststellen, dass der Output in einem Ihrer Kernteams stark abgenommen hat. Eine genauere Untersuchung zeigt, dass sie viel weniger als normal produziert haben, aber dass die Menge der zugewiesenen Ressourcen und der begleitende Arbeitsablauf nicht viel angepasst wurden.

Sie können die Mitarbeiterproduktivität messen, um festzustellen, wo das Problem beheimatet ist und ob die aktuelle Leistung im Vergleich zur festgelegten Vergleichsbasis (Baseline) günstig ist. Dieser Leistungsindikator für die Mitarbeiterproduktivität kann der erste Schritt sein, um herauszufinden, wo das Problem liegt und wie es zu lösen ist.

Wenn sich beispielsweise die geleisteten Arbeitsstunden nicht verändert haben, Sie aber einen signifikanten Anstieg der Abwesenheitsrate feststellen, kann es sich um ein Problem der Zufriedenheit oder eine schlechte Planung handeln.

Datenquellen zu Messung

Die Kennzahl Mitarbeiterproduktivität kann von verschiedenen Quellen abgeleitet werden, wie z.B.:

  • Teamleistung
  • Mitarbeitereffizienz
  • Abwesenheitsrate
  • Anwesenheitsrate
  • Umsatz
  • Ausfallrate.

Wie misst man die Mitarbeiterproduktivität?

Eine der gebräuchlichsten Methoden zur Messung der Mitarbeiterproduktivität (als Durchschnittswert) besteht darin, den Gesamtumsatz eines Unternehmens für einen bestimmten Zeitraum durch die Gesamtzahl der Mitarbeiter zu teilen.

Sie sind zwar grundlegend, können aber ein guter Ausgangspunkt für die Messung der Produktivität sein. Umfassendere KPIs können Messungen der

  • Arbeitsqualität pro Mitarbeiter
  • der Produktionsrate
  • der Managerzufriedenheit
  • Effizienz pro Mitarbeiter

beinhalten.

Welche Benchmarkindikatoren können benutzt werden?

Einige nützliche Benchmarks sind:

  • Abwesenheitsrate
  • Fluktuationsrate
  • 360-Grad-Mitarbeitergespräche
  • Zufriedenheitsrate

Einstellungskosten neuer Mitarbeiter (Cost Per Hire)

Definition Einstellungskosten

Die durchschnittlichen Kosten pro Einstellung (englisch: cost per hire, kurz: CPH) messen, wie viel Geld für die Einstellung eines einzelnen Mitarbeiters in einem Unternehmen ausgegeben wird. Dies wird normalerweise über längere Zeiträume und nicht täglich gemessen, da die Personalbeschaffung in der Regel kein kontinuierlicher Prozess ist.

Warum ist sind die Kosten je Einstellung wichtig?

Dieser KPI ist eine wichtige interne Kennzahl, die Ihnen hilft, Ihre Einstellungsprozesse besser zu verstehen, die Kosten zu senken, die Effizienz der Personalbeschaffung zu verbessern und eine sinnvolle Budgetvorgabe zu machen.

Beispiel

7 neue Stellen zu besetzen mit durchschnittlichen Einstellungskosten von 6.700€ =  46.900€ Einstellungsbudget

In vielen Fällen deuten hohe Kosten pro Einstellung darauf hin, dass Ihre Personal- und Akquisitionsteams aus verschiedenen Gründen nicht mit maximaler Leistung arbeiten. Die Kosten pro Einstellung können Ihnen helfen, Bereiche zu finden, in denen Abläufe geglättet, ins Haus geholt oder ganz eliminiert werden können.

Es ist jedoch wichtig, sich vor Augen zu halten, dass in bestimmten Fällen eine höhere Cost-per-Hire-Zahl nicht unbedingt etwas Schlechtes ist, sondern zu den Kosten des Geschäftsbetriebs gehört. Nichtsdestotrotz kann die Analyse der Kosten pro Einstellung Ihnen dabei helfen, Wege zur Rationalisierung Ihrer Personalbeschaffungsprozesse zu finden.

Wie werden die Einstellungskosten gemessen?

Eine Analyse der Kosten pro Einstellung beginnt mit der tabellarischen Erfassung der Gesamtkosten, die Ihnen während des Einstellungsprozesses entstehen. Dabei werden die internen Kosten (Gehälter, Entwicklungs- und Schulungskosten usw.) sowie alle externen Kosten erfasst.

Die Formel für die Kosten pro Einstellung nimmt die Summe dieser Ausgaben und teilt sie durch die Gesamtzahl der Neueinstellungen.

Cost per hire = (Interne Recruiting-Kosten + externe Recruitingkosten) / Anzahl der Einstellungen

externe Kosten

  • Personaldienstleister, Agenturen
  • Auswahlverfahren
    • Anbieter von Eignungstests
    • Kosten Assessment Center
    • Stellenanzeigen
  • Recrutingsoftware
  • Reisekosten für Interviewtermine
Daten zur Preisgestaltung
  • HR-Gehälter
  • Wert pro Einstellung
  • Externe Einstellungskosten

interne Kosten

  • Mitarbeiterempfehlungsprogramme
  • Employer Branding / Personalmarketing
  • Personalkosten Rekruting-Team
  • Fortbildungskosten des Recruiting-Teams
  • umgelegte Gemeinkosten (assoziierte Kosten)
Einstellungskosten der Einarbeitungszeit
  • Onboarding
  • Weiterbildungen/Schulungen
  • Teambuilding-Aktivitäten
  • Einbußen fehlender Produktivität

Optimierungsmöglichkeiten der Kennzahl

  • Reisekosten senken durch Video-Recruiting
  • Leistungsvorgaben Headhunter
  • spezialisierte Jobbörsen
  • Vergleich Offline / Onlinekanäle
    • Vergleich Social-Media-Kanäle
  • Softwaregestütztes Candidate Relationship Management /Recrutingsoftware
  • Standardisierter Onboardingprozess
  • Onlineweiterbildung
  • Quality-of-Hire betrachten
  • ineffiziente Maßnahmen identifizieren
  • Optimierung interner Prozesse
  • neue Recrutingmethoden evaluieren (z.b. Wettbewerb)
  • Kontextbetrachtung der Kennzahl
  • Employer Branding
  • Aufbau interner Talentpool

Die Cost-per-Hire im Durchschnitt

Wie teuer sind Einstellungen bei anderen? Die Auswertung der allgemeinen Cost-per-Hire über alle Bereiche des Unternehmens sowie Levels hinweg ist nur zu Teilen sinnvoll. Je nach Unternehmensgröße / -aufbau kann mit folgenden Ansätzen gearbeitet werden:

  • nach Gesellschaft (in einem sehr großen Unternehmen), Geschäftsbereich, Abteilung oder Team
  • nach Hierarchielevel (Top-Positionen, mit Personalverantwortung, Facharbeiter, Praktikanten)
  • nach Arbeitszeit (Vollzeit, Teilzeit, Saisonkräfte, Aushilfen)
  • nach Recruiting-Kanal (verschiedene Jobbörsen, Personalvermittlungen, Agenturen)

Kosten pro Bewerbung

Definition

Die Kosten pro Bewerbung sind die Gesamtsumme der erstellten Werbeaufwendungen (Cost-of-Hire) geteilt durch die eingehenden Bewerbungen der ausgeschriebenen Stelle.

Um Bewerbungen für das eigenen Unternehmen zu generieren sind verschiedene Faktoren von Bedeutung, z.B.

  • Aufwendungen für die Bereitstellung einer qualitativ hochwertigen Karriereseite
  • Kosten für Anzeigenschaltungen
  • Aufwand für Active Sourcing

Year-to-Date (YTD)

Definition

Der Englische Ausdruck Year-to-Date (kurz: YTD) bezeichnet den Zeitraum vom (Geschäfts-)Jahresanfang bis zum gewählten Datum des gleichen Jahres, also den Jahresverlauf. Dieser konstante Zeitraum wird häufig verwendet, um den Geschäftsverlauf mit einer Vorperiode (gleicher Jahresschnitt) vergleichen zu können.

Beispiel mit Kalenderjahr

Schreibweise: 2019-07_YTD
Bedeutung: Monate 2019-01 bis 2019-07 –> [2019-01,2019-07]

Vergleichszeitraum Vorjahr (VJ): 2018-07_YTD

Beispiel mit abweichendem Geschäftsjahr

Geschäftsjahr (GJ): September bis August Folgejahr
Schreibweise: GJ_2019-07_YTD

Bedeutung:

Anfang/Basis: GJ_2019-01 == 2019-09 (oder z.b. auch KJ_2019-09)

Ende Periodenbetrachtung: GJ_2019-07 == 2020-03 (oder z.b. auch KJ_2020-03)

–> GJ_2019-07_YTD = 2019-09 bis 2020-03

Nach oben scrollen