Autorenname: assbi

Costcenter versus Profitcenter

Cost Center (Kostenstelle)

  • Hauptziel: Ein Cost Center ist eine Abteilung oder ein Bereich innerhalb eines Unternehmens, der keine direkten Umsätze erwirtschaftet. Sein Hauptziel ist es, die ihm zugewiesenen Aufgaben innerhalb eines vorgegebenen Budgets zu erfüllen und die Kosten zu kontrollieren und zu minimieren.
  • Verantwortung: Die Leitung eines Cost Centers ist für die Einhaltung des Budgets und die Effizienz der Kosten verantwortlich, nicht jedoch für die Erzielung von Gewinnen.
  • Messung des Erfolgs: Der Erfolg eines Cost Centers wird daran gemessen, wie gut es seine Kosten im Griff hat, sein Budget einhält und die geforderten Leistungen (oft interner Natur) in der gewünschten Qualität erbringt.
  • Beispiele: Typische Beispiele für Cost Center sind Abteilungen wie die Buchhaltung, die Personalabteilung, die IT-Abteilung, die Forschungs- und Entwicklungsabteilung oder der Kundendienst (obwohl dieser manchmal auch als Profit Center geführt werden kann). Diese Abteilungen verursachen Kosten, sind aber notwendig für den Gesamtbetrieb des Unternehmens.

Profit Center (Gewinnzentrum)

  • Hauptziel: Ein Profit Center ist eine Unternehmenseinheit, die sowohl für ihre Kosten als auch für ihre Erträge (Umsätze) verantwortlich ist. Das Hauptziel ist die Maximierung des Gewinns.
  • Verantwortung: Die Leitung eines Profit Centers hat eine weitergehende Verantwortung. Sie muss nicht nur die Kosten im Blick haben, sondern auch aktiv dafür sorgen, dass Umsätze generiert werden, die die Kosten übersteigen und somit einen Gewinn für das Unternehmen erwirtschaften. Profit Center agieren oft wie eigenständige kleine Unternehmen innerhalb des Gesamtunternehmens.
  • Messung des Erfolgs: Der Erfolg eines Profit Centers wird direkt an seinem Ergebnis gemessen, also am erzielten Gewinn oder Deckungsbeitrag.
  • Beispiele: Beispiele für Profit Center können Produktlinien, Geschäftsbereiche, einzelne Filialen oder Vertriebsregionen sein. Diese Einheiten haben oft direkten Marktzugang und können ihre Leistung direkt in Form von Verkaufszahlen und erwirtschafteten Gewinnen messen.

Zusammenfassend lässt sich sagen:

Merkmal Cost Center Profit Center
Hauptfokus Kostenkontrolle, Einhaltung des Budgets Gewinnmaximierung
Umsatzerzielung Nein (oder nur indirekt) Ja, direkte Umsatzerzielung
Verantwortung Kosten Kosten und Erträge (Gewinn)
Erfolgsmessung Einhaltung von Budgets, Kosteneffizienz Erzielter Gewinn, Deckungsbeitrag
Orientierung Intern auf unterstützende Funktionen Extern auf den Markt und Kunden

Die Entscheidung, ob eine Abteilung als Cost Center oder Profit Center geführt wird, hängt von der Strategie und der Struktur des Unternehmens ab. Beide Konzepte dienen dazu, die Verantwortlichkeiten klar zuzuordnen und die Leistung der einzelnen Bereiche besser steuern und bewerten zu können.

Controllingsoftware

Controlling ist ein Managementfunktion, die darauf abzielt, das Erreichen von Unternehmenszielen zu unterstützen und zu überwachen. Dazu werden verschiedene Instrumente und Methoden eingesetzt, um die Leistung des Unternehmens zu messen und zu analysieren.

Controlling umfasst verschiedene Aufgabenbereiche, die sich in zwei Hauptbereiche gliedern lassen: Planung und Steuerung.

Planung

Die Planung beinhaltet die Festlegung von Unternehmenszielen und die Erstellung von Maßnahmenplänen, um diese Ziele zu erreichen. Dazu werden Finanzpläne erstellt, die festlegen, wie das Unternehmen in Zukunft finanziell aufgestellt sein soll. Auch die Erstellung von Budgets, die festlegen, wie viel Geld für bestimmte Aktivitäten bereitgestellt werden soll, gehört zur Planung.

Steuerung

Die Steuerung beinhaltet die Überwachung und Analyse der Leistung des Unternehmens, um sicherzustellen, dass die Unternehmensziele erreicht werden. Dazu werden verschiedene Kennzahlen und Indikatoren verwendet, die Auskunft darüber geben, wie das Unternehmen im Vergleich zu den festgelegten Zielen abschneidet. Auf Basis dieser Analyse werden gegebenenfalls Korrekturmaßnahmen ergriffen, um das Unternehmen wieder auf Kurs zu bringen.

Controllingsoftware

Controlling spielt eine wichtige Rolle in der Unternehmensführung, da es dazu beiträgt, dass das Unternehmen auf Kurs bleibt und seine Ziele erreicht. Es ist daher wichtig, dass das Controlling systematisch und regelmäßig durchgeführt wird, um sicherzustellen, dass das Unternehmen auf einem erfolgreichen Weg bleibt. Da die Datenmengen stetig zunehmen, ist ein professionelles Controlling ohne Software heutzutage nicht mehr möglich.

Excel als Basis und Klassiker

Excel ist ein mächtiges Werkzeug, das von vielen Unternehmen als Controlling-Software eingesetzt wird. Hier sind einige der Vorteile von Excel als Controlling-Software:

  1. Verfügbarkeit: Excel ist auf den meisten Computern verfügbar und wird von den meisten Menschen beherrscht, was die Einführung und Nutzung erleichtert.
  2. Flexibilität: Excel bietet eine Vielzahl von Funktionen und Werkzeugen, die es ermöglichen, Finanzdaten zu integrieren, zu analysieren und zu visualisieren. Es gibt auch viele Vorlagen und Add-Ons, die die Funktionalität von Excel erweitern und es an die Bedürfnisse eines Unternehmens anpassen.
  3. Kosten: Excel ist kostenlos und wird standardmäßig auf vielen Computern installiert, was die Kosten für die Einführung und Nutzung gering hält.
  4. Integration mit anderen Anwendungen: Excel kann leicht mit anderen Anwendungen integriert werden, wodurch die Möglichkeiten der Analyse und Visualisierung von Finanzdaten erweitert werden.
  5. Benutzerfreundlichkeit: Excel ist einfach zu bedienen und bietet eine Vielzahl von Hilfsmitteln und Anleitungen lassen sich einfach googeln.

Jedox

Jedox ist eine leistungsstarke Business Intelligence- und Controlling-Software, die es Unternehmen ermöglicht, ihre Daten zu integrieren, zu analysieren und zu visualisieren. Die Software bietet leistungsstarke Funktionen für die Planung und Budgetierung, die Konsolidierung von Finanzdaten und die Erstellung von Analysen und Berichten. Der große Vorteil bei der Berichtserstellung ist die Anlehnung an Excel und dessen Funktionen. Hier kann der Fachbereich schnell selbständig ohne die IT ein funktionales Reportingsystem aufbauen und selbst pflegen.

SAP Business Planning and Consolidation (BPC)

SAP BPC ist eine leistungsstarke Software für die Planung, Budgetierung und Konsolidierung von Finanzdaten. Die Software bietet eine Reihe von Werkzeugen, mit denen Unternehmen ihre Finanzdaten integrieren, analysieren und visualisieren können, um so bessere Entscheidungen treffen zu können.

Oracle Hyperion

Oracle Hyperion ist eine leistungsstarke Software für die Planung, Budgetierung und Konsolidierung von Finanzdaten. Die Software bietet eine Vielzahl von Werkzeugen, mit denen Unternehmen ihre Finanzdaten integrieren, analysieren und visualisieren können, um so bessere Entscheidungen treffen zu können.

IBM Cognos

IBM Cognos ist eine leistungsstarke Business Intelligence-Software, die es Unternehmen ermöglicht, ihre Daten zu integrieren, zu analysieren und zu visualisieren. Die Software bietet leistungsstarke Funktionen für die Erstellung von Analysen und Berichten und ist besonders für große Unternehmen geeignet.

Microsoft Power BI

Microsoft Power BI ist eine leistungsstarke Business Intelligence-Software, die es Unternehmen ermöglicht, ihre Daten zu integrieren, zu analysieren und zu visualisieren. Die Software bietet eine Vielzahl von Werkzeugen, mit denen Unternehmen ihre Daten analysieren und Dashboards erstellen können.

Es ist wichtig zu beachten, dass jedes Unternehmen individuelle Anforderungen hat und daher möglicherweise eine andere Software besser geeignet sein könnte. Es empfiehlt sich daher, die eigenen Bedürfnisse sorgfältig zu überdenken und dann die beste Lösung für das Unternehmen zu wählen.

Jedox Berater für Ihren Erfolg

Business Intelligence, kurz BI, ist eine Sammlung von Methoden, Technologien und Anwendungen, die es Unternehmen ermöglichen, ihre Daten zu sammeln, zu analysieren und zu visualisieren, um so bessere Entscheidungen treffen zu können. Durch die Nutzung von BI können Unternehmen ihre Geschäftsprozesse optimieren, Risiken minimieren und Wettbewerbsvorteile erlangen.

Jedox Berater

Ein Jedox Berater ist eine Person, die speziell dafür ausgebildet wurde, Unternehmen bei der Einführung und Nutzung von Jedox, einer Business Intelligence-Software, zu unterstützen. Jedox ist eine leistungsstarke Plattform, die es Unternehmen ermöglicht, ihre Daten zu integrieren, zu analysieren und zu visualisieren, um so bessere Entscheidungen treffen zu können.

Ein Jedox Berater bietet Unternehmen eine Vielzahl von Vorteilen:

  1. Expertise: Ein Jedox Berater verfügt über umfangreiches Wissen und Erfahrung in der Nutzung von Jedox und kann Unternehmen bei der Einführung und Nutzung der Software unterstützen.
  2. Zeitersparnis: Ein Jedox Berater kann Unternehmen dabei helfen, wertvolle Zeit und Ressourcen zu sparen, indem er sie bei der Einführung und Nutzung von Jedox unterstützt.
  3. Kostenersparnis: Ein Jedox Berater kann Unternehmen dabei helfen, Kosten zu minimieren, indem er sie bei der Einführung und Nutzung von Jedox unterstützt. Durch die Nutzung von Jedox können Unternehmen ihre Geschäftsprozesse optimieren und so Kosten einsparen.
  4. Verbesserung der Entscheidungsfindung: Ein Jedox Berater kann Unternehmen dabei helfen, ihre Daten zu integrieren, zu analysieren und zu visualisieren, um so bessere Entscheidungen treffen zu können. Durch die Nutzung von Jedox können Unternehmen ihre Geschäftsprozesse optimieren und so ihre Wettbewerbsfähigkeit verbessern.

Insgesamt bietet ein Jedox Berater Unternehmen eine Vielzahl von Vorteilen bei der Einführung und Nutzung von Jedox.

Jedox Freelancer

Es gibt zusätzliche Gründe zu den oben genannten, warum ein Jedox Freelancer möglicherweise die bessere Wahl sein könnte als ein Jedox Berater:

  1. Kosten: Freelancer sind meistens als Beratungsunternehmen, da sie keine festen Personalkosten und Overhead-Kosten haben. Dies kann für Unternehmen, die auf der Suche nach kostengünstigen Lösungen sind, von Vorteil sein.
  2. Flexibilität: Freelancer sind in der Regel flexibler als Beratungsunternehmen und können schneller auf die Bedürfnisse eines Unternehmens reagieren. Sie können auch auf Projektbasis arbeiten, was für Unternehmen von Vorteil sein kann, die nur gelegentlich Unterstützung bei der Nutzung von Jedox benötigen.
  3. Spezialisierung: Freelancer sind häufig spezialisierter als Beratungsunternehmen und können daher tiefgreifendes Wissen und Erfahrung in einem bestimmten Bereich bieten. Dies kann für Unternehmen von Vorteil sein, die spezifische Unterstützung bei der Nutzung von Jedox benötigen.
  4. Persönlicher Ansatz: Freelancer arbeiten in der Regel direkt mit den Kunden zusammen und können daher einen persönlicheren Ansatz bieten als Beratungsunternehmen. Dies kann für Unternehmen von Vorteil sein, die eine engere Zusammenarbeit mit ihren Beratern wünschen.

Es ist wichtig zu beachten, dass jedes Unternehmen individuelle Anforderungen hat und daher möglicherweise ein Berater oder Freelancer besser geeignet sein könnte. Es empfiehlt sich daher, die eigenen Bedürfnisse sorgfältig zu überdenken und dann die beste Lösung für das Unternehmen zu wählen.

Dashboard Sichtbarkeit

Ein Dashboard für den Anwender

Der häufigste Grund, den ich gehört habe, um die Einrichtung eines Dashboards zu rechtfertigen, ist eine Variante von „wir brauchen das, weil [Mitarbeiter] dann die Kennzahlen jederzeit einsehen kann“. Die Theorie besagt, dass der Analyst nun, da die Zahlen und Diagramme auf einem Dashboard zur Selbstbedienung zur Verfügung stehen, sich anderen Aufgaben widmen kann, während die Teams den Finger am Puls des Geschäfts haben wie nie zuvor.

In der winterlichen Jahreszeit verlangsamen sich die Geschäftstätigkeit und andere Aktivitäten. Die Zahl der Menschen, die sich für ein Dashboard interessieren und eine Kennzahl im Auge behalten, ist auf dem niedrigsten Stand des Jahres.

Und doch gehen die Geschäfte und das Leben an sich weiter wie bisher. Wenn Sie Zugang zu den Daten über die Seitenaufrufe von Dashboards haben oder einfach nur feststellen, dass der Datencache immer veraltet ist, können Sie leicht feststellen, dass die große Mehrheit der Dashboards nicht angesehen wird. Einmal habe ich beobachtet, wie eine wichtige Änderung an das Data Warehouse übermittelt wurde und mehr als die Hälfte der Dashboards einiger Teams kaputt gingen, ohne dass dies jemandem aufgefallen wäre.

Mit diesem Wissen im Hinterkopf sind die meisten Leute der Meinung, dass ein solches Dashboard gar nicht erst hätte existieren müssen. Welchen Wert kann man schließlich schaffen, wenn das Tool nie bis selten von der vorgesehenen Zielgruppe genutzt wird? Wenn der Datenverantwortliche dann auch noch Zeit und Mühe aufwenden muss, um das Dashboard zu pflegen, wird die Sache schlimmer.

Im Großen und Ganzen stimme ich mit dieser Einschätzung überein. Es ist nie gut, wenn man sich die Mühe macht, etwas zu entwickeln, das nicht genutzt wird. Aber die meisten Dinge sind nicht so einfach, und so habe ich in letzter Zeit darüber nachgedacht, ob es überhaupt einen Wert hat, eine Reihe von selten (oder nie) genutzten Dashboards herumliegen zu haben.

Warum werden die meisten Dashboards übersehen?

Es gibt viele Faktoren, die dazu führen, dass Menschen lernen Dashboards zu ignorieren. Die enthaltenen Informationen können sich über Tage hinweg wiederholen und die Menschen langweilen sich. Sie sind nicht relevant für das, woran sie gerade arbeiten. Sie sind schwer auffindbar und sie vergessen, wo sie sich befinden. Und so weiter.

Ich glaube das größte Problem ist, dass die Zahlen und Diagramme auf einem Dashboard nur selten eine direkte persönliche Bedeutung für die Benutzer haben. Es gibt zich andere Dinge zu tun, und wenn das Dashboard nicht direkt mit der eigenen Leistung oder Vergütung zu tun hat, gibt es wahrscheinlich wichtigere Dinge, auf die man schaut. Die Wahrscheinlichkeit, dass Menschen die Aktienkurse überprüfen, ist größer, wenn sie die Aktien tatsächlich besitzen (und somit von ihnen profitieren).

Selbst wenn man es gut meint und weiß, dass eine Kennzahl wichtig ist, wie z. B. der Umsatz des Unternehmens/der Abteilung/der lokalen Gruppe, so ist es doch sehr selten, dass es jemandem gelingt, die Überprüfung eines Dashboards oder das Lesen einer automatisierten E-Mail zu einer dauerhaften Gewohnheit zu machen. Menschen sind nun einmal so. Ohne eine externe Motivationsquelle werden Dashboards und andere Selbstbedienungstools in der Regel vergessen.

Bringen Sie externe Motivation ins Spiel

Wie kann man am besten von außen motivieren, sich ein Dashboard anzusehen? Meiner Erfahrung nach sollte man ein Treffen in den Kalender der Mitarbeiter eintragen, um die Kennzahlen auf dem Dashboard zu überprüfen und zu diskutieren. Das schafft einen starken Zwang, sich das Ding anzusehen, und es schafft auch eine Situation, in der man sich nicht frei bewegen und so tun kann, als würde man sich das Dashboard ansehen – es gibt überall Zeugen. Das ist wie das Teilen von Hausaufgaben in der Schule.

Der Wert besteht darin, dass jetzt Diskussionen über die Daten stattfinden. Das bedeutet, dass wir uns gelegentlich der Tatsache stellen müssen, dass es uns vielleicht egal ist, ob eine Kennzahl nach oben oder unten geht oder ganz einfach schwankt. Es bedeutet, dass wir uns vielleicht eingestehen müssen, dass unsere Kennzahlen uns nichts sagen und wir etwas ändern müssen. Das Dashboard ist zufällig der Ausgangspunkt für all diese Diskussionen. Auf diese Weise werden Pläne und Entscheidungen getroffen.

Ich schlage also vor, eine sehr teure Sitzung mit mehreren Beteiligten zu veranstalten, um die Existenz eines Dashboards zu rechtfertigen.

Denn wenn ein solches Dashboard wichtig genug ist, um es zu erstellen und zu pflegen, dann sollte es auch so viel Wert schaffen, dass sich ein solches Treffen lohnt. Wenn wir wirklich der Meinung sind, dass ein Team die Konversionsrate des Anmeldetrichters für Benutzer überwachen muss, die die Website von Flugzeugen aus nutzen, dann sollten wir uns Zeit nehmen, um diese Bemühungen zu verfolgen. Andernfalls brauchen wir das Dashboard wahrscheinlich nicht zu erstellen, und es hilft, die Gesamtzahl in Schach zu halten.

Das ist natürlich ein extremes Beispiel, aber ich habe eine Reihe solcher Sitzungen erlebt, die ziemlich gut gelaufen sind. Wenn sich schließlich herausstellt, dass das Dashboard nicht mehr relevant ist, haben Sie ein klares Signal, das Dashboard abzuschalten.

Der andere, ruhigere Anwendungsfall – Dashboards als Rückfallebene

Mir fällt noch ein anderer, weniger aufregender Grund für die Existenz bestimmter Dashboards ein. Sie fungieren als magische Konserven für Analysen, auf die Analysten in der Zukunft zurückgreifen können. Es ist wie mit der Dose gebackener Bohnen, die Sie hinten in der Speisekammer stehen haben. Sie ist wahrscheinlich gut und nützlich, könnte aber in den letzten drei Jahren verdorben sein und kann Ihnen auf unerwartete Weise das Leben retten.

Selbst wenn niemand sonst jemals ein Dashboard verwenden wird, wird sich der Analyst, der es erstellt hat, höchstwahrscheinlich daran erinnern, dass ein solches Dashboard existiert und welche Fragen es beantworten kann. Wenn dann eine relevante Frage auftaucht (was unweigerlich der Fall ist), ist der Analyst oft die erste Person, die sich daran erinnert und das Dashboard zur Verwendung herauszieht.

Selbst wenn das Dashboard durch verschiedene Änderungen der Datenquellen beschädigt wurde, können oft einige Teile der Methodik gerettet und aktualisiert werden, um sie an die modernen Systeme anzupassen. Selbst wenn man einige Dinge korrigieren muss, ist das wahrscheinlich eine größere Zeitersparnis, als wenn man eine Analyse von Grund auf neu machen muss.

Sollten wir uns mit der Herstellung esoterischer Konserven beschäftigen? Eigentlich nicht. Der allgemeine Ratschlag, sich zu weigern, Dashboards zu erstellen, ist in der Regel richtig.

Aber obwohl wir diesen Rat befolgen, uns dagegen wehren und versuchen, die Erstellung von Dashboards auf ein Minimum zu reduzieren, ist es unvermeidlich, dass wir jedes Jahr ein paar Dashboards zum Wegwerfen erstellen. Sei es, weil der organisatorische Druck zu groß ist oder weil es zu dem Zeitpunkt eine gute Idee zu sein schien, wir werden es tun. Ich möchte sagen, dass selbst diese Bemühungen einen gewissen Wert haben. Es ist nicht alles reine Verschwendung.

Daher schlage ich vor, dass wir uns jedes Mal, wenn wir ein Armaturenbrett erstellen, das auf der Strecke bleibt, eine Minute Zeit nehmen und es absichtlich für unsere Zukunft schön verpacken. Es kostet nicht viel Mühe, irgendwo im Hintergrund ein paar Kommentare anzubringen, nur für den Fall, dass wir uns die Sache noch einmal ansehen.

Es sind vielleicht keine schmackhaften Daten, aber sie erfüllen ihren Zweck.

Dashboard als spezialisiertes Werkzeug

Aufgabe Nr. 3: Das spezialisierte Werkzeug

Das Dashboard ist ein spezifisches Werkzeug, das für einen bestimmten Zweck und für nichts anderes verwendet wird

Einsatzhäufigkeit im Alltag

Ausgehend von Aufgabe Nr. 2 gibt es eine Reihe von spezifischen Dashboards, die nur selten benutzt werden und für einen sehr engen Zweck bestimmt sind.

Ein Beispiel hierfür wäre ein Dashboard, das für die (einmalige) Analyse einer ganz bestimmten Art von Betrugsmuster verwendet wird. Ein solches Dashboard würde die meisten Tage ignoriert werden, bis ein Vorfall gemeldet wird und wir die vergangene Analyse in Form eines Dashboards zur Überprüfung hervorholen müssen.

Ein Beispiel aus der Praxis ist vielleicht eine Brandmeldezentrale (seltene Anforderung). Sie bieten Zugang zu verschiedenen Funktionen im Zusammenhang mit der Brandbekämpfung (Berichte darüber, welche Brandmeldeanlagen ausgelöst wurden, wo sich das Feuer möglicherweise befindet, Kontrolle über verschiedene Systeme usw.) und werden nur von einer kleinen Gruppe hochqualifizierter Personen und nur wenige Male im Jahr benutzt (meist bei regelmäßigen Inspektionen, Tests und im tatsächlichen Notfall).
In der übrigen Zeit werden diese Dashboards von allen ignoriert.

Für beide oben genannten Szenarien kann man die Dashboarderstellung als Fehlschlag einstufen, wenn man die Einsatzhäufigkeit mit der Nützlichkeit gleichsetzt. Doch in den wenigen Fällen, in denen sie existieren, sind sie sehr nützlich. Manchmal sind sie sehr raffiniert und gut gewartet (wie die Brandmeldezentralen), manchmal sind sie rudimentär skizzenhaft.

Das Problem dieser selten genutzten spezialisieren Dashboards ist, dass sie in der Anforderungshäufigkeit überschätzt wurden. Für den Dashboardersteller ist es dann häufig versenkte Zeit und Ressourcen. Für den  Nutzer des Dashboards ergibt sich aus der Seltenheit der Anforderung das Problem, sich im Falle des Falles an dieses Dashboard zu erinnern.

Alternativen zu verwaisten Dashboards

Warnmeldungen für alle!

Ein häufiger Versuch, einen Teil der Arbeit, die Dashboards leisten, zu ersetzen, besteht darin, von einem „Pull“-Framework, bei dem die Mitarbeiter den Datenfluss selbst initiieren müssen (wozu sie nicht motiviert sind), zu einem „Push“-Framework überzugehen, bei dem die Mitarbeiter benachrichtigt werden, wenn sie einer Kennzahl Aufmerksamkeit schenken müssen.

Die meisten dieser Lösungen fallen unter verschiedene Formen der „Alarmierung“ und „Anomalieerkennung„. Im Bereich Machine Learning ist dies derzeit ein aktiver Forschungsbereich, vor allem, weil wir all diese Dashboards haben, die wir loswerden müssen.

Das Push-System

Das größte Problem bei solchen Push-Systemen ist, dass es sich um ein extrem schwieriges Problem handelt und richtige Entscheidungen nicht immer von der Datenlage mitgetragen werden. Man benötigt ein System, das sich historische Werte ansieht und bewertet ob der nächste eingehende Wert anormal genug ist, um einen Menschen für die Klärung zu alarmieren.

Es gibt viele Methoden, um dies zu erreichen, aber allgemeine Algorithmen können nicht die kontextabhängigen Nuancen erfassen, die Menschen verwenden. Mein Auto hat einen Spurhalteassistenten, der piepst, wenn ich kurz davor bin, die Spur zu verlassen, und das funktioniert im Allgemeinen gut. Aber auf bestimmten, sehr schmalen Straßen piept er auch ständig, und er geht auf jeden Fall los, wenn ich die Spur wechsle/ausfahre, ohne den Blinker zu setzen. Er kann einfach nicht wissen, was ich vorhabe, und warnt mich daher zu stark. Als Reaktion darauf habe ich gelernt zu wissen, wann ich es einfach ignorieren muss.

Mit der Zeit und den Fortschritten der KI/ML werden wir diese Technik sicher noch verbessern. Ich habe noch nicht gesehen, was der aktuelle Stand der Technik für dieses Problem leisten kann. Aber solange ich nicht in der Lage bin, diese hochmoderne Technik für meine zufällige Dashboard-Metrik rechtzeitig für mein nächstes Meeting zum Laufen zu bringen, habe ich keine Energie, sie zu lernen.

Machen Sie jeden mit Daten vertraut

Die ganze „Selbstbedienungs“-Dashboard-Sache neigt dazu, aus sehr menschlichen Gründen zu scheitern. Die Nutzer, die die Daten erhalten, sind häufig nicht wirklich in der Lage, sich selbst zu bedienen. Auch wenn dies wie ein hoffnungsloses Problem erscheinen mag, ist es tatsächlich möglich, große Teile einer Organisation so zu schulen, dass sie die Fähigkeiten (und die Umgebung) besitzen, die für die Selbstbedienung und die Teilnahme an der Analyse erforderlich sind. Es erfordert nur eine Menge Arbeit, Organisation und die Bereitschaft aller Beteiligten, sich zu schulen und zu lernen. Doch es ist machbar.

Wenn Sie Zugang zu einem datenkundigen Team haben, können Sie die Schleusen für die Selbstbedienung sogar noch weiter öffnen und den Mitarbeitern Zugang zu APIs und Analysedatensätzen geben, mit denen sie spielen können. Theoretisch ist dies das, was bestimmte BI-Tools wie Tableau, PowerBI, Qlik, Looker oder Jedox bieten, vorausgesetzt, Sie haben Zugang zu Menschen, die diese Tools nutzen können.

Weniger zufällige Versuche und mehr spezialisierte Tools

Ich halte sehr viel von spezialisierten Ansichten, denn die Dinge entwickeln sich in der Regel besser, wenn wir Artefakte absichtlich und nicht durch blinden Zufall schaffen. Das bedeutet, dass wir (und damit meine ich mich selbst) uns viel besser darüber im Klaren sein müssen, dass ich ein Dashboard-Tool entwickle, bei dem der einzige wirkliche Nutzer mein zukünftiges Ich sein wird, wenn jemand mit einer ähnlichen Frage zurückkommt.

Wenn ich mir das von vornherein versinnbildliche, wirkt es sich das darauf  aus wie ich das Dashboard benenne und speichere, sowie auf die Art der Funktionen und Erklärungen, die ich aufnehmen werde. Am Anfang wird es roh und grob sein, mit den spezifischen Anforderungen wird es dann komplementär und intuitiv.

Aufgaben und Lösungen durch Dashboards

Ich bezweifle, dass ich es geschafft habe, alle möglichen Aufgaben aufzuzählen, die von Dashboards im Laufe der Jahre verlangt wurden. Aber es scheint so zu sein, dass wir, wenn wir aufschlüsseln, was wir eigentlich erreichen wollen, nicht viele Dashboards übrig bleiben.

  • Für spezielle Aufgaben gibt es spezielle Lösungen,
  • ganzheitliche Sichten wahren den Überblick.

 

Weitere Teile der Serie:

Aufgabe Nr. 1: Situationsbewusstsein

Aufgabe Nr.2 : Zugang und flexible Erkundung von Daten

 

 

 

Dashboard – Zugang und Erkundung der Daten

Dashboard Aufgabe Nr. 2 – Zugang und flexible Erkundung der Daten

Unterschiedlicher Personengruppen wollen einen „Selbstbedienungs“-Zugang zu Entscheidungsinformationen um individuell Handeln können

Diese Aufgabe überschneidet sich in gewisser Weise mit Aufgabe Nr. 1.

Der Grundgedanke beim self-serivce Ansatz eines Dashboards ist es, den Menschen Raum zu geben, Sachverhalte selbst zu erforschen, einzuordnen und zu entdecken. Je nach Personengruppe ist eine unterschiedliche Darstellung der Daten sinnvoll, da andere Fragestellungen beantwortet werden sollen.

Die Frage, was genau „Selbstbedienung“ in einem Daten-/Informationskontext bedeutet ist nicht ganz klar.
Vereinfacht kann man ein entgegengesetztes Spektrum einsetzen:

  1. Menschen, die den Zugang zu Daten hätten nutzen können um eine Katastrophe abzuwenden, hatten ihn nicht zur Verfügung (z.B. Hochwasser 2021 im Ahrtal) und
  2. Menschen, die den Zugang zu Daten missbrauchen, um Handlungen zu unterlassen (Katastrophenschutz für das Ahrtal).

Per se ist ein Dashboard weder gut noch schlecht, manche wollen die Datenlage auch nicht akzeptieren.

Hierbei gibt es eine Reihe von Problemen mit self-service Dashboards:

  • Die Daten befinden sich nicht auf der „richtigen Flughöhe“ des Berichtempfängers.
    Sie sind entweder zu allgemein oder zu detailliert. Die Hinzufügung von Steuerelementen, mit denen die Benutzer die Dinge anpassen können, macht die Erstellung und Bedienung in der Regel (exponentiell) komplexer.
  • Die Erstellung und Pflege von granularen Dashboards kann ein langfristiges Unterfangen werden.
  • Die Mitarbeiter müssen darin geschult werden, wie sie das Dashboard effektiv nutzen können.
    Es muss ihnen beigebracht werden, was normal und was unnormal ist und was das Dashboard aussagen kann bzw. nicht aussagen kann.

Zu guter letzt ist die Erstellung einer komplexes Datengrundlage ein iterrativer Prozess, der niemals abgeschlossen ist. Unterschiedliche Anforderungen an Interpretationsfähigkeit, Zeitebenen und Granularität können sich mit der Zeit wandeln, von der Aufbereitung hin bis zur Bedeutung.

Dashboards erfolgreich machen

Aus meiner Erfahrung heraus ist der beste Weg um ein selbst zu bedienendes Dashboard erfolgreich zu etablieren, es für den Berichtsempfänger, d.h. für ein bestimmtes Team oder bestimmtes datenkundiges Mitglied eines Teams Maßzuschneidern.

Das widerspricht dem Kerngedanken, dass sich Stakeholder ihre Daten selbständig zusammenklicken können. Allerdings hat die Praxis gezeigt, dass es meistens eine einmalige Geschichte ist und die Vergleichbarkeit der Daten verloren geht, wenn die Daten mit unterschiedlichen Maßstäben dargestellt werden.

Sinnvoller ist es die Anforderungen bei einer Person oder Team zu sammeln. Daraus lässt sich ein Datenmodell erstellen das allen Stakeholder nützt und den betriebswirtschaftlichen Austausch fördert anstatt ihn zu verletzten. So kann die ganzheitliche Datengrundlage aus verschiedenen Blickwinkeln betrachtet und genutzt werden.

Aufgabe Nr. 1: Situationsbewusstsein

Aufgabe Nr. 3: spezialisiertes Werkzeug

 

Das Dashboard als Status quo

Es gibt verschiedenen Meinungen darüber, was bei Dashboards richtig/falsch ist, sowie mit verschiedenen Meinungen über mögliche Alternativen und Anwendungsfälle.

Was das Nichtgefallen anbelangt, so wiederholen sich einige Themen:

  • Beschwerde Nr. 1 ist, dass sich niemand um sie kümmert, sie werden oft als verschwendete Ressourcen angesehen.
  • Maßnahmen werden selten auf der Grundlage eines Dashboards ergriffen
  • Dashboards gehen oft kaputt und die Wartung kostet Zeit, die für andere Aufgaben fehlt
  • Leute fragen, warum mehrere Dashboards nicht übereinstimmen, was in der Regel eine große Zeitfalle ist.

Stattdessen werde ich einige Überlegungen zu der Frage anstellen, was wir von unseren Dashboards erwarten, in der Hoffnung, zu einigen Schlussfolgerungen zu kommen, warum wir sie häufig als Fehlschläge angesehen werden.

Aufgabe Nr. 1: Situationsbewusstsein – Status quo

Dashboards helfen uns zu erfahren, wann wir eine Entscheidung treffen müssen

Da Dashboards wie feste Glasscheiben sind, die eine bestimmte Sicht auf die Welt bieten, sind sie in der Regel über die Zeit hinweg konsistent in dem, was sie zeigen. Diese Eigenschaft, eine einzige konsistente Sicht auf die Welt zu bieten, ermöglicht es den Beobachtern theoretisch, zu erkennen, dass „die Dinge nicht in die richtige Richtung laufen, wir müssen eine Kurskorrektur vornehmen“.

Was ist ein Dashboard

Dies ist vergleichbar mit dem Armaturenbrett unter der Windschutzscheibe Ihres Autos: Sie zeigt stets an, was vor Ihnen liegt, und wenn Sie bemerken, dass Sie gegen einen Baum zu fahren beginnen, nehmen Sie Anpassungen vor. Bremsen, Ausweichen, was der Maßnahmenkatalog aus der Fahrschule hergibt.

Man könnte sagen, dass dies eine der lehrbuchmäßigen Verwendungen eines Dashboards ist. Der Begriff Dashboard (deutsch: „Armaturenbrett“) stammt von den Armaturenbrettern in Automobilen, die Informationen zur Unterstützung des Fahrens lieferten.

Der Begriff des Dashboards stammt allerdings tatsächlich noch aus der Zeit, als man mit Pferdekutschen unterwegs war. Denn früher war das Dashboard lediglich ein schützendes Brett, das den Fahrer davor bewahrte, vom aufspritzenden (dashed-up) Dreck aus den Hufen der Pferde beschmutzt zu werden. Der Name ist bis heute geblieben, doch nun, ein Jahrhundert später, hat dieses Dashboard eine komplexe und schier unendliche Fülle von Funktionen und Aufgaben rund um Information, Kommunikation und Komfort übernommen.

Nutzen eines Dashboards – Nur mit Maßnahmen

Ich glaube aber, dass die meisten Leute zugeben würden, dass die meisten Dashboards bei dieser Aufgabe versagen, weil niemand drauf schaut. Sie sind im Alltagsgeschäft zu beschäftigt, abgelenkt oder einfach uninteressiert. Im Gegensatz zu unserem Armaturenbrett und der Windschutzscheibe im Auto führt das Ignorieren einer Datenanzeige normalerweise nicht zu einem schrecklichen, lebensbedrohlichen Unfall. Die Folgen sind so gering, dass die Menschen häufig damit durchkommen, sie nicht zu beachten.

Aus diesem Grund habe ich vorgeschlagen, dass für jedes Dashboard dieser Art eine formelle Besprechung stattfinden sollte, bei der die Teilnehmer zusammenkommen, sich das Ding ansehen und entscheiden, ob sie etwas gegen die Anzeige unternehmen wollen. Da es nicht die Schuld der Nutzer ist, dass sie sich ein Dashboard nicht ansehen wollen und es für sie keine Priorität hat, müssen wir diese Tatsache umgehen und das Thema forcieren.

Bei dieser Aufgabe wird auch übersehen, dass wir meist nur ein situatives Bewusstsein für ein Problem haben wollen, bis es aufhört, ein Problem zu sein. Sobald wir uns dem nächsten Geschäftsproblem zuwenden wollen, ist das Dashboard am Ende seiner Nutzungsdauer. Wer Probleme aussitzt, braucht kein Dashboard.

Weitere Teile der Serie:

Aufgabe Nr.2 : Zugang und flexible Erkundung von Daten

Aufgabe Nr.3 : Das Dashboard als spezialisiertes Werkzeug

 

Datensilos: Was sind sie und wie geht man mit ihnen um?

Was sind Datensilos?

Ein Datensilo ist ein Quelle fester Daten, das unter der Kontrolle einer Abteilung bleibt und vom Rest des Unternehmens isoliert ist. Sie entstehen in der Regel, wenn ein Team eine Lösung erstellt, die einem einzigen Zweck oder einer Gruppe von Zwecken im Zusammenhang mit einem einzigen Thema dient.

Diese Lösung ist nicht mit anderen Teilen des Unternehmens verbunden und isoliert. Ein gutes Beispiel ist eine Datenbank mit Marketing-Leads, die nicht mit der zentralen Kundentabelle im Data Warehouse verknüpft ist.

Wozu können Datensilos führen?

Wenn Datensilos nicht rechtzeitig aufgelöst werden, erhält man im besten Fall kein vollständiges Bild. Man erhält Daten, die nicht so wertvoll sind, wie sie sein könnten, weil sie für andere Teams nicht zugänglich und nicht mit anderen Daten oder Tools im Unternehmen integriert sind.

Wenn Sie beispielsweise die Daten Ihres Vertriebs- und Kundensupportteams zusammenführen, können Sie die Gründe für die Kundenabwanderung erfahren oder andere Kundenaktivitäten ermitteln, die Ihrem Unternehmen potenziell helfen können.

Eine geringere Datenintegrität (da Sie mit mehreren Kopien von Datenbanken arbeiten, die sich überschneiden), eine geringere Datensicherheit und eine geringere Produktivität der Entwickler.

Wie geht man mit Datensilos um?

Eine Antwort auf Datensilos könnte die Zentralisierung von Daten sein – ein Konzept, das lange Zeit als heiliger Gral für Datenteams galt. Eine zentralisierte Datenbank, die verschiedene Lösungen, Tools und Unternehmensebenen miteinander verbindet und an einem Ort gepflegt und verwaltet wird, klingt für viele Unternehmen sehr verlockend.

Heutzutage beginnen Experten jedoch, die Ziele und die Durchführbarkeit der Datenzentralisierung in Frage zu stellen und stellen fest, dass sie sich für die meisten Unternehmen als schwer realisierbar erwiesen hat, und betrachten sie sogar als einen ziemlich altmodischen Ansatz für die Datenverwaltung, denn:

Ein gut gepflegtes, zentralisiertes Data Warehouse ist sehr komplex und schwer zu realisieren,
es führt zu großen monolithischen Lösungen, die den Arbeitsablauf der Teams einschränken,
es kann zu einem überspezialisierten Silo führen.

Experten bezeichnen das Data Mesh als einen weitaus vorteilhafteren und praktischeren Ansatz für die Gestaltung und Entwicklung von Datenarchitekturen. Dieser Begriff umschreibt mehrere Data Warehouses in einem Unternehmen, die miteinander verbunden sind und zusammenarbeiten.

In diesem Artikel gehen wir näher darauf ein, was Datensilos sind, was sie verursacht und warum sie schlecht für Ihr Unternehmen sind. Wir erläutern auch die Vorteile von Data Meshes im Detail und zeigen, wie Apache Airflow in dieses Bild passt.

Was sind die Ursachen für Datensilos in einem Unternehmen?

Um das Problem der Datensilos zu lösen, müssen Sie zunächst verstehen, was sie verursacht. Hier haben wir die 4 häufigsten Gründe für Datensilos zusammengestellt:

1. Überlastetes zentralisiertes Datenteam

Damit etwas funktioniert, braucht es Zeit. Wenn Ihr zentrales Datenteam überlastet ist, hat es möglicherweise nicht die Zeit auf jede neue Datenanfrage zu reagieren.

Andere Teammitglieder haben vielleicht Daten, die sie für wertvoll halten und die bereinigt und rationalisiert werden müssen und sie wollen (oder können) nicht darauf warten, dass diese Daten zu den vorhandenen ETL- und Lagerverfahren hinzugefügt werden. Also fangen sie an, die Sache selbst in die Hand zu nehmen.

Da Sie wahrscheinlich hoch qualifizierte und talentierte Mitarbeiter an Bord haben, werden sie eine vernünftige Lösung finden. Dabei handelt es sich jedoch um eine Einzellösung, die nicht in die übrigen Tools und Datenbanken des Unternehmens integriert ist. Ohne eine breitere Perspektive und großes systemisches Denken enden Sie mit Datensilos.

2. Verschiedene, nicht miteinander verbundene Datenbanken

Verschiedene Datenbanken neigen dazu, unterschiedliche Standards zu verwenden, und die Daten, die sie gemeinsam haben, stimmen möglicherweise nicht genau überein. Die Integration all dieser Datenquellen kann ausufernd werden. Je mehr unverbundene Datenbanken Sie haben, desto schwieriger wird es, die Daten zu katalogisieren, sie auf dem neuesten Stand zu halten und schließlich den Überblick über die Wahrheit zu behalten.

3. Veraltete oder falsche Tools für die Sammlung und Analyse von Daten

Eine Excel-Datei ist kein guter Ort, um Ihre Daten zu speichern und zu organisieren. Das mag offensichtlich erscheinen, ist aber ein häufigeres Problem, als Sie vielleicht denken. Außerdem verwenden einige Unternehmen möglicherweise ältere Tools, die nicht alle ihre Anforderungen erfüllen. Um Ihr Unternehmen skalierbar zu machen, müssen Sie in der Lage sein, Ihre Daten auf automatisierte, effiziente Weise zu verwalten und sich dabei auf moderne Tools für die Datenorchestrierung verlassen.

4. Ineffiziente Kommunikation und Unternehmenskultur

Um auf die Teams zurückzukommen, die an ihren eigenen Lösungen arbeiten… es ist nicht ihre Schuld. Wenn es an der Kommunikation zwischen den Führungskräften mangelt, wissen die Teammitglieder möglicherweise nicht einmal, dass es im Unternehmen zentralisierte Tools gibt, die sie nutzen sollten. Ein perfektes Beispiel dafür, dass ein Informationssilo ein Datensilo verursacht.

Warum Datensilos schlecht für Ihr Unternehmen sind

Wir alle wissen, dass Datensilos schlecht für das Geschäft sind, aber wissen Sie auch, wie genau sie Ihr Unternehmen beeinflussen? Natürlich können die negativen Auswirkungen von Datensilos von Unternehmen zu Unternehmen unterschiedlich sein, aber in diesem Artikel haben wir die häufigsten aufgeführt.

Geringere Datenintegrität

Datensilos führen dazu, dass Sie mehrere Kopien von Datenbanken haben, die sich überschneiden. Doppelte Daten führen zu verpassten Möglichkeiten, bessere und fundiertere Schlussfolgerungen zu ziehen. Mit anderen Worten: Es ist schwer, Ihren Daten zu vertrauen.

Kompromittierte Datensicherheit

Wenn Sie Ihre Daten in einer Excel-Datei aufbewahren oder sich auf unterschiedliche Datenquellen verlassen, können Sie nicht angemessen in verschiedene Sicherheitsebenen investieren. Unternehmen, die nicht in der Lage sind, eine umfassende Datensicherheit zu gewährleisten, haben es schwer, das Vertrauen ihrer Kunden aufrechtzuerhalten und auf dem wettbewerbsorientierten Markt zu bestehen.

Geringere Teamproduktivität

Datensilos führen zu Missverständnissen und einer schlechteren Zusammenarbeit zwischen Teams. Anstatt sich auf die Analyse von Daten zu konzentrieren, fundierte Schlussfolgerungen zu ziehen und das Unternehmen wachsen zu lassen, verschwenden Ihre Ingenieure ihre Zeit damit, herauszufinden, welche Daten wahr sind, wie sie eine gemeinsame Sprache finden können und warum ihnen bestimmte Informationen fehlen.

Datenzentralisierung oder Datennetz? Wie man Datensilos beseitigt

Bislang war die beliebteste Antwort auf die Beseitigung von Datensilos die Zentralisierung von Daten. Und es überrascht nicht, dass die Idee einer zentralen Datenbank, die verschiedene Lösungen, Tools und Ebenen des Unternehmens miteinander verbindet und an einem Ort gepflegt und verwaltet wird, sehr verlockend klingt und potenziell viele Vorteile mit sich bringen kann, z. B.:

  • Leichtere Handhabung für Entwickler
  • Leichtere und bessere Berichterstellung
  • Vereinheitlichung der Daten, die in verschiedenen Teams des Unternehmens verfügbar sind
  • Effizientere Datenverwaltung
  • Bessere Zusammenarbeit zwischen Teams
  • Mehr Sicherheit

Heutzutage befasst man sich jedoch eingehender mit der Datenzentralisierung und stellen fest, dass sie eine etwas altmodische Herangehensweise an die Datenverwaltung darstellt.

Monolithischen Lösungen – die zentrale Datenplattform

Und warum? Erstens ist ein gut verwaltetes, zentralisiertes Data Warehouse sehr komplex und schwer zu erreichen. Die Integration all dieser Daten in eine zentrale Datenbank dauert in der Regel Jahre.

Man verfolgt den Ansatz Daten an einem Ort zu zentralisieren, um nützlich und wertvoll zu sein. Das führt zu großen monolithischen Lösungen, die in der Praxis eher einem Datensumpf gleichen.

Da Teams durch diese monolithischen Lösungen eingeschränkt werden, versuchen sie, sie in kleinere, integrierte Teile aufzuteilen, in der Regel um technische Modi (z. B. Ingest, Process, Serve). Auf diese Weise werden die Teams um die Aufgaben und nicht um Anwendungsfälle oder Funktionen herum zerlegt.

Das ist eine schlechte Nachricht, denn Anwendungsfälle und Funktionen lassen sich in der Regel nicht in solch übersichtlichen Kästchen unterteilen – meistens überschneiden sie sich.

Zweitens führen zentralisierte Datenplattformen und monolithische Systeme zu einem überspezialisierten Silo. Das kann passieren wenn ein Unternehmen über hochspezialisierte Datenteams verfügt das maßgeschneiderte Lösungen entwickelt, die es unzureichend teilt. In diesem Fall steht die Lösung im Raum zwischen den Leuten die sie erstellen und jenen Endnutzer, die die Lösung brauchen. Sozusagen Insellösungen, die auf keiner Karte verzeichnet sind und nach einem meist einmaligen Anwendungsfall in Vergessenheit geraten.

Data Mesh – das Datengeflecht

Ein weitaus realistischerer, modernerer und vorteilhafterer Ansatz ist ein sogenanntes Data Mesh, das eine neue Art der Gestaltung und Entwicklung von Datenarchitekturen beschreibt.

Der Schwerpunkt liegt dabei auf mehreren Data Warehouses in einem Unternehmen, die miteinander verbunden sind und zusammenarbeiten. Die Idee ist, dass Sie immer noch eine zentralisierte Governance und Standards haben, aber auch mehrere Zentren, die mit zentral verwalteten Datenflüssen (Pipelines) miteinander vernetzt sind.

Wie ETL-Orchestrierung helfen kann

Die Lösung ist ein Framework für die Datenorchestrierung, ein steuerbares Netzwerk miteinander verbundener Datenflüsse. Hierdurch können Sie die Integration mehrerer Plattformen, Tools, Anwendungen und Datenbanken aktiv steuern.

Wenn Sie mit Daten arbeiten, tun Sie das in der Regel auf asynchrone Weise und versuchen herauszufinden, was funktioniert und was nicht. Irgendwann muss man dies jedoch formalisieren, denn ein wiederholter, kontinuierlicher Umgang mit Daten ist von großem Nutzen.

Apache Airflow ist ein solcher Datenorchestrator, der es Ihnen ermöglicht, diese Formalisierung viel einfacher und schneller vorzunehmen.

Mit Airflow können Sie:

  • Migrieren, stabilisieren, operationalisieren und integrieren Sie alle Ihre Legacy-Workloads. Sie können eine Multi-Tenant-Umgebung von einer einheitlichen Steuerungsebene aus steuern.
  • Entwickeln Sie eine zentrale Datenplattform oder ein Datengeflecht, das Ihren Anforderungen entspricht – und führen Sie Daten, Governance-Regeln und Geschäftslogik zusammen, die zuvor über verschiedene Teile des Unternehmens verstreut waren.
  • Geben Sie Ihren Entwicklungsteams eine Standardmethode für die Interaktion mit Daten an die Hand, um den für die Unterstützung ihrer Umgebungen erforderlichen betrieblichen Aufwand zu verringern.

Amazon Kennzahlen | So misst sich Amazon selbst – Buch: Working Backwards

Dies ist eine Zusammenfassung eines einzelnen Kapitels aus Working Backwards, dem ersten Buch, das beschreibt, wie Amazon intern arbeitet. Sie sollten dieses Buch kaufen – die Zusammenfassung, die wir hier präsentieren, ist effektiver, wenn sie neben den Geschichten im Buch selbst gelesen wird.

Ich habe lange, lange Zeit auf ein Buch wie Working Backwards gewartet. Wenn man einen Schritt zurücktritt und darüber nachdenkt, ist Amazon ein lächerlich effektives Unternehmen. Es hat mit Büchern angefangen, aber es hat es geschafft, in einer bemerkenswerten Anzahl von Märkten die Vorherrschaft zu erlangen:

  • im E-Commerce –> amazon.com,
  • im Cloud Computing –> aws
  • im Video-Streaming –> Prime Video,
  • bei E-Books –> Kindle,
  • bei Smart-Home-Hardware –> Alexa
  • bei der Zustellung auf der letzten Meile.

Vermutlich wird Amazon in den nächsten zehn Jahren seine Positionen in vielen dieser Märkte weiter ausbauen und wahrscheinlich werden sie auch in neue Märkte expandieren.Working Backwards ist das erste Buch, das erklärt, wie Amazon all das macht. Das Buch wurde von zwei langjährigen Amazonmitarbeitern, Colin Bryar und Bill Carr, geschrieben, die im Raum waren, als viele dieser Techniken entstanden sind. Das Hauptargument von Bryar und Carr ist, dass Amazon in der Lage ist, das zu tun, was es tut, aufgrund

a) einer Reihe von Führungsprinzipien, die es unglaublich ernst nimmt und
b) einer Reihe von fünf Mechanismen / Prozessen, die es Amazon ermöglichen, das zu tun, was sie tun.
Diese Mechanismen sind:

  • Der Bar Raiser-Prozess – ein Einstellungsprozess, der sicherstellt, dass Amazon hochqualifizierte Mitarbeiter einstellt, die zu seinen Führungsprinzipien passen.
  • Das Single-Thread-Leadership-Modell – ein dezentrales Organisationsdesign, das es Amazon ermöglicht, neue Märkte zu erschließen, zu betreten und zu dominieren.
  • Die 6-Pager-Narrative – ein Ersatz für Powerpoint in Firmenmeetings, der es den Führungskräften ermöglicht, komplexe Informationsströme zu konsumieren, zu synthetisieren und zu bewerten (und Bezos erlaubt, mit dem gesamten, dezentralisierten Unternehmen Schritt zu halten).
  • Der „Working Backwards“-Prozess – der darin besteht, dass Teams eine Pressemitteilung + FAQ schreiben, bevor sie mit einem Projekt beginnen, was es dem Unternehmen ermöglicht, auf die besten Ideen zu setzen.
  • Der Ansatz von Amazon für Input- und Output-Metriken – der erklärt, wie Amazon Metriken innerhalb des Unternehmens instrumentiert, analysiert und ausführt.

Dieser Blog-Beitrag wird sich ausschließlich auf das letztgenannte Thema konzentrieren – dies ist schließlich ein Business Intelligence-Blog, geschrieben von einem Business Intelligence Berater. Die Besessenheit mit Kennzahlen und Metriken ist sozusagen mein Ding. Ich möchte zeigen, wie mächtig diese Ideen sind. Das Buch von Bryar und Carr erklärt sehr gut, wie Amazon die Dinge tun kann, die sie tun. Sie sollten das Buch kaufen und ihre Geschichten lesen.

Wie Amazon über Kennzahlen nachdenkt

Der wichtigste Aspekt, den Sie aus dem Buch Working Backwards mitnehmen werden, ist die Idee, dass gute Betreiber die Organisationen, die sie leiten, instrumentalisieren müssen. Wenn Sie nicht instrumentieren/orchestrieren, werden Sie nicht wissen, was vor sich geht. Und wenn Sie nicht wissen, was vor sich geht, können Sie unmöglich ein guter Betreiber sein – Sie wissen nicht, worauf Sie sich konzentrieren müssen, um die gewünschten Ergebnisse zu erzielen.

Amazon unterteilt Kennzahlen in zwei Arten:

  • steuerbare Input-Metriken und
  • Output-Metriken.

Dies ist in der Branche eher als vorlaufende Indikatoren und nachlaufende Indikatoren bekannt, aber Amazon verwendet gerne seine eigene Sprache, weil, ähm, Bezos. Ich finde aber, dass „steuerbare Input-Metriken“ eine besonders schöne Formulierung ist:
Sie macht deutlich, dass ein Frühindikator nur dann wert ist, beachtet zu werden, wenn er auch steuerbar ist.

Laut Bryar und Carr denkt Amazon über seine Metriken auf zwei verschiedene Arten nach:

  1. Definiert und optimiert es jede Metrik nach einem bestimmten Metrik-Lebenszyklus.
  2. Zweitens werden die Metriken in einem so genannten „Weekly Business Review„-Meeting (WBR-Meeting) vorgestellt, das fraktal ist:
    Die oberste Führungsebene führt jede Woche ein WBR-Meeting für das gesamte Unternehmen durch,
    gefolgt von jeder Abteilung und
    jedem operativen Team.

Wir werden jede Idee der Reihe nach untersuchen.

Amazons Lebenszyklus der Metriken

Wie erstellt Amazon seine Metriken? Die kurze Antwort ist, dass sie eine Prozessverbesserungsmethode namens DMAIC anwenden, die sie von Six Sigma kopiert haben. Das Akronym steht für:

  • Definieren,
  • Messen,
  • Analysieren,
  • Verbessern und
  • Steuern.

Die Autoren sagen, dass Sie, wenn Sie Ihr eigenes Amazon-ähnliches WBR-Meeting implementieren wollen, die DMAIC-Schritte in der richtigen Reihenfolge durchlaufen und keinen Schritt überspringen sollten, sonst. (An anderer Stelle im Buch erwähnen sie, dass Teams, die die DMAIC-Schritte nicht in genau der richtigen Reihenfolge durchlaufen, später dazu neigen, zu stolpern. Lektion gelernt.)

Definieren Sie

Fast jede Kennzahl, die in der Führungs-WBR vorgestellt wird, fällt in eines der Elemente des berühmten Amazon-Schwungrads:Dies war ein Diagramm, das Bezos 2001 auf einer Serviette skizzierte, inspiriert vom Schwungradkonzept in Jim Collins Buch Good to Great. Bryar und Carr weisen darauf hin, dass das Schwungrad so wichtig ist, dass es auf der Vorderseite des WBR-Metriken-Deck der Führung zu finden ist. Das Schwungrad setzt den Kontext für jede Metrik, die Amazon in seinem Handelsgeschäft verwendet.

Identifizieren der korrekten, steuerbaren Eingabemetriken

Das erste, was Amazon tut, ist herauszufinden, was der richtige, kontrollierbare Satz von Eingabemetriken ist. Dies ist trügerisch knifflig und erfordert einen wiederholten Versuch und Fehler-Prozess. Die Autoren geben ein Beispiel dafür, wie folgt:

Ein Fehler, den wir bei Amazon gemacht haben, als wir anfingen, von Büchern in andere Kategorien zu expandieren, war die Wahl von Input-Metriken, die sich auf die Auswahl konzentrieren, also darauf, wie viele Artikel Amazon zum Verkauf anbietet. Jeder Artikel wird auf einer „Detailseite“ beschrieben, die eine Artikelbeschreibung, Bilder, Kundenrezensionen, Verfügbarkeit (z. B. Versand innerhalb von 24 Stunden), Preis und das Feld oder die Schaltfläche „Kaufen“ enthält. Eine der Metriken, die wir ursprünglich für die Auswahl gewählt haben, war die Anzahl der neu erstellten Detailseiten, in der Annahme, dass mehr Seiten eine bessere Auswahl bedeuten.

Sobald wir diese Metrik identifiziert hatten, hatte sie eine unmittelbare Auswirkung auf die Aktionen der Einzelhandelsteams. Sie konzentrierten sich übermäßig darauf, neue Detailseiten hinzuzufügen – jedes Team fügte seinen Kategorien Dutzende, Hunderte, ja sogar Tausende von Artikeln hinzu, die zuvor nicht auf Amazon verfügbar waren.

(…) Wir sahen bald, dass eine Erhöhung der Anzahl von Detailseiten zwar die Auswahl zu verbessern schien, aber nicht zu einem Anstieg der Verkäufe, der Output-Metrik, führte. Die Analyse zeigte, dass die Teams zwar eine Erhöhung der Anzahl der Artikel anstrebten, aber manchmal Produkte kauften, die nicht sehr gefragt waren.

Als wir erkannten, dass die Teams die falsche Input-Metrik gewählt hatten – was durch den WBR-Prozess aufgedeckt wurde -, änderten wir die Metrik, um stattdessen die Verbrauchernachfrage zu reflektieren. In mehreren WBR-Sitzungen fragten wir uns: „Wenn wir daran arbeiten, diese Selektionsmetrik, wie sie derzeit definiert ist, zu ändern, wird das zu dem gewünschten Ergebnis führen?“ Als wir mehr Daten sammelten und das Geschäft beobachteten, entwickelte sich diese spezielle Auswahlmetrik mit der Zeit von

  • Anzahl der Detailseiten, die wir verfeinert haben zu

  • Anzahl der Detailseitenaufrufe (Sie erhalten keine Gutschrift für eine neue Detailseite, wenn die Kunden sie nicht aufrufen), die dann zu

  • der Prozentsatz der Detailseitenaufrufe, bei denen die Produkte vorrätig waren (Sie erhalten keine Gutschrift, wenn Sie Artikel hinzufügen, diese aber nicht vorrätig halten können), was schließlich als

  • der Prozentsatz der Detailseitenaufrufe, bei denen die Produkte vorrätig und sofort für den zweitägigen Versand bereit waren, was schließlich als „Fast Track In Stock“ bezeichnet wurde.

Der Punkt, den sie hier ansprechen, ist, dass Sie testen und diskutieren müssen, um die richtige Menge an kontrollierbaren Input-Metriken zu finden – und erwarten Sie, dass Sie viele Iterationen von beidem durchführen! Die Autoren erklärten, dass selbst diese Erzählung nicht so eindeutig war, wie man denken würde – Bezos war besorgt, dass die Fast Track In Stock-Metrik zu eng gefasst war, aber Jeff Wilke argumentierte, dass die Metrik breite systematische Verbesserungen bringen würde. Bezos stimmte zu, es auszuprobieren, und es stellte sich heraus, dass Wilke Recht hatte.

Das Wichtigste ist jedoch, dass dieser Prozess für jede Eingabemetrik, die Amazon verwendet, stattfindet.

Amazon verwendete Hunderte von Arbeitsstunden, nur um die richtige Input-Metrik zu finden, die verwendet werden soll.

Rechnen Sie damit, dass Sie das Gleiche für Ihr Unternehmen tun müssen.

Messen

Die Messphase ist die Phase, in der Sie die Instrumentierung einrichten müssen – in der Sie Tools kaufen und Systeme einrichten, um die von Ihnen gewählten Metriken zu messen. Bryar und Carr machen drei Punkte zu diesem Schritt:

  1. Die Beseitigung von Verzerrungen in Ihren Metriken ist unglaublich wichtig – und notwendig, wenn Sie die Grundwahrheit Ihres Unternehmens aufdecken wollen. Amazon ermächtigt sein Finanzteam, die unvoreingenommene Wahrheit aufzudecken und zu berichten. Sie tun dies, weil die Leiter der Geschäftseinheiten einen Anreiz haben, Metriken auszuwählen (oder zu verändern!), um sich selbst gut aussehen zu lassen.
  2. Planen Sie, Ihre Metriken zu überprüfen. Amazon verlangt von den Eigentümern seiner Metriken einen regelmäßigen Prozess zur Überprüfung der Metriken, um sicherzustellen, dass die Metrik das misst, was sie eigentlich messen soll. Die Grundannahme hierbei ist, dass im Laufe der Zeit irgendetwas dazu führt, dass Ihre Metrik abdriftet und somit Ihre Zahlen verzerrt werden.
  3. Nehmen Sie sich die Zeit und investieren Sie, um Ihr Unternehmen zu instrumentieren. Dies scheint einfach zu sein – Sie geben im Voraus Geld für Mitarbeiter und Tools aus, um Business Intelligence zu generieren, und dann sind Sie fertig, richtig? Aber die Autoren weisen darauf hin, dass man das Richtige instrumentieren sollte, was auch immer das für das Unternehmen ist – und manchmal ist das Richtige das Schwierigere!

Sie geben das Beispiel von Amazons „auf Lager“ Metrik. Auf Lager“ klingt einfach zu messen – bis man erkennt, dass es viele Möglichkeiten gibt, zu messen, ob ein Artikel auf Lager“ ist. Was tun Sie also? Wenn Sie einen Schritt zurücktreten, lautet die Frage, die Sie mit dieser Metrik wirklich beantworten wollen: „Wie viel Prozent meiner Produkte sind sofort verfügbar, um gekauft und versendet zu werden?“

Sie können das auf verschiedene Arten messen. Die Autoren geben nur zwei an:

Sie machen jeden Tag um 23 Uhr einen Schnappschuss des Katalogs, bestimmen, welche Artikel auf Lager sind, und gewichten dann jeden Artikel nach den Verkäufen der letzten 30 Tage.
Jedes Mal, wenn ein Benutzer eine Amazon-Produktseite besucht, erhöht die Webapp die „Gesamtzahl der angezeigten Produktseiten“ und wenn das betreffende Produkt verfügbar ist, erhöht die Webapp die „Gesamtzahl der angezeigten vorrätigen Produktseiten“. Am Ende des Tages wird die „Gesamtzahl der angezeigten vorrätigen Produktseiten“ durch die „Gesamtzahl der angezeigten Produktseiten“ geteilt, um eine Gesamtkennzahl für den vorrätigen Bestand an diesem Tag zu erhalten.
Die Autoren argumentieren, dass die zweite Metrik besser ist, weil sie das repräsentiert, was der Kunde erlebt. Auch wenn die Implementierung teurer ist (Sie müssen Ingenieure beauftragen, den Code zu schreiben, die Berechnungen durchzuführen und die Ereignisse an ein Data Warehouse weiterzuleiten), sollten Sie in den sauren Apfel beißen und die Investition tätigen, da dies eine genauere Metrik für das Unternehmen ist.

Analysieren

Dies ist die Phase des Metrik-Lebenszyklus, in der Sie ein umfassendes Verständnis für die zugrunde liegenden Treiber hinter den Metriken entwickeln. Die Autoren sagen, dass es innerhalb von Amazon viele verschiedene Bezeichnungen dafür gibt, u. a. „die Varianz reduzieren„, „den Prozess vorhersehbar machen“ und „den Prozess unter Kontrolle bekommen„.

Charlie Bell, ein SVP bei AWS, hat einen Spruch:

„Wenn man auf ein Problem stößt, ist die Wahrscheinlichkeit, dass man in den ersten 24 Stunden die tatsächliche Ursache des Problems findet, ziemlich nahe bei Null, denn es stellt sich heraus, dass hinter jedem Problem eine sehr interessante Geschichte steckt.“

Für jede neue Metrik, die Sie definieren, wird es eine Phase geben, in der Sie ein tiefes Verständnis dafür entwickeln müssen, wie die Metrik funktioniert.
Was er damit meint ist, dass man oft, wenn man beobachtet, dass sich eine Metrik seltsam verhält, ein bisschen Zeit braucht, um herauszufinden, was dieses Verhalten antreibt. Wie Toyota verwendet auch Amazon die Methode der „fünf Gründe“, um Anomalien auf den Grund zu gehen (sie nennen dies den „Fehlerbehebungsprozess“, und das Ergebnis des COE-Prozesses ist ein Dokument, das die wirklichen Ursachen der fraglichen Anomalie beschreibt).

Aber die Idee hinter diesem Schritt ist wichtiger – was Bryar und Carr sagen, ist, dass es für jede neue Metrik, die Sie definieren, eine Phase geben wird, in der Sie ein tiefes Verständnis dafür entwickeln müssen, wie die Metrik funktioniert, was die Grundursachen sind, wie die natürlichen Abweichungen aussehen und so weiter. Dies ermöglicht es Ihnen, zur nächsten Stufe überzugehen, die da lautet:

Verbessern

Sobald Sie ein solides Verständnis Ihres Prozesses und Ihrer Kennzahlen entwickelt haben, sind Sie endlich bereit, mit der Verbesserung des Prozesses zu beginnen. Wenn Ihre Bestandsmetrik beispielsweise bei 95 % liegt, könnten Sie sich fragen: „Was wäre nötig, um sie auf 97 % zu bringen?“

Der Grund, warum „Verbessern“ nach „Definieren, Messen und Analysieren“ kommt, ist, dass Sie jetzt Änderungen auf einer soliden Grundlage des Verständnisses vornehmen werden. Bei Amazon gab es Abteilungen, die versucht haben, ihre Prozesse ohne eine vollständige Definitions-, Mess- und Analyseschleife zu verbessern. Das hat fast immer zu einer Menge Gedöns geführt, mit wenig bis keinen sinnvollen Ergebnissen.

Die Autoren merken an, dass, wenn Sie Ihren Prozess im Laufe der Zeit verbessern, es möglich ist, dass eine zuvor nützliche Metrik aufhört, nützliche Informationen zu liefern. In solchen Fällen ist es völlig in Ordnung, sie aus Ihren Dashboards zu streichen.

Steuerung & Kontrolle

Schließlich tritt eine Kennzahl in die Phase der stationären Kontrolle ein. In dieser Phase geht es darum, sicherzustellen, dass Ihre Prozesse normal funktionieren und die Leistung im Laufe der Zeit nicht abnimmt. In einigen Amazon-Teams sind die Metriken so gut kontrolliert und die Prozesse so reibungslos, dass das WBR zu einem ausnahmebasierten Meeting wird, anstatt zu einem regelmäßigen Meeting, in dem jede einzelne Metrik besprochen wird. Die Leute treffen sich ausschließlich, um Anomalien zu besprechen.

Eine weitere Sache, die in der Kontrollphase passiert, ist, dass die Mitarbeiter in der Lage sind, Prozesse zu identifizieren, die vollständig automatisiert werden können. Denn wenn ein Prozess gut verstanden wird und die Entscheidungen vorhersehbar sind, dann ist es wahrscheinlich, dass der gesamte Prozess durch Software ersetzt werden kann. Amazons Prognosen und Einkauf sind zwei Beispiele, bei denen die Prozesse jetzt vollständig automatisiert sind – obwohl es Jahre der Zusammenarbeit zwischen Kategorie-Einkäufern und Software-Ingenieuren brauchte, um den Einkauf über Millionen von Amazons Produkten zu automatisieren.

Wie Amazon Metriken verwendet

Wie ich bereits erwähnt habe, verwendet Amazon Metriken, indem es sie im so genannten „Weekly Business Review“-Meeting oder WBR überprüft.

Die Eigentümer der Metriken beobachten die Metriken täglich. Von ihnen wird erwartet, dass sie wissen, was eine normale Abweichung und was eine Ausnahme ist, um während des WBRs Zeit zu sparen.

Beim WBR-Meeting auf höchster Ebene (das sind Bezos und sein S-Team) werden alle wichtigen Metriken des Unternehmens in einem Metrik-„Deck“ behandelt – einer Präsentation, die Hunderte von Grafiken, Diagrammen und Tabellen enthält. In den frühen Tagen von Amazon wurde das Metrik-Deck auf Papier gedruckt. Heute sind die Decks entweder gedruckt oder virtuell.

Es gibt eine Reihe interessanter Eigenschaften des Metrics Decks, die es wert sind, darüber zu sprechen. Zum Beispiel:

  • Das Deck stellt eine End-to-End-Sicht auf das Geschäft dar. Dies ist beabsichtigt – die Autoren schreiben, dass „während Abteilungen in Organigrammen einfach und getrennt dargestellt werden, sind es Geschäftsaktivitäten normalerweise nicht. Das Deck präsentiert jede Woche einen konsistenten, durchgängigen Überblick über das Geschäft, der darauf ausgelegt ist, die Kundenerfahrung mit Amazon zu verfolgen. Dieser Fluss von Thema zu Thema kann die Verflechtung von scheinbar unabhängigen Aktivitäten aufzeigen.“
  • Das Deck besteht hauptsächlich aus Diagrammen, Graphen und Datentabellen. Da es Hunderte von Visualisierungen zu besprechen gibt, würden schriftliche Notizen das Meeting zu sehr verzögern. Zwei bemerkenswerte Ausnahmen von dieser Regel sind das „Ausnahme-Reporting“ sowie die „Stimme des Kunden“-Anekdoten, die der Kundenservice in das Metrik-Deck einfügen darf.
  • Es gibt keine ideale Anzahl von Metriken, die überprüft werden sollten. Amazon selbst fügt ständig Metriken zum WBR-Deck hinzu, ändert sie und entfernt sie, wenn sich die Geschäftsanforderungen entwickeln.
  • Aufkommende Muster sind ein Hauptaugenmerk. Sie wollen Trendlinien, und Sie wollen sie kennen, lange bevor sie in einem Quartals- oder Jahresergebnis auftauchen.
  • Diagramme werden in der Regel gegen eine vergleichbare Vorperiode aufgetragen. Metriken machen Sinn, wenn sie mit früheren Perioden verglichen werden, damit Sie einen richtigen Vergleich von Äpfeln zu Äpfeln haben (z. B. wollen Sie Urlaubszeiten mit einer früheren Urlaubszeit vergleichen, nicht mit einer schwachen Zeit).
  • Diagramme zeigen zwei oder mehr Zeiträume, z. B. nachlaufende 6-Wochen und nachlaufende 12-Monate. Kleine, aber wichtige Probleme tauchen meist nur in kürzeren Trendlinien auf; in längeren werden sie eher geglättet.
  • Anekdoten und Ausnahmeberichte sind in das Deck eingewoben. Die einzige Ausnahme von der Regel „Charts, Graphen und Datentabellen“ sind Anekdoten und Ausnahmeberichte. Dazu aber später mehr.

Die WBR ist fraktal – die oberste Führungsebene hat eine WBR, aber auch jede Abteilung und jedes Team auf der unteren Ebene. Einige Metriken sind in Echtzeit (z. B. die, die zur Erkennung von Ausfällen benötigt werden), andere werden stündlich oder täglich aktualisiert; es hängt wirklich von den Bedürfnissen des Teams ab. Schließlich wird die Genauigkeit der Metriken von der Finanzabteilung zertifiziert, die befugt ist, diese Metriken zu prüfen, und die selbst im WBR auf oberster Ebene vertreten ist.

Da dieser Kontext nun geklärt ist, können wir uns endlich dem WBR-Meeting selbst zuwenden.

Betrieb des WBR

Amazon verwendet sehr viel Zeit darauf, dass die WBR reibungslos abläuft. Die wöchentliche Kadenz garantiert eine Reihe von Dingen. Er garantiert, dass die Manager so schnell wie möglich über Probleme informiert werden. Sie garantiert, dass sie Kontinuität von einer WBR-Sitzung zur nächsten haben. Im Laufe der Zeit haben die WBRs von Amazon eine Reihe von gemeinsamen Best Practices übernommen:

Metriken werden in einer konsistenten und vertrauten Weise formatiert. Die Autoren argumentieren, dass „ein gutes Deck eine durchgängig konsistente Formatierung verwendet – das Diagrammdesign, die abgedeckten Zeiträume, die Farbpalette, der Symbolsatz (für aktuelles Jahr/Vorjahr/Ziel) und die gleiche Anzahl von Diagrammen auf jeder Seite, wo immer möglich. Manche Daten bieten sich natürlich für unterschiedliche Darstellungen an, aber standardmäßig werden sie im Standardformat angezeigt.“

Diese Formatierung bedeutet, dass Amazon-Führungskräfte in der Lage sind, sich jede Woche denselben Datensatz in genau demselben Format und in genau derselben Reihenfolge anzusehen, um mit einer ganzheitlichen End-to-End-Perspektive des Unternehmens nach Hause zu gehen. Mit der Zeit führt diese Vertrautheit zu einer gemeinsamen Fähigkeit, Trends zu erkennen, Anomalien herauszufiltern und sich in einen konsistenten Überprüfungsrhythmus einzuleben. Der WBR sollte daher mit der Zeit immer effizienter werden.

WBR-Meetings konzentrieren sich auf Abweichungen und ignorieren das Erwartete. WBR-Zeit ist kostbar. Wenn die Dinge innerhalb der erwarteten Abweichungen liegen, sagen die Geschäftsinhaber „hier gibt es nichts zu sehen“ und gehen weiter. Das Ziel des Meetings ist es, Ausnahmen zu besprechen und was dagegen unternommen wird.

Die Geschäftsinhaber sind für die Metriken verantwortlich und es wird erwartet, dass sie Abweichungen erklären. Während das Finanzteam von Amazon für die Zertifizierung der Ergebnisse verantwortlich ist, liegt die Präsentation der einzelnen Metriken in der alleinigen Verantwortung des jeweiligen Geschäftsinhabers. Vom Geschäftsinhaber wird erwartet, dass er seine Metriken in- und auswendig kennt; zum Zeitpunkt der Teilnahme an der WBR auf höchster Ebene sollte er eine Erklärung (oder zumindest die Ergebnisse einer Voruntersuchung!) für eine Anomalie haben.

Geschäftsinhaber, die ihre Arbeit vor dem WBR nicht gemacht haben, werden ausgepfiffen. Wenn sie die Ursachen einer Anomalie nicht kennen, wird von ihnen erwartet, dass sie sagen: „Ich weiß es nicht, wir analysieren die Daten noch und kommen auf Sie zurück.“ Eine Vermutung zu äußern oder Dinge zu erfinden, wird ebenfalls zu einer Standpauke führen.

Operative und strategische Diskussionen werden getrennt gehalten. WBR-Zeit ist kostbar. Es handelt sich um ein taktisches, operatives Meeting, nicht um ein strategisches. Neue Strategien, Produkt-Updates und bevorstehende Produktveröffentlichungen sind während des Meetings nicht erlaubt.

Amazon versucht, nicht einzuschüchtern (obwohl sie darin nicht besonders gut sind). Erfolg erfordert eine Umgebung, in der sich die Mitarbeiter nicht eingeschüchtert fühlen, wenn sie über etwas sprechen, das in ihrem Bereich schief gelaufen ist. Die Autoren geben zu, dass Amazon nicht immer gut darin war, eine sichere Umgebung zu schaffen, um Fehler zuzugeben, aber sie arbeiten daran, sich zu verbessern.

Amazon macht Übergänge von Metrik zu Metrik einfach. Nochmals: WBR-Zeit ist kostbar. Die Anzahl der Führungskräfte und Geschäftsinhaber, die sich in einem Raum befinden, macht den WBR auf höchster Ebene zu Amazons teuerstem und einflussreichstem Meeting. Das bedeutet, dass die Übergänge von einem Bereich des Metrikdecks zum anderen so nahtlos wie möglich sein sollten.

Amazon hat auch einige interessante Praktiken rund um seine Datenpräsentation:

Amazon zeigt wöchentliche und monatliche Metriken in einem einzigen Diagramm an. Wie bereits erwähnt, zeigt Amazon die rückläufigen 6-Wochen- und die rückläufigen 12-Monatswerte an. Das Nettoergebnis der Darstellung von Metriken auf diese Weise ist, dass der Graph wie eine „vergrößerte“ Version der gleichen Daten aussieht. Nehmen Sie zum Beispiel dieses Diagramm:Die Autoren schreiben:

Die graue Linie ist das Vorjahr, die schwarze Linie das laufende Jahr
Die linke Grafik, mit den ersten 6 Datenpunkten, zeigt die letzten 6 Wochen
Die rechte Grafik, mit 12 Datenpunkten, zeigt das gesamte zurückliegende Jahr Monat für Monat
Dieser eingebaute „Zoom“ sorgt für zusätzliche Klarheit, indem er die jüngsten Daten vergrößert, die in der 12-Monats-Grafik in einen Kontext gesetzt werden.
Amazon vergleicht Jahr-über-Jahr-Trends (YOY). Werfen Sie einen Blick auf die folgende Grafik, die aus einem monatlichen Geschäftsbericht stammt (ja, die gibt es; dies ist im Grunde die monatliche Version eines WBR):Das Diagramm vergleicht die tatsächlichen monatlichen Einnahmen mit den geplanten Einnahmen und den Einnahmen des Vorjahres. Das Diagramm sieht so aus, als ob Sie den Plan übertreffen und Jahr für Jahr mit einer anständigen Rate wachsen …

Bis Sie die Jahreswachstumsraten zu einer sekundären Y-Achse hinzufügen:Ohne die gepunktete YOY-Linie würden Sie vielleicht nicht bemerken, dass sich die Trends des aktuellen und des prognostizierten Jahres im ersten Diagramm langsam annähern. Mit der hinzugefügten YOY-Wachstumsrate können Sie jedoch leicht erkennen, dass sich das YOY-Wachstum seit Juni verlangsamt hat, ohne Anzeichen einer Abflachung. In diesem speziellen Fall sieht das Geschäft gesund aus, aber es zeichnen sich Probleme am Horizont ab.

Output-Kennzahlen zeigen Ergebnisse, Input-Kennzahlen geben eine Orientierung. Das obige Diagramm ist ein Beispiel für eine Output-Metrik. Es dient als gute Erinnerung daran, dass Output-Metriken nicht umsetzbar sind – zum Beispiel ist es nicht genug zu wissen, dass sich das Wachstum im Jahresvergleich verlangsamt hat; Sie wollen auch wissen, welche Faktoren zu dieser Verlangsamung beigetragen haben. Bryar und Carr weisen darauf hin, dass, wenn eine Output-Metrik neben Input-Metriken wie „Neukunden“, „Neukundenumsatz“ und „Bestandskundenumsatz“ platziert wird, Sie in der Lage wären, das Signal viel früher zu erkennen, mit einem klareren Aufruf zum Handeln.

Nicht jedes Diagramm/jeder Graph vergleicht mit Zielen. Das obige Diagramm enthält Ziele. Aber natürlich muss nicht jedes Diagramm Ziele enthalten – zum Beispiel ist der prozentuale Anteil von Android- vs. iOS-Mobilfunknutzern keine zielbasierte Metrik, und daher können Ziele von dieser Visualisierung ausgeschlossen werden.

Amazon kombiniert Daten mit Anekdoten, um die ganze Geschichte zu erzählen. Der interessanteste Aspekt von Amazons Metrik-Deck ist jedoch die Verwendung von Anekdoten. Die Autoren schreiben:

Amazon setzt viele Techniken ein, um sicherzustellen, dass Anekdoten die Teams erreichen, die einen Service besitzen und betreiben. Ein Beispiel ist ein Programm namens „Voice of the Customer“. Die Kundendienstabteilung sammelt routinemäßig Kundenfeedback, fasst es zusammen und präsentiert es während der WBR, wenn auch nicht unbedingt jede Woche. Die ausgewählten Rückmeldungen spiegeln nicht immer die am häufigsten eingegangenen Beschwerden wider, und die CS-Abteilung hat einen großen Ermessensspielraum, was sie präsentiert. Wenn die Geschichten beim WBR verlesen werden, sind sie oft schmerzhaft zu hören, weil sie deutlich machen, wie sehr wir die Kunden enttäuscht haben. Aber sie bieten immer eine Lernerfahrung und eine Gelegenheit für uns, uns zu verbessern.

Anekdoten können alle möglichen seltsamen Probleme zu Tage fördern. Zum Beispiel:

Eine Voice of the Customer-Geschichte handelte von einem Vorfall, bei dem unsere Software einige Kreditkarten mit wiederholten Vorautorisierungen in Höhe von 1,00 $ belastet hat, die normalerweise nur einmal pro Bestellung vorkommen. Die Kunden wurden nicht belastet, und solche Vorautorisierungen verfallen nach ein paar Tagen, aber solange sie anhängig waren, wurden sie auf das Kreditlimit angerechnet. Normalerweise hätte dies keine großen Auswirkungen auf den Kunden. Aber eine Kundin schrieb uns, dass sie kurz nach dem Kauf eines Artikels auf Amazon Medikamente für ihr Kind kaufen wollte und ihre Karte abgelehnt wurde. Sie bat uns, ihr bei der Lösung des Problems zu helfen, damit sie die Medikamente für ihr Kind kaufen konnte. Eine Untersuchung ihrer Beschwerde ergab zunächst, dass ein „Edge-Case-Bug“ – eine andere Art, ein seltenes Ereignis – ihr Kartenguthaben über das Limit gehoben hatte. Viele Unternehmen würden solche Fälle als Ausreißer abtun und daher nicht beachten, in der Annahme, dass sie selten vorkommen und zu teuer in der Behebung sind. Bei Amazon wurden solche Fälle regelmäßig bearbeitet, weil sie immer wieder vorkamen und weil die Untersuchung oft angrenzende Probleme aufdeckte, die gelöst werden mussten. Was zunächst nur wie ein Randfall aussah, entpuppte sich als bedeutender. Der Fehler hatte Probleme in anderen Bereichen verursacht, die wir zunächst nicht bemerkt hatten. Wir haben das Problem für sie und alle anderen betroffenen Kunden schnell behoben.

Zusätzlich zu den Anekdoten verwendet Amazon auch Ausnahmeberichte, um Probleme aufzudecken. Zum Beispiel hat jedes Produkt, das auf Amazon verkauft wird, etwas, das „Contribution Profit“ oder CP genannt wird. Der Deckungsbeitrag ist das Geld, das Amazon nach dem Verkauf eines Artikels und dem Abzug der variablen Kosten, die mit diesem Artikel verbunden sind, verdient. Amazon verfügt über einen CP-Ausnahmebericht, der die zehn negativsten CP-Produkte (Produkte, die keinen Gewinn erwirtschaftet haben) innerhalb einer Kategorie für die vorherige Woche auflistet. Ein tieferer Einblick in diese zehn Produkte, die sich oft von Woche zu Woche ändern, kann nützliche Informationen über Probleme im Unternehmen liefern, die möglicherweise Maßnahmen erfordern.

Die Autoren kommen zu dem Schluss, dass Daten und Anekdoten eine „mächtige Kombination bilden, wenn sie synchron sind, und sie sind eine wertvolle Kontrolle füreinander, wenn sie es nicht sind.

Zusammenfassung

Die größte Erkenntnis, die ich aus Working Backwards mitnehmen konnte, war, dass man seine Prozesse instrumentieren muss, wenn man ein guter Operator sein will. Tatsächlich sagt Bryar selbst in einem First Round Interview:

„Stellen Sie sich ein Unternehmen einfach als einen Prozess vor. Es kann ein komplizierter Prozess sein, aber im Wesentlichen spuckt er Ergebnisse wie Umsatz und Gewinn, Kundenzahlen und Wachstumsraten aus. Um ein guter Betreiber zu sein, können Sie sich nicht nur auf diese Output-Metriken konzentrieren – Sie müssen die kontrollierbaren Input-Metriken identifizieren. Viele Leute sagen, dass Amazon sich nicht wirklich um Gewinn oder Wachstum kümmert. Ich denke, die Daten sagen etwas anderes, aber was stimmt, ist, dass der Hauptfokus auf diesen Input-Metriken liegt. Wenn Sie die Dinge, die Sie kontrollieren können, richtig machen, wird dies das gewünschte Ergebnis in Ihren Output-Metriken bringen. Die besten Bediener, die ich gesehen habe, wissen ganz genau, dass sie die gewünschten Ergebnisse erhalten, wenn sie diese Knöpfe drücken oder diese Hebel auf die richtige Weise drehen. Sie verstehen diesen Prozess durch und durch. (Hervorhebung hinzugefügt)“
Working Backwards ist ein fantastisches Buch. Es gibt Ihnen einen Vorgeschmack darauf, wie ein operativ rigoroses, datengesteuertes Unternehmen wirklich von innen aussieht. Kaufen Sie es, lesen Sie es, teilen Sie es mit Ihren Kollegen – ich kann es nicht hoch genug empfehlen.

Nachtrag: Ich habe einen Beitrag geschrieben, in dem ich darlege, warum ich Amazons Konzept der „kontrollierbaren Input-Metriken“ so tiefgreifend finde. Lesen Sie das hier.

Die vier Ausprägungen des Goodharts Gesetz

Goodharts Gesetz ist ein berühmtes Sprichwort, benannt nach dem britischen Ökonomen Charles Goodhart, das in der Regel lautet:

„Wenn eine Maßnahme zu einem Ziel wird, hört sie auf, eine gute Maßnahme zu sein.“

Diese Idee ist für Geschäftsleute, Manager und Datenanalysten gleichermaßen interessant – und das aus gutem Grund:

Unternehmen werden in der Regel mit Hilfe von Metriken geführt, und nur wenige Dinge sind schlimmer als eine gut gemeinte Metrik, die sich als schlecht herausstellt.

Ein berühmtes Beispiel dafür ist das, was heute als „Kobra-Effekt“ bezeichnet wird. Die Geschichte geht wie folgt: In Indien, unter britischer Herrschaft, war die Kolonialregierung besorgt über die Anzahl der giftigen Kobras in Delhi. Die Regierung hielt es für eine gute Idee, die einheimische Bevölkerung für ihre Bemühungen zu gewinnen, die Zahl der Schlangen zu reduzieren, und setzte ein Kopfgeld für jede tote Kobra aus, die ihr vor die Tür gebracht wurde.

Anfänglich war diese Strategie erfolgreich: Die Leute brachten eine große Anzahl geschlachteter Schlangen. Doch mit der Zeit begannen geschäftstüchtige Personen, Kobras zu züchten, um sie später zu töten, um ein zusätzliches Einkommen zu erzielen.

Als die britische Regierung dies entdeckte, strich sie das Kopfgeld, die Kobrazüchter ließen ihre Kobras in die freie Wildbahn, und Delhi erlebte einen Boom an Kapuzennattern.

Das Kobraproblem des Raj war damit nicht besser als zu Beginn.

Die vier Formen des Goodhartschen Gesetzes

Heute wissen wir, dass es vier Ausprägungen des Goodhartschen Gesetzes gibt. David Manheim und Scott Garrabrant legten diese Varianten in ihrem Paper Categorizing Variants of Goodhart’s Law dar. Manheim schrieb später ein weiteres Paper mit dem Titel Building Less Flawed Metrics, das er über das Munich Personal RePEc Archive verbreitete.

In ihrem Papier legen Manheim und Garrabrant ihre Argumente für die vier Kategorien in einer extrem verallgemeinerten Weise dar – was sinnvoll ist, wenn man über die Anwendungen von Goodharts Gesetz nachdenkt.

Manheim und Garrabrant interessierten sich zum Beispiel für die Auswirkungen der Idee auf die KI-Forschung (stellen Sie sich vor, Sie sagen einer superintelligenten KI, sie solle die Herstellung von Büroklammern optimieren, und sie beschließt, Menschen zu verflüssigen, um mehr Büroklammern zu produzieren …), aber ein besseres Verständnis von Goodharts Gesetz ist breit anwendbar auf die öffentliche Politik, die Unternehmensführung und die Gestaltung von Anreizsystemen.

Dieser Beitrag ist eine laienhafte Zusammenfassung der vier Ausprägungen – er soll keine erschöpfende Darstellung aller Unterfälle und Feinheiten der Theorie sein. Aber ein breites Verständnis der vier Bereiche sollte sich für den durchschnittlichen Geschäftsmann als nützlich erweisen, denke ich. Lassen Sie uns beginnen.

Regressiver Goodhart

Die erste Ausprägung von Goodharts Gesetz ist die einzige, die unmöglich zu verhindern ist.

Stellen wir uns vor, Sie müssen Kandidaten für einen Job einstellen. Was Sie wirklich messen wollen, ist ihre zukünftige Arbeitsleistung – aber Sie können dies nicht direkt während des Vorstellungsgesprächs messen. Dann erfahren Sie, dass der IQ mit der Arbeitsleistung mit etwa 0,6 korreliert. Sie beschließen, stattdessen einen IQ-Test durchzuführen. Was kann da schiefgehen?

Zunächst ist der Test ein Erfolg – Ihr Unternehmen schafft es, Mitarbeiter einzustellen, die besser sind als diejenigen, die mit dem alten Verfahren eingestellt wurden. Dadurch ermutigt, beginnen Sie langsam, Ihre Einstellungen auf den IQ und nur auf den IQ zu optimieren: Sie werben zum Beispiel damit, dass Ihr Unternehmen unglaublich wählerisch ist, dass es wunderbar ist, dort zu arbeiten, dass es voller kluger Leute ist, und so weiter. Aber nach einiger Zeit stellen Sie fest, dass die Leute mit den höchsten IQs dazu neigen, schlechtere Leistungen zu erbringen als einige der überdurchschnittlichen Kandidaten. Und mit einigen dieser Leute mit hohem IQ kann man einfach nicht zusammenarbeiten! Glückwunsch: Sie haben gerade regressives Goodhart erlebt.

Regressiver Goodhart tritt auf, weil die Messung, die Sie als Ersatz für Ihr Ziel verwenden, unvollkommen mit diesem Ziel korreliert ist. In unserem obigen Beispiel hat der IQ eine Korrelation von 0,6 mit der Arbeitsleistung, was nach sozialwissenschaftlichen Maßstäben eine gute Korrelation ist, aber das bedeutet auch, dass es noch andere Faktoren gibt, die für die Arbeitsleistung wichtig sind. Wenn Sie nur auf den IQ optimieren, werden Sie wahrscheinlich suboptimale Ergebnisse erzielen, weil Sie diese anderen Faktoren ignorieren.

Um zu verstehen, warum das so sein könnte, nehmen wir an, dass die psychologische Eigenschaft Gewissenhaftigkeit auch ein Prädiktor für die zukünftige Arbeitsleistung ist (ist sie auch, nur falls Sie sich das fragen). Wenn Sie für Leute mit einem sehr hohen IQ optimiert haben, wählen Sie im Grunde aus einem kleinen Pool von Leuten aus, da es in jeder Population weniger Leute mit einem sehr hohen IQ gibt. Die Wahrscheinlichkeit, dass Sie aus diesem kleinen Pool jemanden auswählen, der auch eine hohe Gewissenhaftigkeit hat, ist sehr gering; daher sollten wir ein Ergebnis sehen, bei dem Menschen mit den besten Arbeitsleistungen einen überdurchschnittlichen IQ haben, aber Menschen mit den höchsten IQs nicht die besten Arbeitsleistungen haben (da es unwahrscheinlich ist, dass sie auch eine hohe Gewissenhaftigkeit haben, und Gewissenhaftigkeit trägt zur Arbeitsleistung bei). Dieser Effekt wird manchmal als „der Schwanz geht auseinander“ bezeichnet.

In der Praxis ist der regressive Goodhart-Effekt unmöglich zu vermeiden, weil fast jede Messung, die man sich vorstellen kann, eine unvollkommene Reflexion der wahren Sache ist, die man messen möchte. Wenn diese Messgröße zu einem Ziel wird, dann werden Sie wahrscheinlich von Ihren wahren Zielen abdriften.

Was können Sie dagegen tun? Eine Lösung könnte darin bestehen, gegensätzliche Indikatoren zu kombinieren, wie der legendäre Intel-CEO Andy Grove einst vorschlug. Aber eine andere Möglichkeit, die Manheim vorschlägt, besteht darin, nach genaueren Messungen für Ihr wahres Ziel zu suchen – leicht gesagt, als getan.

Extremer Goodhart

Extremer Goodhart tritt auf, wenn Sie eine Messung wählen, weil sie in normalen Situationen mit Ihrem Ziel korreliert. Aber wenn Sie diese Messung dann annehmen, optimieren Sie für diese Messung, und an den extremen Enden dieser Messung bricht die Beziehung zu Ihrem Ziel zusammen.

Garrabrant gibt ein Beispiel für unsere Beziehung zu Zucker: Menschen entwickeln sich dazu, Zucker zu mögen, weil Zucker in der Umgebung unserer Vorfahren mit Kalorien korreliert war. Das funktionierte hervorragend, als wir Löwen jagten; heute jedoch führt dieselbe Optimierung dazu, dass wir Cola trinken und Doritos essen und in die Fettleibigkeit abrutschen.

Beim maschinellen Lernen geschieht dies manchmal aufgrund von „Unteranpassung“. Beispielsweise wird angenommen, dass eine Beziehung zwischen zwei Variablen ein Polynom niedrigen Grades ist, weil Polynomterme höherer Ordnung im beobachteten Raum klein sind. Dann bewegt sich die Auswahl auf der Basis dieser Metrik in Richtung der Regionen, in denen die Terme höherer Ordnung wichtiger sind, so dass die Verwendung des maschinellen Lernsystems einen Goodhart-Effekt erzeugt.

Kausaler Goodhart

Sie sind Direktor einer High School. Sie erfahren, dass Schüler mit guten Highschool-Prüfungsergebnissen bei College-Prüfungen besser abschneiden. Sie kommen zu dem Schluss, dass es sich positiv auswirkt, wenn Sie Ihren Schülern helfen, die Highschool-Prüfungen gut zu bestehen, also führen Sie ein Programm ein, das ihnen Fertigkeiten im Umgang mit Tests vermittelt. Außerdem setzen Sie Ihre Klassenlehrer unter Druck, die Schüler in leichtere Fächer zu stecken, weil das ihre durchschnittlichen Prüfungsergebnisse erhöht.

Es funktioniert nicht. Sie haben gerade den kausalen Goodhart erlebt.

Ein anderes, eher triviales Beispiel: Sie sind ein Kind. Sie haben gelesen, dass Basketballspieler mit größerer Wahrscheinlichkeit groß sind. Sie wollen groß sein. Deshalb spielen Sie Basketball.

Die kausale Variante von Goodharts Gesetz ist leicht zu verstehen. Kernidee ist, dass Sie denken, dass eine Maßnahme ein Ergebnis hervorbringt, obwohl die beiden tatsächlich korreliert sind (und möglicherweise durch einen dritten Faktor verursacht werden). Wenn Sie das eine oder das andere optimieren, beeinflussen Sie natürlich in der Regel nicht das gewünschte Ergebnis. In unserem obigen Prüfungsbeispiel ist es klar, dass High-School-Prüfungen College-Prüfungen nur insofern vorhersagen, als sie die Intelligenz, das Wissen und die harte Arbeit der Schüler (neben anderen Dingen) widerspiegeln. Der Versuch, bessere College-Resultate zu erzielen, indem man die Fähigkeit, Highschool-Tests zu absolvieren, ausreizt, ist bestenfalls von begrenztem Nutzen.

Diese Idee ist es, was die Leute meinen, wenn sie sagen

Korrelation impliziert nicht Kausalität„.

Konfliktärer Goodhart

Der Konfilktäre (Adversarial) Goodhart ist die Geschichte der Cobras unter dem britischen Raj, der auch als Kobra-Effekt bekannt ist und auch in Varianten vorkommt:

Im Jahr 1902 rief die französische Kolonialregierung in Hanoi ein Kopfgeldprogramm ins Leben, das eine Belohnung für jede getötete Ratte zahlte. Um das Kopfgeld zu kassieren, mussten die Leute den abgetrennten Schwanz einer Ratte abgeben.

Die Kolonialbeamten bemerkten jedoch Ratten ohne Schwanz in Hanoi. Die vietnamesischen Rattenfänger fingen die Ratten ein, trennten ihre Schwänze ab und setzten sie wieder in der Kanalisation aus, damit sie sich fortpflanzen und weitere Ratten produzieren konnten, was die Einnahmen der Rattenfänger erhöhte.
Ein verwandtes Beispiel für einen kontradiktorischen Goodhart ist Campbells Gesetz:

„Je mehr ein quantitativer sozialer Indikator für die gesellschaftliche Entscheidungsfindung verwendet wird, desto mehr unterliegt er dem Druck der Korruption und desto eher ist er geeignet, die sozialen Prozesse, die er überwachen soll, zu verzerren und zu korrumpieren.“

Sie können sich eine Situation vorstellen, in der eine Regierung sagt, dass alle ihre politischen Maßnahmen auf „Beweisen“ basieren müssen, und daher entsteht ein großer Druck (und ein großer Anreiz!) für die verschiedenen Akteure im System, die „Beweise“ zu manipulieren, zu polieren und zu massieren, um die Regierungspolitik zu rechtfertigen.

Die allgemeine Idee hierbei ist, dass ein Agent für eine Metrik auf eine Art und Weise optimieren kann, die das Ziel der Metrik vereitelt (der Kobra-Effekt), oder der Agent kann sich dafür entscheiden, für eine Maßnahme auf eine Art und Weise zu optimieren, die den Vorhersageeffekt dieser Maßnahme reduziert.

Lösungsvorschlag?

Manheim schlägt vor, „Pre-Mortems“ durchzuführen, wie z. B.: „Ok, diese Maßnahme, die wir gerade wählen, ist in der Zukunft schief gelaufen, was ist passiert?“ Er weist darauf hin, dass in einer Gruppe gar nicht so viele Leute anwesend sein müssen, bevor sich jemand ein plausibles Schreckensszenario einfallen lässt.Da haben Sie es also: vier Varianten von Goodharts Gesetz. Wenn Sie sich an nichts anderes aus diesem Beitrag erinnern, dann merken Sie sich dies:

Wenn Sie weniger Schlangen in Ihrem Garten haben wollen, dann zahlen Sie nicht für tote Schlangen.

Nach oben scrollen