Wieviel Prozent Umsatz mit welchen Top Kunden?

Wieviel Prozent Umsatz mit welchen Top Kunden?

Mit diesem Tableau Public Dashboard können mit einen Schieberegler (oben links) die Top n Kunden selectiert werden.
Ausgewiesen werden die dahinterliegenden Bestellungen, der Prozent-Anteil der Top-Kunden und das Prozent-Gesamtverhältnis zum Gesamtvolumen.

Der Tableau-Public-Link: https://public.tableau.com/profile/tensai#!/vizhome/Top_n_xProzent_Umsatz/DashboardTopnfromALLOrders

RFM – frequency – Marketing Analyse mit Monat-Parameter

RFM – frequency – Marketing Analyse mit Monat-Parameter

Beispiel für eine Frequency-Marketing-Analyse (RFM):

Wie viele Kunden haben innerhalb von n Monaten erneut gekauft: Erstkauf, Zweitkauf, Drittkauf (First Order, Second Order, Third Order) mit Monats-Parameter.
Umgesetzt mit Tableau:

Der Link zu Tableau-Public:
 https://public.tableau.com/views/RFM-frequency-MarketingAnalysisFirstSecondThirdOrderDate/DashboardRepeatPurchasing?:embed=y&:display_count=yes

 

 

Retouren vergleichen

Retouren vergleichen

Ausgangslage:

  • Produkte unterschiedlicher Kategorien werden geliefert
  • Retouren werden innerhalb von 14 Tagen getätigt

Frage: WIE kriegt man diese Verzögerung „übereinander“ dargestellt

Lösung:

  • Durch eine variable Positionierung werden die beiden Werte sukzessive „übereinander“ bzw zueinander gestellt und werden somit vergleichbar
Compare sales and retour

 

Hier finden Sie die Arbeitsmappe auf Tableau-Public:
(link:https://public.tableau.com/views/CustomerSalesList_Retouren_compareResults/DashboardRetouren?:embed=y&:display_count=yes&publish=yes)

Mitarbeiter-Strukturentwicklung…

Mitarbeiter-Strukturentwicklung…

… in Form von Bevölkerungspyramiden.

diesem Beispiel liegt eine Excel-Mitarbeiter-Datentabelle zu Grunde (Testdaten), die ca 1.000 Datenzeilen und die wesentlichen Spalten wie enthält Filiale, KST, Name etc, Einstellungs- & Geburtsdatum, Adressdaten, Gehalt etc.

In diesem Beispiel kann zum einen die Personalstruktur in Hinsicht auf Alter, Gehalt und Erfahrung sowie die Entwicklung der Mitarbeiterstruktur für die kommenden Jahre, basierend auf Einstellungsdatum und Geburtsdatum untersucht werden.

Darstellung als animierte GIF

Umsetzung mit Tableau:

1: Dashboard mit wesentlichen Merkmalen:

Mitarbeiterentwicklung Bevölkerungspyramide Dashboard

 

2: Alterstrukturentwicklung „Forecast“ bei aktuellem Personalstand (dieses Beispiel startet im Jahr 2016):

Mitarbeiterentwicklung_Bevoelkerungspyramide

Sie finden dieses Beispiel mit der Altersstrukturentwicklung auch online bei Tableau-Public:

https://public.tableau.com/views/PersonaldatenPyramide-EntwickklungundStruktur/DashboardEntwicklungJahre?:embed=y&:display_count=yes

 

Power-BI = Self-Service-BI?

Power-BI = Self-Service-BI?

Power-BI = Self-Service-BI?

Mit der Version 2013 hat Microsoft Excel um einige bemerkenswerte Add-Ins aufgerüstet:

  • Power-Query
  • Power-View
  • Power-Map (ehemals GeoFlow)           und zuvor bereits:

Power-Pivot  (ab der Version 2010) Während Power-Pivot ab der Version 2013 als Add-In vorinstalliert (aber nicht aktiviert) ist, sind die 3 anderen BI-Tools bei Bedarf nach zu installieren und kostenlos verfügbar:

Nach der Installation müssen die Tools ggf. über die Add-In-Steuerung der Excel-Optionen aktiviert werden (Haken setzen).

Zusätzlich wird das Tools INQUIRE angeboten. Hierbei handelt es sich allerdings weniger um BI sondern eher ein Arbeitsmappen-Analyse-Tool.

Zudem wird über PowerBI.com der BI-Dashboard-Designer -Tool entwickelt, das derzeit im Preview-Modus vorliegt und Power-View sowie Power-Query vereinigt, also auch unabhängig von einer Primäranwendung wie Excel als eigenständiges Frontend-Tool.

Hier vorab ein Excel-Power-Map-Beispiel:

Es sei an dieser Stelle bereits vorab darauf hingewiesen, dass Rechner, auf denen diese Tools installiert werden, vorzugsweise mit „einigen PS unter der Haube“ ausgestattet sein sollten, soll heißen, diese Tools sind nicht gerade Ressourcenschonend. Bei „älteren“ Rechnern sollte ggf. geprüft werden, ob sich eine Installation anbietet. Überdies werden die Dateien nennenswert größer.

Bei der Verwendung der BI-Tools ist es hilfreich, wenn Ihnen die Nutzung von Pivot-Tabellen weitgehend geläufig ist und Ihnen der Begriff „Datenmodell“ nicht gänzlich fremd erscheint.

(Hinweis zu Datenmodell, Begriffsdefinition aus Gabler-Wirtschaftslexikon:  “ in der Datenorganisation Modell der zu beschreibenden und verarbeitenden Daten eines Anwendungsbereichs (z.B. Daten des Produktionsbereichs, des Rechnungswesens oder die Gesamtheit der Unternehmensdaten) und ihrer Beziehungen zueinander.“)
Quelle: http://wirtschaftslexikon.gabler.de/Definition/datenmodell.html#definition
Bedeutend hierbei: „..und Ihrer Beziehungen zueinander“

Etwas verkürzt formuliert bedeutet das in etwa, dass eine Art reduzierter Datenbanktreiber initialisiert wird, der die Grundfunktionalitäten einer SQL-Datenbank zur Verfügung stellt und es dem Anwender somit ermöglicht, Beziehungen zu Tabellen zu erstellen und diese in weiteren Analysis-Tools zu bearbeiten wie Power-Pivot (der alle im Datenmodell aufgenommenen Tabellen automatisch erkennt) oder Power-View.

Der Begriff BI (also Business Intelligence) ist in der Szene seit den 90ern ja „hart umkämpft“, aus der „oberen Liga“ vernimmt man gelegentlich abschätzige Blicke auf Excel und unkt mit Begriffen wie „self-service-BI“ (ein Begriff, den MS allerdings auch selber verwendet). Ich muss gestehen, dass ich genau darin den Nutzen sehe. Sicher muss nicht weiter diskutiert werden, dass diese Tools nicht die „Champions-League“ der BI darstellen können, aber auf der Front-End-Ebene (also der Anwendungsebene) wirklich gute Möglichkeiten für Datenintegration und -analyse bieten.

Was kann ich mit diesen Tools machen?

Power-Query:

Wie der Name schon sagt, handelt es sich um ein Datenabfrage-Tool (ETL=extract, transfer, load), also das Daten-Ingetrations-Tool, das zudem über eine eigene, zusätzliche Formeln- bzw. Funktions-Sprache (Syntax) verfügt.

Hier die Liste der Power-Query-Funktionen: http://office.microsoft.com/en-us/excel-help/power-query-formula-categories-HA104122363.aspx, auch Steuerungen wie IF THEN ELSE können auf Spaltenebene verwendet werden.

Daten unterschiedlichster Quellen (auch Web-Daten oder Power-Pivot) können miteinander kombiniert und modelliert werden und in Berichten (Reporting) anderer  Programmen eingebunden werden.

Eine Einführung zu PowerQuery von Microsoft findet sich HIER

Eien Auflistung der Spezifikationen und Beschränkungen HIER

Power-View

Das ist das Reporting-System. Sie finden es nach der Installation (und Aktivierung als Add-in) im Menü (Ribbon) unter EINFÜGEN, basierend auf einer Tabelle oder einem Datenmodell (bspw. einer Pivot-Tabelle, die sich auf mehrere in Beziehung stehende Tabellen bezieht) können auf einem separaten Blatt (in etwa vergleichbar mit Diagramm-Blättern) unterschiedliche Reporting-Elemente eingestellt werden: Diagramme (unterschiedlichen Stils), Pivot-ähnliche Auswertungen, mit oder ohne Kacheln als Steuerungs-Elemente, Karten u.ä. Sehr angenehme dabei ist u.a., dass diese verschiedenen Elemente untereinander in Abhängigkeit gesetzt werden, so dass ein Klick auf die Säule eines Diagramm sofort die Bezüge und Vergleiche in allen anderen Diagrammen und Auswertungen visualisiert.

Beispiel: Sie werten Kundendaten in Bezug auf Kategorien und Bundesländer aus. In einem Diagramm sehen Sie summierte Mengen je Kategorie, in dem anderen summierte Mengen je Bundesland. Mit einem Klick auf eine Kategorie sehen Sie jetzt die proportionalen Anteile in den Säulen der einzelnen Bundesländer:

Ausgewählt ist hier die Kategorie „B“, es wird die proportionale Verteilung in den einzelnen Bundesländern ausgewiesen:

MaschinenProduktionsAuftrasege_PowerVew_nachRegionKategorie

Und hier quasi das „Gegenteil“: ausgewählt wurden die Bundesländer Berlin und Niedersachsen, in den Kategorien ist die proportionale Verteilung zu erkennen:

MaschinenProduktionsAuftraege_PowerVew_nachRegionKategorie2

Zudem können mehrere Filter in Bezug auf Spalten gesetzt werden.

Power-Map

Das „Daten auf Karten“-Tool. Basierend auf BingMaps können die eigenen Daten auf Geo-Punkte gesetzt werden. Voraussetzung dafür ist zum einen eine bestehende Internetverbindung und natürlich die Kleinigkeit, dass auch irgendwelche interpretierbaren Geo-Daten vorhanden sind. Das kann ein PLZ-Spalte (oder Zip-Code) sein, oder eine Spalte mit Städte-, Länder- oder Bundesländer-Namen. Ggf. kann es erforderlich sein, diese Spalten, sofern sie bei der Verwendung nicht automatisch erkannt werden, einer Geo-Interpretation zuzuordnen.

Weiterhin sollte eine auswertbare Werte-Spalte vorliegen, die den Geo-Spezifikationen zugewiesen werden können. Somit werden Säulen (oder Heatmaps) auf eine 3-D-Karte projiziert . Sofern eine Datum oder Zeit-Spalte vorliegt, kann diese als Zeit-Leiste die Säulen oder Heatmaps animieren.

Zudem können einzelne Szenen erstellt und daraus ein Film generiert werden, nach dem Motto „Daten erzählen Geschichte(n)“, data-story-telling, siehe obiges Beispiel.

Tableau Maschinenbelegungsplan mit benutzerdefiniertem Hallenplan

Tableau Maschinenbelegungsplan mit benutzerdefiniertem Hallenplan

Für die Tableau-Analyse dieser GIF-Animation wurde ein benutzerdefiniertes Hintergrundbild verwendet. Die Maschinenpositionen werden über X- und Y-Achsen definiert. Der belegungsplan läuft über eine Datum- & Uhrzeit-Zeitachse. Weitere Filter sind: Hersteller und Maschine. Die Linienwerte werden per Parameter als Kosten oder Ausschuss auf Monats-, Wochen- und Tagesdarstellung ausgewertet. Die einzelnen Analysen werden als kontextsensitive Filter auf einem Dashboard analysiert.

Daten-Quelle: Testdaten

Kanzlei-Manager-Analyse (Tableau)

Kanzlei-Manager-Analyse (Tableau)

Auszug aus der Tableau-Analyse für den Kanzlei-Manager, in Kooperation mit Oellrich-Solutions und STB-Sievert
(nähere Informationen zur Software Kanzlei-Manager bitte über Oellrich-Solutions bzw. STB-Sievert)

Hier ein paar kurze Eindrücke über einige der insg. 12 Dashboards:

Kurzer Eindruck: Dashboard Nachkalkulation (GIF-Schleife):

km_dashboard_nachkalkulation_tableau

 

 

 

Kurzer Eindruck: Dashboard Offene Kosten (GIF-Schleife):

km_dashboard_offene

 

 

 

Kurzer Eindruck: Dashboard Mitarbeiter-Umsatzentwickklung (GIF-Schleife):

km_dashboard_mitarbeiter_umsatzentwicklung

 

just a small example

Just a small demo/example for Tableau-Public:

Dieses kleine Beispiel, das lediglich der Veranschaulichung einer eingebundenen Tableau-Public-Analyse dient, basiert auf Beispieldaten aus dem Finance-Segment.

Analysen, die auf Tableau-Public veröffentlicht werden, sind allgemein sichtbar.

Der „Daten-Dreisatz“ und die Prim(är)-Zahlen

Der „Daten-Dreisatz“ und die Prim(är)-Zahlen

Nach der Einrichtung eines einfachen „adhoc“-Erfassungs- und Auswertungs-Tools wurde ich kürzlich  erneut auf ein generelles Missverständnis in Sachen der „Bewertung“ von Daten aufmerksam. Der Kollege (für den dieses Tool bestimmt war und der durchaus über gute Anwendererfahrung verfügt) wunderte sich, wie der die eingerichteten Tabellen verwenden solle. Ich musste ihm daraufhin den Daten-„Dreisatz“ SVA erläutern: SVA steht hier für Stammdaten, Verlauf, Auswertungen. Die Stammdaten: Sinn und Zweck: Erfassen (oder importieren) von Datenzeilen, in der jede Datenzeile (Datensatz) an mind. Einer Position ein-eindeutig ist. Bspw. sollte eine laufende Nummer verwendet werden oder bei Kunden- bzw. Artikeltabellen eine Kunden- bzw. Artikelnummer. Man muss nicht zwangsläufig über detaillierte Kenntnisse der Normalisierung verfügen um eine brauchbare Tabellenstruktur zu erstellen, sollte aber unbedingt folgendes beachten: Mindestens die erste Normalform (NF1): Hierfür existieren die aufwändigsten Beschreibungen (auch auf Wikipedia heißt es: „Jedes Attribut der Relation muss einen atomaren Wertebereich haben. (Anm.: statt „atomar“ wird auch die Bezeichnung „atomisch“ verwendet“) Kurzgesagt bedeutet das, dass jeder Wert in EINER Spalte erfasst werden sollte, also NICHT PLZ und ORT in ADRESSE zusammenfassen. Jede zusammengehörende „Datengruppe“ sollte in je einer Tabelle erfasst werden: Kunden in einer Kundentabelle, Artikel in einer Artikeltabelle, Gewerke in einer Gewerketabelle etc. und schon ist das Prinzip Stammdaten (zumindest grundsätzlich) umgesetzt. Die Verlauf-Daten: In aller Regel „passiert“ mit den Daten ja irgendetwas. Beispielsweise werden Artikel an Kunden verkauft und geliefert. Dazu gehören mindestens folgende „Attribute“, also Spalten: ein Datum, ein bestimmter Artikel der an einen bestimmten Kunden in einer bestimmten Menge verkauft wird (in aller Regel natürlich deutlich mehr). In der Verlaufstabelle werden Artikel- und Kundendaten aus den Stammdaten-Tabellen verwendet und für gewöhnlich ist es sinnvoll, die Erfassung der Daten für die Verlaufstabelle so einzustellen, dass NUR Daten erfasst werden, die über die Stammdaten auch referenziert werden können. Bei Excel kann das über die Daten-Validierungsmöglichkeit (Daten / Datenüberprüfung) eingestellt werden, Datenbank-Programme verfügen über weitere Möglichkeiten. Auswertung, Quelle: pixelio Die Auswertungen: …beziehen sich in aller Regel auf die Verlaufsdaten. Ein klassisches (und sehr effektives) Beispiel wäre, dass die Verlaufsdaten zu einer Pivot-Tabelle „verdichtet“ werden, um nach Artikeln, Regionen, Datumbereiche u.ä. die Summen  von Warenwerten (die sich aus der Multiplikation von Mengen der Verlaufstabelle und Einzelpreisen aus der Artikeltabelle errechnen lassen) darstellt. Auch Stammdaten können ausgewertet werden. Wenn Sie bsp. eine Übersicht über die Verteilung Ihrer Kunden benötigen, kann eine Auswertung über den PLZ-Bereich erstellt werden. In Pivot-Tabellen können PLZ-Einträge beliebig gruppiert werden. Auswertungen können immer wieder neu erstellt oder geändert oder ergänzt werden, sie „berühren“ die Datendaten nicht. Die Prim(är)-Zahlen Die „Hauptdaten“ kommen aus dem Primärsystem, das meist über einen längeren Zeitraum entwickelt wurde und in der Regel auch für einen längeren Zeitraum verwendet werden soll. Geradezu zwangsläufig ergibt sich durch diesen Umstand die Tatsache, dass Primärsysteme kaum die Chance haben, mit der Zeit Schritt zu halten und allen Anforderungen der Anwenderseite zu entsprechen. Genau dieser Punkt stellt oftmals ein Ärgernis dar, denn die Anforderungen ändern sich schneller als ein Primärsystem mitwachsen kann. Somit entwickeln sich schnell Sekundärsysteme, die häufig auf „einfachen“ Systemen wie Excel oder Access aufsetzen. Dabei kann  „einfach“ hier kaum ernst gemeint sein, denn diese Programme sind keineswegs „simpel“. Auch das Reporting-System von Access ist nicht unbedingt schlechter als das von „größeren“ Anbietern, es kommt einfach darauf an, wie umfassend die Ergebnisse generiert werden sollen. Seit der Version 2013 bietet auch Excel mit PowerView ein Reporting-System und mit GeoFlow ein interessantes Visualisierungs-Tool  an. Ein Frontend-System (also ein System, mit dem der Anwender lokal oder bspw. über Citrix arbeitet) an das Primär-System anzubinden ist nicht in jedem Fall ganz einfach, und in vielen Fällen auch nicht gewünscht. So stellen nicht alle Anbieter ODBC-Treiber kostenlos zur Verfügung. Als Alternative können aber die meisten Primär-Systeme (SQL-Server, aber auch SAP etc.)  Datenexporten anbieten. Manchmal entwickeln sich regelrecht kleinere „Kämpfe“ um die Daten. Exportdaten können dann mit den eigenen Daten ge-„merged“ also zusammengestellt oder gemischt werden. Dafür sind in aller Regel allerdings Automatisierungs-Routinen erforderlich, und um die einzustellen, ist dann wiederum oft ein „Auskenner“ erforderlich 😉

So müsste Technik!

So müsste Technik!

Kunden-Support nach außen und Kommunikation des Unternehmens nach innen werden oft genug als zwei verschiedene Stiefel betrachtet, dabei ist der Markt doch mittlerweile hinreichend gefüllt mit System-Angeboten, die für Abhilfe sorgen sollen.

Bei einer Produkt-Recherche zum Thema e-Ticket, Wiki und Wissensdatenbank, die ich aus aktuellem Anlass in den letzten Wochen durchgeführt habe, musste ich allerdings feststellen, dass sich der Markt zum einen unübersichtlich gestaltet und sich zum Weiteren die Anbieter vorzüglich in der Kunst verstehen, die Vorzüge Ihrer Systeme dem Interessenten gegenüber zu verheimlichen.

Ich habe eine tabellarische Aufstellung über die Anforderungen erstellt, die ich zusammen mit meinem Kunden ausgearbeitet habe und die Anbieter danach abgeglichen, wohlbemerkt zunächst NICHT mit angebotenen Testversion (das sollte erst im nächsten Schritt nach einer Vorauswahl erfolgen – sofern die Anbieter eine Testversion vorsahen, auch das war eines der Kriterien), sondern „nur“ nach einer Recherche der System-Beschreibungen, Produkt-Videos und evtl. FAQ und Foren.

Geradezu unmöglich war es dabei herauszufinden, WO (also in welchem Rechtsbereich) die Cloud-Daten abgelegt werden, dabei hat ist in der letzten Zeit doch mehrfach journalistische Hinweise auf die potentielle rechtliche Problematik gegeben. Nicht jeder bietet eine Testversion an und bei manchen der Anbieter finden sich diesbezügliche Hinweise erst, nachdem die Homepage umständlich durchsucht wird. Installationsanleitungen scheinen insb. Bei Open-Source-Produkten mit dem Zufallsgenerator übersetzt. Demos werden meist als Screenshots zur Verfügung gestellt, teilweise OHNE die Möglichkeit durch die Screenshots „durchzublättern“ (also lauter Einzelaufrufe). In einigen Fällen werden Tutorials angeboten, die qualitativ recht unterschiedlich ausfallen. Von „Home-made“ (schlechte Sound- und Bildqualität) bis höchst professionell war alles dabei.

Bei den sehr professionellen Videos musste ich allerdings mehrfach feststellen, dass es sich dann zumeist um Werbe-Clips handelt, die dem Betrachter des Videos mittels angebliche überzeugter Kunden die enormen Vorteile des Systems mit Begeisterung vortragen, dann aber die Details aussparten. Gesondert sei hier Salesforce aber auch ZenDesk genannt (der zweitgenannte verfügt zudem über einen durchaus Kinoreifen Kurzfilm, leider jedoch ohne nennenswerten informativen Nährwert) Im Einzelfall waren keine Preise zu ermitteln, selbst bei einer Mail-Anfrage erhielt in bei einem Anbieter lediglich eine Link-Liste zu den Produkt-Vorzügen, aber OHNE Preisangaben. Nur wenig Anbieter boten bei meiner Recherche für die meisten Fragen auch verwertbare Antworten (sofa-helpdesk und logatech-it).

der Schrei! (by Joschka Knoblauch, Quelle pixelio.de)
der Schrei! (by Joschka Knoblauch, Quelle pixelio.de)

Liebe Software-Anbieter: BITTE: Wenn ich ein Produkt-Video sehe, möchte ich auch gerne sehen WIE das funktioniert und welche Funktionalitäten mir angeboten werden. Wenn Screenshots zur Verfügung gestellt werden, möchte ich nicht jeden Screenshot einzeln aufrufen. Ich möchte bei einer Cloud-Lösung wissen, Wo sich meine Daten befinden. Ich möchte umstandsneutral eine Information über die Preisgestaltung erhalten.

Vielen Dank!

Gute Seiten, schlechte Seiten

Gute Seiten, schlechte Seiten

Kunst kommt von „können“? Ansichtssache. Und Präsentieren kommt von praesentia. Und das heißt Gegenwart. Eine Präsentation soll also etwas vergegenwärtigen. Und dazu werden gerne Infografiken eingesetzt.

In der großen Welt der Datenkonsolidierung und -reduktion mit dem Ziel einer vereinfachten Aussage führt das durchaus schon mal zu Missverständnissen. Bei Seminaren mache ich mitunter die Erfahrung, dass Mitarbeiter für ihre Vorgesetzten aus einem nennenswerten Datenberg zu einer „Ampel-Aussage“ gelangen sollen. Das heißt, dass mitunter gigantische Datenabzüge aus unterschiedlichen Quellen zu der Aussage „gut“ oder z.B. „schlecht“ führen soll, dargestellt in ROT, GELB oder bestenfalls bzw. wünschenswerterweise GRÜN. Jeder, der schon mal mit dem Problem der Zusammenführung von Daten befasst war, weiß, dass, mal abgesehen von dem Problem der Datenbereinigung, noch weitere „Unwägbarkeiten“ das Ergebnis „beeinflussen“ können. Das gewünschte Ampel-Resultat ist zwar für eine Entscheidungsinstanz nicht gänzlich unverständlich, aber vielleicht doch etwas zu sehr simplifiziert, und genau da lassen sich wunderbar die in Mode gekommenen Infografiken einsetzen.

Bei Infografiken handelt es sich um ein Mittel, auf unterschiedliche und manchmal recht „überraschende Weise“, einen komplexen Sachverhalt einem Laien verständlich zu machen. Die Daten-Verdichtung durch Diagramme ist zweckmäßig, aber häufig langweilig und insbesondere durchaus bestens für Manipulationen geeignet. Infografiken eignen sich durchaus sogar noch besser für Manipulationen, aber im Gegensatz zu Diagrammen und den ewigen Powerpoint-Präsentationen, die seriös daherzukommen versuchen und manchmal schon deshalb für Misstrauen sorgen, ist der „Sinn“ der Darstellung über eine Infografik in ihrer gesamten „Theatralik“ erkennbarer und erreicht somit eine andere Form der Akzeptanz.

Im folgenden möchte ich ein paar Beispiele benennen, die ich nach meinem persönlichen Empfingen für gelungen bzw. weniger gelungen halte.

1. Sehr gelungen:  STOCK-CHECK: http://visual.ly/remaining-oil-gas-coal
Grund: einfach gehalten, schon bei oberflächlichem Hinsehen erschließt sich die Aussage. Einsatz weniger Farben und weniger Symbole. Kein ablenkender Hintergrund. Wenige, deutlich erkennbare Zahlenwerte. Drei kleine integriert Diagramme, zudem eine Weltkarte mit gut erkennbarer Verteilung. Weiterhin Angabe von Quellen am Ende der Grafik

2. Weniger gelungen: EVOLUTION OF SMOKING: http://visual.ly/evolution-smoking
Grund: Zu dicht, unklare Datenlage (keine Quellenangabe), zu sehr überladen mit unterschiedlichen Stilmitteln, unruhige Erscheinung des Gesamtbildes. Ablenkender Hintergrund (sinnfreier Farbverlauf)

3. Ebenfalls weniger gelungen: FACEBOOK-IPO: http://visual.ly/facebook-ipo-0
Grund:  Der Sinn dieser Grafik erschließt sich erst nach mind. zweimaligem Hinsehen. Farbgebung uneinheitlich und unklar (warum zwei Blau-Töne und dann plötzlich lila?). Allerdings gibt es einen Hinweis auf die Datenlage.

4. Ganz anders hingegen hier wieder ein gut gelungenes Beispiel: THE GULF OF MEXICO OIL SPILL:   http://visual.ly/gulf-mexico-oil-spill
Grund: einfach und transparent, Passender farblicher Hintergrund, klar in den Symbolen und der Aussage, auch die Datenquelle wurde nicht vergessen. Kleines Manko: recht kleine Schrift.

5. Ein weiteres interessantes und im Prinzip gut gemachtes Beispiel: COFFEE & CALORIES: http://www.informationisbeautiful.net/visualizations/caffeine-and-calories/
Grund: klare Aufteilung, bedarf  aber einen Moment der Orientierung insbesondere müssen die Skalen erst einmal „entdeckt“ werden. Leider bleibt die Datenlage hier etwas unklar (abgesehen von dem Verweis auf  Hersteller und Vertrieb).

6. Gute Idee, aber…: COLORS IN CULTURES: http://www.informationisbeautiful.net/visualizations/colours-in-cultures/
Grund: interessant gemacht, aber leider keine durchgehende Linienführung. Nachteil: versuchen Sie z.B. mal herauszufinden, welche Farbe in China für peace steht.

7. Immerhin klare Aussage: WENIGE LEISTEN SICH VIEL: http://www.agenda21-treffpunkt.de/archiv/04/10/DWHHkonsum-g.jpg
Grund: Gute gemachte Gegenüberstellung. Aussage ist eindeutig. Datenlage bleibt aber „Vertrauenssache“. Hintergrundfarbe scheint der Sichtbarkeit des Inhaltes geschuldet, grauer Balken steht nicht im Kontext zum Inhalt.

8. Klasse (einer meiner persönlichen „TOPs“): Wirtschalftsdaten sichtbar gemacht: Die Schokolandenseite: http://images.zeit.de/wissen/2009-12/41-infografik-schokolade.pdf
Grund: Schon am Bild sofort erkennbar um was es geht; die „Bruchstücke“ im erkennbaren relativen Verhältnis; keine verwirrenden und unnötiten Elemente in der Grafik; Quellenangabe vorhanden

Und hier die ultimative „Mutter aller Infografiken“ 😉 :

Ein System das nicht lebt ist tot!

Ein System das nicht lebt ist tot!

Zu dieser wenig überraschenden Einsicht gelangt man, wenn man sich lange genug durch die Forenwelt in Netz geklickt hat. Es gibt hervorragende Beispiele von Foren, bei denen die Betreiber einfach alles richtig machen. Und es gibt Foren, bei denen das nicht so ist. Ich meine damit übrigens durchaus gar nicht mal die Inhalte, manche Foren und/oder Groups (auch bei Xing) sind derart speziell, dass sich dort nicht gerade minütlich Threads sammeln, dennoch können sie hoch effektiv und inhaltlich geradezu einzigartig und somit von hohem Wert sein.

Ich meine die Moderation! Zwar ist man als Benutzer eines Forums oder einer Gruppe nicht direkt mit einem Gegenüber befasst, aber dennoch merkt man doch recht schnell, ob ein Forum moderiert wird. Wenn nicht, „fühlt“ es sich tot an. Und dann stirbt ein derartiges System auch recht schnell.

Mir sind Beispiele bekannt, bei denen das dennoch versucht wurde. Beispielsweise wurde eine Online-Bildagentur ins Netz gestellt und dann davon ausgegangen, dass das „schon von selbst läuft“. Es lief nicht. Kein einziges Bild wurde verkauft! Oder ein Forum, das mit einem einprägsamen Namen einfach ins Netz gestellt wurde und in dem sich im Laufe von wenigen Wochen wenig Sinnhaftes ansammelte. Das Forum starb noch vor seinem ersten Geburtstag, es wurde einfach nicht mehr genutzt.

Es bedarf eines lebenden Menschen aus Fleisch und Blut der zuständig ist, der „dafür steht“, der ansprechbar ist, der re-agiert.

Genauso wie im weltweiten Netz, verhält es sich auch in internen Netzen, Stichwort „Wissensmanagement“. Auch hier ist mir ein Beispiel bekannt, bei dem ein großes Unternehmen in einer hoch-kompetenten Arbeitsgruppe die Voraussetzungen für ein Wissensmanagement-System erarbeitet hat. Nachdem die Arbeitsgruppe ihre vorbereitende Projektarbeit beendet hatte, gab es plötzlich niemanden mehr, der für die Umsetzung einstand. Das System wurde nicht realisiert. In einem anderen Beispiel ging es umgekehrt zu. Ein komplexes System für ein Wissensmanagement wurde realisiert und die Mitarbeiter wurden nicht „mitgenommen“; weder an der Planung beteidigt noch eingewiesen, noch nicht mal richtig informiert. Geschweige denn, dass zu Beginn bereits verwertbarer content eingepflegt wurde. Die Anwender navigierten einige Zeit im luftleeren Raum, das komplexe und teure System starb den Erstickungs-Tod.

Mehr zum Thema „Wissens-Management“ gibt es HIER

„Das behalte ich doch besser für mich…“ Wissenstransfer im Unternehmen

„Das behalte ich doch besser für mich…“ Wissenstransfer im Unternehmen

Was machen Sie mit Mitarbeitern die aus dem Unternehmen ausscheiden?

Wie vermitteln Sie neuen Mitarbeitern die erforderlichen Informationen?

Indikatoren für das Ausscheiden von Mitarbeitern:

  • Beendigung des Arbeitsverhältnisses (Kündigung seitens des Mitarbeiters oder des Unternehmens, Vertrag ausgelaufen und nicht verlängert)
  • Beendigung der Lebensarbeitszeit – (Eintritt ins Rentenalter)
  • Wegzug eines Mitarbeiters
  • Tod eines Mitarbeiters

Abgesehen vom Tod eines Mitarbeiters, lassen sich die meisten andreren Termine in der Regel recht genau absehen.

Auch wird sich ein Unternehmen gewiss regelmäßig Gedanken über die Personalentwicklung in den nächsten Jahren machen oder gemacht haben. Aber Silvester und Weihnachten kommen ja immer so plötzlich.

Einige Indikatoren für „neue Mitarbeiter“:

  • Einstellung (Festanstellung, Zeitvertrag / Zeitarbeit / Projektarbeit)
  • Abteilungswechsel
  • Ortswechsel (Filialwechsel)
  • Einstellung von Auszubildenden
  • Vertragliche Verpflichtung von externen Mitarbeitern

Gewiss erinnern Sie sich noch an die Zeit, in der längst verrentete Mitarbeiter „wieder ausgegraben“ wurden um z.B. ältere Software anpassen zu können. Ein Beispiel war das sog. „Millenium Problem“ um die Jahrtausendwende. Diese Mitarbeiter wurden seinerzeit aus den Unternehmen entlassen, OHNE dass sichergestellt wurde, dass deren Wissen hinreichend dokumentiert war.

Lohnt es sich überhaupt, Wissen zu sichern/speichern, wo Wissen doch so schnell veraltet? Grade deshalb! In vielen Fällen veraltet ja nicht das Wissen, zumeist verändern sich lediglich Details oder Parameter von Informationen und/oder Verfahren  – klassisches Beispiel: Einführung eines neuen Software-Releases oder die Modifikation eines Arbeitsablaufes („…das Formular X geht jetzt nicht mehr über A, sondern direkt an B“)

Die Gründe für den Aufbau eines Wissens-Management liegen in der Regel auf der Hand und von deren Notwendigkeit braucht in der Regel auch kaum jemand überzeugt zu werden. Dennoch seien hier einige wesentlichen Gründe genannt:

  • Transparenz von Informationen (welche Information gehört in welchen Bereich?)
  • Übersichtlichkeit von Zuständigkeiten (auch in anderen Filialen, Geschäftsstellen, Standorten)
  • Ablaufprozesse werden beschrieben
  • Wissen geht nicht verloren (siehe hier insbesondere die Beispiele, in denen Mitarbeiter das Unternehmen verlassen und ihr Wissen „mitnehmen“)
  • Informationen liegen idealerweise aktuell vor.
  • Zur Beschaffung von Informationen muss nicht darauf gewartet werden, dass der zuständige Mitarbeiter Zeit hat oder aus dem Urlaub oder von sonstiger Abwesenheit zurückgekehrt ist
  • Fragende Mitarbeiter können sich an ein „anonymes System“ wenden  (und können sich auch „trauen“ Fragen zu stellen)
  • Beschreibung von verwendeten Materialien für die Produktion
  • Beschreibung der Beschaffung (von Materialien, Büromaterial, internes Antragswesen etc.)
  • Unternehmens-Richtlinien z.B. für Beschaffung, Ausschreibungen, Pausenregelungen, Hausordnung(en), Urlaubsregelungen etc.
  • Auszubildenden steht eine Möglichkeit zur Verfügung, Informationen nachzuschlagen
  • Gebrauchsanweisungen und Verfahrensbeschreibungen liegen zentral vor und müssen nicht „zusammengesammelt“ werden.

Zur Durchsetzung eines entsprechenden Systems liegt der „Schwachpunkt“ oft der Verifizierbarkeit und das Problem der Quantifizierung.

  • Ist die Einführung im Vorfeld hinreichend und konstruktiv kommuniziert worden?
  • Wird das System genutzt? (fühlen sich die Mitarbeiter mit dem System wohl?)
  • Sind die Informationen hilfreich und verständlich (ein „das hat mir (nicht) geholfen“-Button ist gewiss zu bedenken)
  • Kann eine Zeitersparnis genannt (und ggf. quantitativ benannt) werden? (Interviews der Nutzer nach einer gewissen Nutzungs-Zeit nach Einführung)
  • Ist „Zeitersparnis“ überhaupt  das „Maß aller Dinge“? Führen die Erkenntnisse mittelfristig dazu, dass die Erledigung von Aufgaben besser und sicherer, mit geringerer Fehleranfälligkeit (oder eben auch schneller) durchgeführt werden?
  • Sind die Inhalte angemessen in der Darstellung und im Umfang (Vermeidung von Quassel-Strippen)
  • Können z.B. interne Seminare eingespart werden? (Reisekosten, Fahrtkosten, Hotelkosten etc.)
  • Bei der Einstellung ist ggf. zu prüfen, ob die Quelle (automatsch) gespeichert werden soll (hier ist sicher Rücksprache mit dem Betriebsrat angeraten)

Häufig ist festzustellen, dass Mitarbeiter, regelrecht auf ihrem Wissen „sitzen“ und somit die Transparenz behindern. Nicht selten ist die Sorge um den eigenen Arbeitsplatz ein Grund, Informationen für sich zu behalten. Aber wem gehört eigentlich das von den Mitarbeitern erworbene Wissen? Akzeptanzproblemen von Mitarbeitern begegnet man am besten, wenn von Seiten der Unternehmensleitung die Methoden nicht nur „gut-heißt“, also „virtuell unterstützt“ wird, sondern wenn Geschäftsführer, Abteilungsleiter und sonstige „Chefs“ sich aktiv am Wissenstransfer beteiligen.

Zum Erfolg für die Einführung eines Wissens-Management zählt auch

  • die Taktik der Einführung. Wenn Mitarbeitern ein System „vor den Füße geworfen“ und anschließend erwartet wird, dass es gleich genutzt wird, ist der Erfolg sicher nicht gewährleistet.
  • Die Entwicklung sollte bereits im Vorfeld kommuniziert werden (mindestens: eine offizielle Bekanntmachung des Plans und ein (ggf. vorläufiger) Einführungstermin. Wird ein System eingeführt und erst anschließend gefragt, wofür und wie es verwendet werden soll, ist gewiss wenig zielführend.
  • Eine Wissensdatenbank sollte zum Zeitpunkt der Einführung bereits über hinreichend Content verfügen, so dass es auch von Beginn an genutzt werden kann und eine „Grundmotivation“ besteht, den Content zu erweitern.
  • Ein weiterer Faktor ist die Abgrenzung von Informationen.
  • Eine mittelfristige Anpassung der Unternehmenskultur in Bezug auf das Prozessbewusstsein sollte stattfinden und gewährleistet werden. Dazu zählt sicher auch, dass keiner „schief angesehen“ wird, wenn er/sie sich einen Clip ansieht und dabei Ohrstöpsel trägt.

Was gehört in eine Wissensdatenbank?

Sicher gibt es hier keine allgemeingültige Formel denn es ist von Branchen zu Betrieb höchst unterschiedlich. Hier ein Versuch, einer eher „allgemeinen“ Auflistung von Beispielen.

Zu berücksichtigen ist dabei, dass es sicher auch Informationen gibt, die nicht Abteilungsübergreifend zur Verfügung stehen dürfen
(Stichwort: Abgrenzung von Informationen!)
Weiterhin ist das Einstellungs-Datum einer Information von Wichtigkeit!
(Stichwort: Wie aktuell ist diese Information). Dabei ist „Aktualität“ nicht mit „Gültigkeit“ zu verwechseln.

  • Verfahrensbeschreibungen über interne Vorgänge / Definition von Geschäftsprozessen
  • Definition von Arbeitsabläufen
  • „Gebrauchsanweisungen“ über technische Geräte
  • Auch „Banalitäten“ wie Übersichten von Zuständigkeiten, Mitarbeiterlisten (Abteilung), Telefonlisten und dergleichen sind für die Aufnahme überlegenswert
  • Erfahrungen aller Art und Form (auch Erfahrungen mit Kunden, Produkten, Artikeln, Maschinen…)
  • Beschreibungen über Einstellungen von Software, Hardware, bis hin zum Umgang mit dem Kopierer
  • Beschreibungen technischer Probleme und deren Lösung
  • Übersicht der in der Anwendung befindlichen Geräte
  • Ein Forum-ähnlicher Aufbau kann u.a. sinnvoll sein.

Techniken Methoden / / Verfahren / Aufzeichnungsarten

  • Text in Form von Artikeln (auch Microartikel)
  • Interviews ausscheidender Mitarbeiter
  • Unternehmens- Wiki (z.B. Confluence)
  • Unternehmens-Twitter / Microblogging-Software (z.B. Laconica, Echowaves, Mini-Twitter, Just-Software, cynapse)
  • Unternehmens-Facebook
  • WordPress (Blog-System)
  • Sharepoint (die teurere Variante, erfordert aufwändigere Wartung)
  • Videoaufzeichnungen (Lernfilme, vorzugsweise kurze Clips z.B. über Softwareanwendungen) bsp. mit Jing
  • Folien (slideshare), Tweets, Fragen (Unternehmens-Forum), Videos (Lernfilme), Webcast, PDFs
  • Übergreifende Suchfunktionalität (Volltextrecherche), „Bedeutungssuche“ (sematische Suche ‑>Erfordert eine gute (assoziative) Verschlagwortung von Text, Folien, Videos etc.

WordPress, das System für Arme?

Keineswegs! WordPress basiert auf PHP, MySQL und was das Backend betrifft, handelt es sich sicher um ein zukunftsorientiertes System. Zumindest ist die Portabilität aufgrund allgemeiner Kompatibilitäten weitgehend gewährleistet. Bestechend an dem System ist zum einen, dass es kostenlos und mit sog. Widges“ oder „Plugins (auch häufig kostenlos aber nicht umsonst;-) schier endlos erweiterbar ist. Es bestehen Verschlagwortungsmöglichkeiten für Artikel und Seiten (aus denen u.a. Word-Clouds erstellt werden können), die übergreifende Suchmöglichkeit funktioniert sehr gut! Es ist also kein Wunder, dass sich WP großer Beliebtheit erfreut (lt. Ion Burke (wordpress.com) ca. 50.000 neue Blogs täglich). Die Installation ist zwar „etwas gewöhnungsbedürftig“ aber dann sehr gut einzustellen, zu bedienen und zu warten.

Moderation

Wichtig ist, dass ein Wissenstransfer-Management-System moderiert wird. Ein nicht-moderiertes System stirbt mitunter kurz nach der Einführung, ein System „lebt“ nicht von selber.

Zu den Aufgaben eins Moderators (Content-Manager) gehören u.a.:

  • Mitarbeit bei der Entwicklung des Systems (ggf. in enger Abstimmung mit der IT-Abteilung)
  • Aufräumen des Systems (u.a. verschieben falsch zugeordneter Einträge)
  • Technische (und optische) Anpassungen
  • Überprüfung der Qualität von Beiträgen
  • Ggf. Anpassungen von missverständlichen Formulierungen (vorzugsweise erst nach Nachfrage)
  • Weiterleitung von Anfragen an die kompetente Person
  • Ggf. entfernen von offensichtlich sinnfreien oder gesetzeswidrigen Einträgen
  • Idealerweise trägt der Moderator ebenfalls dazu bei, die Wissensdatenbank zu füllen und regelmäßig die Aktualität der Informationen zu verifizieren und ggf. zu korrigieren oder Update-Informationen weiterzuleiten.
  • auch die o.g. Mitarbeiter-Zufriedenheits-Untersuchen kann gut in den Aufgabenbreich passen
  • Und nicht zuletzt: „ansprechbar sein“

Entscheidend bei der Auswahl eines Systems ist nicht zuletzt die Portabilität (Plattformunabhängigkeit) des Backends. Es ist nicht einfach einzuschätzen, wie sich ein System entwickeln wird, ob also gewährleistet ist, ob das System, für das man sich entschieden hat oder entscheiden möchte, in den nächsten 10 Jahren technisch noch relevant ist, und eine Wissensdatenbank sollte durchaus auf die Zukunft gerichtet sein.

Interessant auch in diesem Zusammenhang:  Drei Schritte zum erfolgreichen Wissenstransfer von Melanie Hattwig