Kanzlei-Manager-Analyse (Tableau)

Kanzlei-Manager-Analyse (Tableau)

Auszug aus der Tableau-Analyse für den Kanzlei-Manager, in Kooperation mit Oellrich-Solutions und STB-Sievert
(nähere Informationen zur Software Kanzlei-Manager bitte über Oellrich-Solutions bzw. STB-Sievert)

Hier ein paar kurze Eindrücke über einige der insg. 12 Dashboards:

Kurzer Eindruck: Dashboard Nachkalkulation (GIF-Schleife):

km_dashboard_nachkalkulation_tableau

 

 

 

Kurzer Eindruck: Dashboard Offene Kosten (GIF-Schleife):

km_dashboard_offene

 

 

 

Kurzer Eindruck: Dashboard Mitarbeiter-Umsatzentwickklung (GIF-Schleife):

km_dashboard_mitarbeiter_umsatzentwicklung

 

Mitarbeiter-Strukturentwicklung…

Mitarbeiter-Strukturentwicklung…

… in Form von Bevölkerungspyramiden.

(diesem Beispiel liegt eine Excel-Mitarbeiter-Datentabelle zu Grunde, die ca 1.000 Datenzeilen und die wesentlichen Spalten wie enthält Filiale, KST, Name etc, Einstellungs- & Geburtsdatum, Adressdaten, Gehalt…)

Darstellung als animierte GIF

Umsetzung mit Tableau:

1: Dashboard mit wesentlichen Merkmalen:

Mitarbeiterentwicklung Bevölkerungspyramide Dashboard

 

2: Alterstrukturentwicklung „Forecast“ bei aktuellem Personalstand (dieses Beispiel startet im Jahr 2016):

Mitarbeiterentwicklung_Bevoelkerungspyramide

Power-BI = Self-Service-BI?

Power-BI = Self-Service-BI?

Power-BI = Self-Service-BI?

Mit der Version 2013 hat Microsoft Excel um einige bemerkenswerte Add-Ins aufgerüstet:

  • Power-Query
  • Power-View
  • Power-Map (ehemals GeoFlow)           und zuvor bereits:

Power-Pivot  (ab der Version 2010) Während Power-Pivot ab der Version 2013 als Add-In vorinstalliert (aber nicht aktiviert) ist, sind die 3 anderen BI-Tools bei Bedarf nach zu installieren und kostenlos verfügbar:

Nach der Installation müssen die Tools ggf. über die Add-In-Steuerung der Excel-Optionen aktiviert werden (Haken setzen).

Zusätzlich wird das Tools INQUIRE angeboten. Hierbei handelt es sich allerdings weniger um BI sondern eher ein Arbeitsmappen-Analyse-Tool.

Zudem wird über PowerBI.com der BI-Dashboard-Designer -Tool entwickelt, das derzeit im Preview-Modus vorliegt und Power-View sowie Power-Query vereinigt, also auch unabhängig von einer Primäranwendung wie Excel als eigenständiges Frontend-Tool.

Hier vorab ein Excel-Power-Map-Beispiel:

Es sei an dieser Stelle bereits vorab darauf hingewiesen, dass Rechner, auf denen diese Tools installiert werden, vorzugsweise mit „einigen PS unter der Haube“ ausgestattet sein sollten, soll heißen, diese Tools sind nicht gerade Ressourcenschonend. Bei „älteren“ Rechnern sollte ggf. geprüft werden, ob sich eine Installation anbietet. Überdies werden die Dateien nennenswert größer.

Bei der Verwendung der BI-Tools ist es hilfreich, wenn Ihnen die Nutzung von Pivot-Tabellen weitgehend geläufig ist und Ihnen der Begriff „Datenmodell“ nicht gänzlich fremd erscheint.

(Hinweis zu Datenmodell, Begriffsdefinition aus Gabler-Wirtschaftslexikon:  “ in der Datenorganisation Modell der zu beschreibenden und verarbeitenden Daten eines Anwendungsbereichs (z.B. Daten des Produktionsbereichs, des Rechnungswesens oder die Gesamtheit der Unternehmensdaten) und ihrer Beziehungen zueinander.“)
Quelle: http://wirtschaftslexikon.gabler.de/Definition/datenmodell.html#definition
Bedeutend hierbei: „..und Ihrer Beziehungen zueinander“

Etwas verkürzt formuliert bedeutet das in etwa, dass eine Art reduzierter Datenbanktreiber initialisiert wird, der die Grundfunktionalitäten einer SQL-Datenbank zur Verfügung stellt und es dem Anwender somit ermöglicht, Beziehungen zu Tabellen zu erstellen und diese in weiteren Analysis-Tools zu bearbeiten wie Power-Pivot (der alle im Datenmodell aufgenommenen Tabellen automatisch erkennt) oder Power-View.

Der Begriff BI (also Business Intelligence) ist in der Szene seit den 90ern ja „hart umkämpft“, aus der „oberen Liga“ vernimmt man gelegentlich abschätzige Blicke auf Excel und unkt mit Begriffen wie „self-service-BI“ (ein Begriff, den MS allerdings auch selber verwendet). Ich muss gestehen, dass ich genau darin den Nutzen sehe. Sicher muss nicht weiter diskutiert werden, dass diese Tools nicht die „Champions-League“ der BI darstellen können, aber auf der Front-End-Ebene (also der Anwendungsebene) wirklich gute Möglichkeiten für Datenintegration und -analyse bieten.

Was kann ich mit diesen Tools machen?

Power-Query:

Wie der Name schon sagt, handelt es sich um ein Datenabfrage-Tool (ETL=extract, transfer, load), also das Daten-Ingetrations-Tool, das zudem über eine eigene, zusätzliche Formeln- bzw. Funktions-Sprache (Syntax) verfügt.

Hier die Liste der Power-Query-Funktionen: http://office.microsoft.com/en-us/excel-help/power-query-formula-categories-HA104122363.aspx, auch Steuerungen wie IF THEN ELSE können auf Spaltenebene verwendet werden.

Daten unterschiedlichster Quellen (auch Web-Daten oder Power-Pivot) können miteinander kombiniert und modelliert werden und in Berichten (Reporting) anderer  Programmen eingebunden werden.

Eine Einführung zu PowerQuery von Microsoft findet sich HIER

Eien Auflistung der Spezifikationen und Beschränkungen HIER

Power-View

Das ist das Reporting-System. Sie finden es nach der Installation (und Aktivierung als Add-in) im Menü (Ribbon) unter EINFÜGEN, basierend auf einer Tabelle oder einem Datenmodell (bspw. einer Pivot-Tabelle, die sich auf mehrere in Beziehung stehende Tabellen bezieht) können auf einem separaten Blatt (in etwa vergleichbar mit Diagramm-Blättern) unterschiedliche Reporting-Elemente eingestellt werden: Diagramme (unterschiedlichen Stils), Pivot-ähnliche Auswertungen, mit oder ohne Kacheln als Steuerungs-Elemente, Karten u.ä. Sehr angenehme dabei ist u.a., dass diese verschiedenen Elemente untereinander in Abhängigkeit gesetzt werden, so dass ein Klick auf die Säule eines Diagramm sofort die Bezüge und Vergleiche in allen anderen Diagrammen und Auswertungen visualisiert.

Beispiel: Sie werten Kundendaten in Bezug auf Kategorien und Bundesländer aus. In einem Diagramm sehen Sie summierte Mengen je Kategorie, in dem anderen summierte Mengen je Bundesland. Mit einem Klick auf eine Kategorie sehen Sie jetzt die proportionalen Anteile in den Säulen der einzelnen Bundesländer:

Ausgewählt ist hier die Kategorie „B“, es wird die proportionale Verteilung in den einzelnen Bundesländern ausgewiesen:

MaschinenProduktionsAuftrasege_PowerVew_nachRegionKategorie

Und hier quasi das „Gegenteil“: ausgewählt wurden die Bundesländer Berlin und Niedersachsen, in den Kategorien ist die proportionale Verteilung zu erkennen:

MaschinenProduktionsAuftraege_PowerVew_nachRegionKategorie2

Zudem können mehrere Filter in Bezug auf Spalten gesetzt werden.

Power-Map

Das „Daten auf Karten“-Tool. Basierend auf BingMaps können die eigenen Daten auf Geo-Punkte gesetzt werden. Voraussetzung dafür ist zum einen eine bestehende Internetverbindung und natürlich die Kleinigkeit, dass auch irgendwelche interpretierbaren Geo-Daten vorhanden sind. Das kann ein PLZ-Spalte (oder Zip-Code) sein, oder eine Spalte mit Städte-, Länder- oder Bundesländer-Namen. Ggf. kann es erforderlich sein, diese Spalten, sofern sie bei der Verwendung nicht automatisch erkannt werden, einer Geo-Interpretation zuzuordnen.

Weiterhin sollte eine auswertbare Werte-Spalte vorliegen, die den Geo-Spezifikationen zugewiesen werden können. Somit werden Säulen (oder Heatmaps) auf eine 3-D-Karte projiziert . Sofern eine Datum oder Zeit-Spalte vorliegt, kann diese als Zeit-Leiste die Säulen oder Heatmaps animieren.

Zudem können einzelne Szenen erstellt und daraus ein Film generiert werden, nach dem Motto „Daten erzählen Geschichte(n)“, data-story-telling, siehe obiges Beispiel.

Der „Daten-Dreisatz“ und die Prim(är)-Zahlen

Der „Daten-Dreisatz“ und die Prim(är)-Zahlen

Nach der Einrichtung eines einfachen „adhoc“-Erfassungs- und Auswertungs-Tools wurde ich kürzlich  erneut auf ein generelles Missverständnis in Sachen der „Bewertung“ von Daten aufmerksam. Der Kollege (für den dieses Tool bestimmt war und der durchaus über gute Anwendererfahrung verfügt) wunderte sich, wie der die eingerichteten Tabellen verwenden solle. Ich musste ihm daraufhin den Daten-„Dreisatz“ SVA erläutern: SVA steht hier für Stammdaten, Verlauf, Auswertungen. Die Stammdaten: Sinn und Zweck: Erfassen (oder importieren) von Datenzeilen, in der jede Datenzeile (Datensatz) an mind. Einer Position ein-eindeutig ist. Bspw. sollte eine laufende Nummer verwendet werden oder bei Kunden- bzw. Artikeltabellen eine Kunden- bzw. Artikelnummer. Man muss nicht zwangsläufig über detaillierte Kenntnisse der Normalisierung verfügen um eine brauchbare Tabellenstruktur zu erstellen, sollte aber unbedingt folgendes beachten: Mindestens die erste Normalform (NF1): Hierfür existieren die aufwändigsten Beschreibungen (auch auf Wikipedia heißt es: „Jedes Attribut der Relation muss einen atomaren Wertebereich haben. (Anm.: statt „atomar“ wird auch die Bezeichnung „atomisch“ verwendet“) Kurzgesagt bedeutet das, dass jeder Wert in EINER Spalte erfasst werden sollte, also NICHT PLZ und ORT in ADRESSE zusammenfassen. Jede zusammengehörende „Datengruppe“ sollte in je einer Tabelle erfasst werden: Kunden in einer Kundentabelle, Artikel in einer Artikeltabelle, Gewerke in einer Gewerketabelle etc. und schon ist das Prinzip Stammdaten (zumindest grundsätzlich) umgesetzt. Die Verlauf-Daten: In aller Regel „passiert“ mit den Daten ja irgendetwas. Beispielsweise werden Artikel an Kunden verkauft und geliefert. Dazu gehören mindestens folgende „Attribute“, also Spalten: ein Datum, ein bestimmter Artikel der an einen bestimmten Kunden in einer bestimmten Menge verkauft wird (in aller Regel natürlich deutlich mehr). In der Verlaufstabelle werden Artikel- und Kundendaten aus den Stammdaten-Tabellen verwendet und für gewöhnlich ist es sinnvoll, die Erfassung der Daten für die Verlaufstabelle so einzustellen, dass NUR Daten erfasst werden, die über die Stammdaten auch referenziert werden können. Bei Excel kann das über die Daten-Validierungsmöglichkeit (Daten / Datenüberprüfung) eingestellt werden, Datenbank-Programme verfügen über weitere Möglichkeiten. Auswertung, Quelle: pixelio Die Auswertungen: …beziehen sich in aller Regel auf die Verlaufsdaten. Ein klassisches (und sehr effektives) Beispiel wäre, dass die Verlaufsdaten zu einer Pivot-Tabelle „verdichtet“ werden, um nach Artikeln, Regionen, Datumbereiche u.ä. die Summen  von Warenwerten (die sich aus der Multiplikation von Mengen der Verlaufstabelle und Einzelpreisen aus der Artikeltabelle errechnen lassen) darstellt. Auch Stammdaten können ausgewertet werden. Wenn Sie bsp. eine Übersicht über die Verteilung Ihrer Kunden benötigen, kann eine Auswertung über den PLZ-Bereich erstellt werden. In Pivot-Tabellen können PLZ-Einträge beliebig gruppiert werden. Auswertungen können immer wieder neu erstellt oder geändert oder ergänzt werden, sie „berühren“ die Datendaten nicht. Die Prim(är)-Zahlen Die „Hauptdaten“ kommen aus dem Primärsystem, das meist über einen längeren Zeitraum entwickelt wurde und in der Regel auch für einen längeren Zeitraum verwendet werden soll. Geradezu zwangsläufig ergibt sich durch diesen Umstand die Tatsache, dass Primärsysteme kaum die Chance haben, mit der Zeit Schritt zu halten und allen Anforderungen der Anwenderseite zu entsprechen. Genau dieser Punkt stellt oftmals ein Ärgernis dar, denn die Anforderungen ändern sich schneller als ein Primärsystem mitwachsen kann. Somit entwickeln sich schnell Sekundärsysteme, die häufig auf „einfachen“ Systemen wie Excel oder Access aufsetzen. Dabei kann  „einfach“ hier kaum ernst gemeint sein, denn diese Programme sind keineswegs „simpel“. Auch das Reporting-System von Access ist nicht unbedingt schlechter als das von „größeren“ Anbietern, es kommt einfach darauf an, wie umfassend die Ergebnisse generiert werden sollen. Seit der Version 2013 bietet auch Excel mit PowerView ein Reporting-System und mit GeoFlow ein interessantes Visualisierungs-Tool  an. Ein Frontend-System (also ein System, mit dem der Anwender lokal oder bspw. über Citrix arbeitet) an das Primär-System anzubinden ist nicht in jedem Fall ganz einfach, und in vielen Fällen auch nicht gewünscht. So stellen nicht alle Anbieter ODBC-Treiber kostenlos zur Verfügung. Als Alternative können aber die meisten Primär-Systeme (SQL-Server, aber auch SAP etc.)  Datenexporten anbieten. Manchmal entwickeln sich regelrecht kleinere „Kämpfe“ um die Daten. Exportdaten können dann mit den eigenen Daten ge-„merged“ also zusammengestellt oder gemischt werden. Dafür sind in aller Regel allerdings Automatisierungs-Routinen erforderlich, und um die einzustellen, ist dann wiederum oft ein „Auskenner“ erforderlich 😉

So müsste Technik!

So müsste Technik!

Kunden-Support nach außen und Kommunikation des Unternehmens nach innen werden oft genug als zwei verschiedene Stiefel betrachtet, dabei ist der Markt doch mittlerweile hinreichend gefüllt mit System-Angeboten, die für Abhilfe sorgen sollen.

Bei einer Produkt-Recherche zum Thema e-Ticket, Wiki und Wissensdatenbank, die ich aus aktuellem Anlass in den letzten Wochen durchgeführt habe, musste ich allerdings feststellen, dass sich der Markt zum einen unübersichtlich gestaltet und sich zum Weiteren die Anbieter vorzüglich in der Kunst verstehen, die Vorzüge Ihrer Systeme dem Interessenten gegenüber zu verheimlichen.

Ich habe eine tabellarische Aufstellung über die Anforderungen erstellt, die ich zusammen mit meinem Kunden ausgearbeitet habe und die Anbieter danach abgeglichen, wohlbemerkt zunächst NICHT mit angebotenen Testversion (das sollte erst im nächsten Schritt nach einer Vorauswahl erfolgen – sofern die Anbieter eine Testversion vorsahen, auch das war eines der Kriterien), sondern „nur“ nach einer Recherche der System-Beschreibungen, Produkt-Videos und evtl. FAQ und Foren.

Geradezu unmöglich war es dabei herauszufinden, WO (also in welchem Rechtsbereich) die Cloud-Daten abgelegt werden, dabei hat ist in der letzten Zeit doch mehrfach journalistische Hinweise auf die potentielle rechtliche Problematik gegeben. Nicht jeder bietet eine Testversion an und bei manchen der Anbieter finden sich diesbezügliche Hinweise erst, nachdem die Homepage umständlich durchsucht wird. Installationsanleitungen scheinen insb. Bei Open-Source-Produkten mit dem Zufallsgenerator übersetzt. Demos werden meist als Screenshots zur Verfügung gestellt, teilweise OHNE die Möglichkeit durch die Screenshots „durchzublättern“ (also lauter Einzelaufrufe). In einigen Fällen werden Tutorials angeboten, die qualitativ recht unterschiedlich ausfallen. Von „Home-made“ (schlechte Sound- und Bildqualität) bis höchst professionell war alles dabei.

Bei den sehr professionellen Videos musste ich allerdings mehrfach feststellen, dass es sich dann zumeist um Werbe-Clips handelt, die dem Betrachter des Videos mittels angebliche überzeugter Kunden die enormen Vorteile des Systems mit Begeisterung vortragen, dann aber die Details aussparten. Gesondert sei hier Salesforce aber auch ZenDesk genannt (der zweitgenannte verfügt zudem über einen durchaus Kinoreifen Kurzfilm, leider jedoch ohne nennenswerten informativen Nährwert) Im Einzelfall waren keine Preise zu ermitteln, selbst bei einer Mail-Anfrage erhielt in bei einem Anbieter lediglich eine Link-Liste zu den Produkt-Vorzügen, aber OHNE Preisangaben. Nur wenig Anbieter boten bei meiner Recherche für die meisten Fragen auch verwertbare Antworten (sofa-helpdesk und logatech-it).

der Schrei! (by Joschka Knoblauch, Quelle pixelio.de)
der Schrei! (by Joschka Knoblauch, Quelle pixelio.de)

Liebe Software-Anbieter: BITTE: Wenn ich ein Produkt-Video sehe, möchte ich auch gerne sehen WIE das funktioniert und welche Funktionalitäten mir angeboten werden. Wenn Screenshots zur Verfügung gestellt werden, möchte ich nicht jeden Screenshot einzeln aufrufen. Ich möchte bei einer Cloud-Lösung wissen, Wo sich meine Daten befinden. Ich möchte umstandsneutral eine Information über die Preisgestaltung erhalten.

Vielen Dank!

Gute Seiten, schlechte Seiten

Gute Seiten, schlechte Seiten

Kunst kommt von „können“? Ansichtssache. Und Präsentieren kommt von praesentia. Und das heißt Gegenwart. Eine Präsentation soll also etwas vergegenwärtigen. Und dazu werden gerne Infografiken eingesetzt.

In der großen Welt der Datenkonsolidierung und -reduktion mit dem Ziel einer vereinfachten Aussage führt das durchaus schon mal zu Missverständnissen. Bei Seminaren mache ich mitunter die Erfahrung, dass Mitarbeiter für ihre Vorgesetzten aus einem nennenswerten Datenberg zu einer „Ampel-Aussage“ gelangen sollen. Das heißt, dass mitunter gigantische Datenabzüge aus unterschiedlichen Quellen zu der Aussage „gut“ oder z.B. „schlecht“ führen soll, dargestellt in ROT, GELB oder bestenfalls bzw. wünschenswerterweise GRÜN. Jeder, der schon mal mit dem Problem der Zusammenführung von Daten befasst war, weiß, dass, mal abgesehen von dem Problem der Datenbereinigung, noch weitere „Unwägbarkeiten“ das Ergebnis „beeinflussen“ können. Das gewünschte Ampel-Resultat ist zwar für eine Entscheidungsinstanz nicht gänzlich unverständlich, aber vielleicht doch etwas zu sehr simplifiziert, und genau da lassen sich wunderbar die in Mode gekommenen Infografiken einsetzen.

Bei Infografiken handelt es sich um ein Mittel, auf unterschiedliche und manchmal recht „überraschende Weise“, einen komplexen Sachverhalt einem Laien verständlich zu machen. Die Daten-Verdichtung durch Diagramme ist zweckmäßig, aber häufig langweilig und insbesondere durchaus bestens für Manipulationen geeignet. Infografiken eignen sich durchaus sogar noch besser für Manipulationen, aber im Gegensatz zu Diagrammen und den ewigen Powerpoint-Präsentationen, die seriös daherzukommen versuchen und manchmal schon deshalb für Misstrauen sorgen, ist der „Sinn“ der Darstellung über eine Infografik in ihrer gesamten „Theatralik“ erkennbarer und erreicht somit eine andere Form der Akzeptanz.

Im folgenden möchte ich ein paar Beispiele benennen, die ich nach meinem persönlichen Empfingen für gelungen bzw. weniger gelungen halte.

1. Sehr gelungen:  STOCK-CHECK: http://visual.ly/remaining-oil-gas-coal
Grund: einfach gehalten, schon bei oberflächlichem Hinsehen erschließt sich die Aussage. Einsatz weniger Farben und weniger Symbole. Kein ablenkender Hintergrund. Wenige, deutlich erkennbare Zahlenwerte. Drei kleine integriert Diagramme, zudem eine Weltkarte mit gut erkennbarer Verteilung. Weiterhin Angabe von Quellen am Ende der Grafik

2. Weniger gelungen: EVOLUTION OF SMOKING: http://visual.ly/evolution-smoking
Grund: Zu dicht, unklare Datenlage (keine Quellenangabe), zu sehr überladen mit unterschiedlichen Stilmitteln, unruhige Erscheinung des Gesamtbildes. Ablenkender Hintergrund (sinnfreier Farbverlauf)

3. Ebenfalls weniger gelungen: FACEBOOK-IPO: http://visual.ly/facebook-ipo-0
Grund:  Der Sinn dieser Grafik erschließt sich erst nach mind. zweimaligem Hinsehen. Farbgebung uneinheitlich und unklar (warum zwei Blau-Töne und dann plötzlich lila?). Allerdings gibt es einen Hinweis auf die Datenlage.

4. Ganz anders hingegen hier wieder ein gut gelungenes Beispiel: THE GULF OF MEXICO OIL SPILL:   http://visual.ly/gulf-mexico-oil-spill
Grund: einfach und transparent, Passender farblicher Hintergrund, klar in den Symbolen und der Aussage, auch die Datenquelle wurde nicht vergessen. Kleines Manko: recht kleine Schrift.

5. Ein weiteres interessantes und im Prinzip gut gemachtes Beispiel: COFFEE & CALORIES: http://www.informationisbeautiful.net/visualizations/caffeine-and-calories/
Grund: klare Aufteilung, bedarf  aber einen Moment der Orientierung insbesondere müssen die Skalen erst einmal „entdeckt“ werden. Leider bleibt die Datenlage hier etwas unklar (abgesehen von dem Verweis auf  Hersteller und Vertrieb).

6. Gute Idee, aber…: COLORS IN CULTURES: http://www.informationisbeautiful.net/visualizations/colours-in-cultures/
Grund: interessant gemacht, aber leider keine durchgehende Linienführung. Nachteil: versuchen Sie z.B. mal herauszufinden, welche Farbe in China für peace steht.

7. Immerhin klare Aussage: WENIGE LEISTEN SICH VIEL: http://www.agenda21-treffpunkt.de/archiv/04/10/DWHHkonsum-g.jpg
Grund: Gute gemachte Gegenüberstellung. Aussage ist eindeutig. Datenlage bleibt aber „Vertrauenssache“. Hintergrundfarbe scheint der Sichtbarkeit des Inhaltes geschuldet, grauer Balken steht nicht im Kontext zum Inhalt.

8. Klasse (einer meiner persönlichen „TOPs“): Wirtschalftsdaten sichtbar gemacht: Die Schokolandenseite: http://images.zeit.de/wissen/2009-12/41-infografik-schokolade.pdf
Grund: Schon am Bild sofort erkennbar um was es geht; die „Bruchstücke“ im erkennbaren relativen Verhältnis; keine verwirrenden und unnötiten Elemente in der Grafik; Quellenangabe vorhanden

Und hier die ultimative „Mutter aller Infografiken“ 😉 :

Ein System das nicht lebt ist tot!

Ein System das nicht lebt ist tot!

Zu dieser wenig überraschenden Einsicht gelangt man, wenn man sich lange genug durch die Forenwelt in Netz geklickt hat. Es gibt hervorragende Beispiele von Foren, bei denen die Betreiber einfach alles richtig machen. Und es gibt Foren, bei denen das nicht so ist. Ich meine damit übrigens durchaus gar nicht mal die Inhalte, manche Foren und/oder Groups (auch bei Xing) sind derart speziell, dass sich dort nicht gerade minütlich Threads sammeln, dennoch können sie hoch effektiv und inhaltlich geradezu einzigartig und somit von hohem Wert sein.

Ich meine die Moderation! Zwar ist man als Benutzer eines Forums oder einer Gruppe nicht direkt mit einem Gegenüber befasst, aber dennoch merkt man doch recht schnell, ob ein Forum moderiert wird. Wenn nicht, „fühlt“ es sich tot an. Und dann stirbt ein derartiges System auch recht schnell.

Mir sind Beispiele bekannt, bei denen das dennoch versucht wurde. Beispielsweise wurde eine Online-Bildagentur ins Netz gestellt und dann davon ausgegangen, dass das „schon von selbst läuft“. Es lief nicht. Kein einziges Bild wurde verkauft! Oder ein Forum, das mit einem einprägsamen Namen einfach ins Netz gestellt wurde und in dem sich im Laufe von wenigen Wochen wenig Sinnhaftes ansammelte. Das Forum starb noch vor seinem ersten Geburtstag, es wurde einfach nicht mehr genutzt.

Es bedarf eines lebenden Menschen aus Fleisch und Blut der zuständig ist, der „dafür steht“, der ansprechbar ist, der re-agiert.

Genauso wie im weltweiten Netz, verhält es sich auch in internen Netzen, Stichwort „Wissensmanagement“. Auch hier ist mir ein Beispiel bekannt, bei dem ein großes Unternehmen in einer hoch-kompetenten Arbeitsgruppe die Voraussetzungen für ein Wissensmanagement-System erarbeitet hat. Nachdem die Arbeitsgruppe ihre vorbereitende Projektarbeit beendet hatte, gab es plötzlich niemanden mehr, der für die Umsetzung einstand. Das System wurde nicht realisiert. In einem anderen Beispiel ging es umgekehrt zu. Ein komplexes System für ein Wissensmanagement wurde realisiert und die Mitarbeiter wurden nicht „mitgenommen“; weder an der Planung beteidigt noch eingewiesen, noch nicht mal richtig informiert. Geschweige denn, dass zu Beginn bereits verwertbarer content eingepflegt wurde. Die Anwender navigierten einige Zeit im luftleeren Raum, das komplexe und teure System starb den Erstickungs-Tod.

Mehr zum Thema „Wissens-Management“ gibt es HIER

„Das behalte ich doch besser für mich…“ Wissenstransfer im Unternehmen

„Das behalte ich doch besser für mich…“ Wissenstransfer im Unternehmen

Was machen Sie mit Mitarbeitern die aus dem Unternehmen ausscheiden?

Wie vermitteln Sie neuen Mitarbeitern die erforderlichen Informationen?

Indikatoren für das Ausscheiden von Mitarbeitern:

  • Beendigung des Arbeitsverhältnisses (Kündigung seitens des Mitarbeiters oder des Unternehmens, Vertrag ausgelaufen und nicht verlängert)
  • Beendigung der Lebensarbeitszeit – (Eintritt ins Rentenalter)
  • Wegzug eines Mitarbeiters
  • Tod eines Mitarbeiters

Abgesehen vom Tod eines Mitarbeiters, lassen sich die meisten andreren Termine in der Regel recht genau absehen.

Auch wird sich ein Unternehmen gewiss regelmäßig Gedanken über die Personalentwicklung in den nächsten Jahren machen oder gemacht haben. Aber Silvester und Weihnachten kommen ja immer so plötzlich.

Einige Indikatoren für „neue Mitarbeiter“:

  • Einstellung (Festanstellung, Zeitvertrag / Zeitarbeit / Projektarbeit)
  • Abteilungswechsel
  • Ortswechsel (Filialwechsel)
  • Einstellung von Auszubildenden
  • Vertragliche Verpflichtung von externen Mitarbeitern

Gewiss erinnern Sie sich noch an die Zeit, in der längst verrentete Mitarbeiter „wieder ausgegraben“ wurden um z.B. ältere Software anpassen zu können. Ein Beispiel war das sog. „Millenium Problem“ um die Jahrtausendwende. Diese Mitarbeiter wurden seinerzeit aus den Unternehmen entlassen, OHNE dass sichergestellt wurde, dass deren Wissen hinreichend dokumentiert war.

Lohnt es sich überhaupt, Wissen zu sichern/speichern, wo Wissen doch so schnell veraltet? Grade deshalb! In vielen Fällen veraltet ja nicht das Wissen, zumeist verändern sich lediglich Details oder Parameter von Informationen und/oder Verfahren  – klassisches Beispiel: Einführung eines neuen Software-Releases oder die Modifikation eines Arbeitsablaufes („…das Formular X geht jetzt nicht mehr über A, sondern direkt an B“)

Die Gründe für den Aufbau eines Wissens-Management liegen in der Regel auf der Hand und von deren Notwendigkeit braucht in der Regel auch kaum jemand überzeugt zu werden. Dennoch seien hier einige wesentlichen Gründe genannt:

  • Transparenz von Informationen (welche Information gehört in welchen Bereich?)
  • Übersichtlichkeit von Zuständigkeiten (auch in anderen Filialen, Geschäftsstellen, Standorten)
  • Ablaufprozesse werden beschrieben
  • Wissen geht nicht verloren (siehe hier insbesondere die Beispiele, in denen Mitarbeiter das Unternehmen verlassen und ihr Wissen „mitnehmen“)
  • Informationen liegen idealerweise aktuell vor.
  • Zur Beschaffung von Informationen muss nicht darauf gewartet werden, dass der zuständige Mitarbeiter Zeit hat oder aus dem Urlaub oder von sonstiger Abwesenheit zurückgekehrt ist
  • Fragende Mitarbeiter können sich an ein „anonymes System“ wenden  (und können sich auch „trauen“ Fragen zu stellen)
  • Beschreibung von verwendeten Materialien für die Produktion
  • Beschreibung der Beschaffung (von Materialien, Büromaterial, internes Antragswesen etc.)
  • Unternehmens-Richtlinien z.B. für Beschaffung, Ausschreibungen, Pausenregelungen, Hausordnung(en), Urlaubsregelungen etc.
  • Auszubildenden steht eine Möglichkeit zur Verfügung, Informationen nachzuschlagen
  • Gebrauchsanweisungen und Verfahrensbeschreibungen liegen zentral vor und müssen nicht „zusammengesammelt“ werden.

Zur Durchsetzung eines entsprechenden Systems liegt der „Schwachpunkt“ oft der Verifizierbarkeit und das Problem der Quantifizierung.

  • Ist die Einführung im Vorfeld hinreichend und konstruktiv kommuniziert worden?
  • Wird das System genutzt? (fühlen sich die Mitarbeiter mit dem System wohl?)
  • Sind die Informationen hilfreich und verständlich (ein „das hat mir (nicht) geholfen“-Button ist gewiss zu bedenken)
  • Kann eine Zeitersparnis genannt (und ggf. quantitativ benannt) werden? (Interviews der Nutzer nach einer gewissen Nutzungs-Zeit nach Einführung)
  • Ist „Zeitersparnis“ überhaupt  das „Maß aller Dinge“? Führen die Erkenntnisse mittelfristig dazu, dass die Erledigung von Aufgaben besser und sicherer, mit geringerer Fehleranfälligkeit (oder eben auch schneller) durchgeführt werden?
  • Sind die Inhalte angemessen in der Darstellung und im Umfang (Vermeidung von Quassel-Strippen)
  • Können z.B. interne Seminare eingespart werden? (Reisekosten, Fahrtkosten, Hotelkosten etc.)
  • Bei der Einstellung ist ggf. zu prüfen, ob die Quelle (automatsch) gespeichert werden soll (hier ist sicher Rücksprache mit dem Betriebsrat angeraten)

Häufig ist festzustellen, dass Mitarbeiter, regelrecht auf ihrem Wissen „sitzen“ und somit die Transparenz behindern. Nicht selten ist die Sorge um den eigenen Arbeitsplatz ein Grund, Informationen für sich zu behalten. Aber wem gehört eigentlich das von den Mitarbeitern erworbene Wissen? Akzeptanzproblemen von Mitarbeitern begegnet man am besten, wenn von Seiten der Unternehmensleitung die Methoden nicht nur „gut-heißt“, also „virtuell unterstützt“ wird, sondern wenn Geschäftsführer, Abteilungsleiter und sonstige „Chefs“ sich aktiv am Wissenstransfer beteiligen.

Zum Erfolg für die Einführung eines Wissens-Management zählt auch

  • die Taktik der Einführung. Wenn Mitarbeitern ein System „vor den Füße geworfen“ und anschließend erwartet wird, dass es gleich genutzt wird, ist der Erfolg sicher nicht gewährleistet.
  • Die Entwicklung sollte bereits im Vorfeld kommuniziert werden (mindestens: eine offizielle Bekanntmachung des Plans und ein (ggf. vorläufiger) Einführungstermin. Wird ein System eingeführt und erst anschließend gefragt, wofür und wie es verwendet werden soll, ist gewiss wenig zielführend.
  • Eine Wissensdatenbank sollte zum Zeitpunkt der Einführung bereits über hinreichend Content verfügen, so dass es auch von Beginn an genutzt werden kann und eine „Grundmotivation“ besteht, den Content zu erweitern.
  • Ein weiterer Faktor ist die Abgrenzung von Informationen.
  • Eine mittelfristige Anpassung der Unternehmenskultur in Bezug auf das Prozessbewusstsein sollte stattfinden und gewährleistet werden. Dazu zählt sicher auch, dass keiner „schief angesehen“ wird, wenn er/sie sich einen Clip ansieht und dabei Ohrstöpsel trägt.

Was gehört in eine Wissensdatenbank?

Sicher gibt es hier keine allgemeingültige Formel denn es ist von Branchen zu Betrieb höchst unterschiedlich. Hier ein Versuch, einer eher „allgemeinen“ Auflistung von Beispielen.

Zu berücksichtigen ist dabei, dass es sicher auch Informationen gibt, die nicht Abteilungsübergreifend zur Verfügung stehen dürfen
(Stichwort: Abgrenzung von Informationen!)
Weiterhin ist das Einstellungs-Datum einer Information von Wichtigkeit!
(Stichwort: Wie aktuell ist diese Information). Dabei ist „Aktualität“ nicht mit „Gültigkeit“ zu verwechseln.

  • Verfahrensbeschreibungen über interne Vorgänge / Definition von Geschäftsprozessen
  • Definition von Arbeitsabläufen
  • „Gebrauchsanweisungen“ über technische Geräte
  • Auch „Banalitäten“ wie Übersichten von Zuständigkeiten, Mitarbeiterlisten (Abteilung), Telefonlisten und dergleichen sind für die Aufnahme überlegenswert
  • Erfahrungen aller Art und Form (auch Erfahrungen mit Kunden, Produkten, Artikeln, Maschinen…)
  • Beschreibungen über Einstellungen von Software, Hardware, bis hin zum Umgang mit dem Kopierer
  • Beschreibungen technischer Probleme und deren Lösung
  • Übersicht der in der Anwendung befindlichen Geräte
  • Ein Forum-ähnlicher Aufbau kann u.a. sinnvoll sein.

Techniken Methoden / / Verfahren / Aufzeichnungsarten

  • Text in Form von Artikeln (auch Microartikel)
  • Interviews ausscheidender Mitarbeiter
  • Unternehmens- Wiki (z.B. Confluence)
  • Unternehmens-Twitter / Microblogging-Software (z.B. Laconica, Echowaves, Mini-Twitter, Just-Software, cynapse)
  • Unternehmens-Facebook
  • WordPress (Blog-System)
  • Sharepoint (die teurere Variante, erfordert aufwändigere Wartung)
  • Videoaufzeichnungen (Lernfilme, vorzugsweise kurze Clips z.B. über Softwareanwendungen) bsp. mit Jing
  • Folien (slideshare), Tweets, Fragen (Unternehmens-Forum), Videos (Lernfilme), Webcast, PDFs
  • Übergreifende Suchfunktionalität (Volltextrecherche), „Bedeutungssuche“ (sematische Suche ‑>Erfordert eine gute (assoziative) Verschlagwortung von Text, Folien, Videos etc.

WordPress, das System für Arme?

Keineswegs! WordPress basiert auf PHP, MySQL und was das Backend betrifft, handelt es sich sicher um ein zukunftsorientiertes System. Zumindest ist die Portabilität aufgrund allgemeiner Kompatibilitäten weitgehend gewährleistet. Bestechend an dem System ist zum einen, dass es kostenlos und mit sog. Widges“ oder „Plugins (auch häufig kostenlos aber nicht umsonst;-) schier endlos erweiterbar ist. Es bestehen Verschlagwortungsmöglichkeiten für Artikel und Seiten (aus denen u.a. Word-Clouds erstellt werden können), die übergreifende Suchmöglichkeit funktioniert sehr gut! Es ist also kein Wunder, dass sich WP großer Beliebtheit erfreut (lt. Ion Burke (wordpress.com) ca. 50.000 neue Blogs täglich). Die Installation ist zwar „etwas gewöhnungsbedürftig“ aber dann sehr gut einzustellen, zu bedienen und zu warten.

Moderation

Wichtig ist, dass ein Wissenstransfer-Management-System moderiert wird. Ein nicht-moderiertes System stirbt mitunter kurz nach der Einführung, ein System „lebt“ nicht von selber.

Zu den Aufgaben eins Moderators (Content-Manager) gehören u.a.:

  • Mitarbeit bei der Entwicklung des Systems (ggf. in enger Abstimmung mit der IT-Abteilung)
  • Aufräumen des Systems (u.a. verschieben falsch zugeordneter Einträge)
  • Technische (und optische) Anpassungen
  • Überprüfung der Qualität von Beiträgen
  • Ggf. Anpassungen von missverständlichen Formulierungen (vorzugsweise erst nach Nachfrage)
  • Weiterleitung von Anfragen an die kompetente Person
  • Ggf. entfernen von offensichtlich sinnfreien oder gesetzeswidrigen Einträgen
  • Idealerweise trägt der Moderator ebenfalls dazu bei, die Wissensdatenbank zu füllen und regelmäßig die Aktualität der Informationen zu verifizieren und ggf. zu korrigieren oder Update-Informationen weiterzuleiten.
  • auch die o.g. Mitarbeiter-Zufriedenheits-Untersuchen kann gut in den Aufgabenbreich passen
  • Und nicht zuletzt: „ansprechbar sein“

Entscheidend bei der Auswahl eines Systems ist nicht zuletzt die Portabilität (Plattformunabhängigkeit) des Backends. Es ist nicht einfach einzuschätzen, wie sich ein System entwickeln wird, ob also gewährleistet ist, ob das System, für das man sich entschieden hat oder entscheiden möchte, in den nächsten 10 Jahren technisch noch relevant ist, und eine Wissensdatenbank sollte durchaus auf die Zukunft gerichtet sein.

Interessant auch in diesem Zusammenhang:  Drei Schritte zum erfolgreichen Wissenstransfer von Melanie Hattwig

Geschickt verborgen…

Geschickt verborgen…

Auswertungen und Aussagefähigkeit beruhen auf den Säulen von Vertrauen in die „Korrektheit“ der Daten. Falsch bereinigte oder konsolidierte Daten führen zu falschen Aussagen und stellen mitunter die Basis für falsche Entscheidungen dar.

Wie aber ist es mit absichtlich „verbogenen Tatsachen“? Dafür eignen sich Histogramme / Häufigkeitsverteilungen allerbestens.

Ein Beispiel: Die Logistik einer Lagerhalle wird überprüft. Zu diesem Anlass wird untersucht, welche Mengen (Einheiten) von Artikeln ab einer bestimmten Größe bewegt werden. Auf Basis der Daten für einen bestimmten Zeitraum (bspw. ein Jahr) ergibt sich folgende Verteilung:

Der zuständige Leiter der Transportwege zwischen Lager und Versand möchte aber die Wege verbreitern um die Sicherheit zu erhöhen und benötigt dafür ein „plausibles“ Argument. Was eignet sich besser, als nachzuweisen, dass in erster Linie GROße Mengen transportiert werden:

Der „Finanzminister“ des Unternehmens steht dieser Investition tendenziell ablehnend gegenüber (was bekanntlich das Hauptanliegen aller Finanzminister ist) und weist nach, dass in erster Linie GERINGE Mengen bewegt werden:

Das bemerkenswerte daran ist, die sämtliche Diagramme auf Basis DER SELBEN Daten ermittelt wurden. Werden diese Ergebnisse bei Besprechungen bzw. Präsentationen als unterstützende Folie eingeblendet, wird der jeweilige Gegenüber (die die Daten ggf. nicht kennt) geblendet, zumal der Vortragende selbstverständlich darauf achtet, dass die Folie mit der Hauptaussage nur so lange stehenbleibt, bis die gewünscht Aussagewahrgenommen wurde und keiner auf die Idee kommt nachzufragen, WIE sich dieses Ergebnis erklärt.

WIE aber kommen Sie zu der „korrekten“, neutralen und seriösen Betrachtung zur „kurzen Verifikation“ des Ergebnisses? Welche Fragen müssen Sie stellen?

Hier die wesentlichen Kennzahlen:

1.: Wie lautet die Spannweite der Werte?
Die Spannweite ergibt sich aus dem kleinsten und dem größten Wert der zugrunde liegenden Daten, also
Spannweite = maximaler-Wert – minimaler-Wert
Hier können Sie bereits erkennen, ob die Stufungen (Klassen) der Verteilung seriös ist. Lautet der größte Wert bspw. 8.000, die Klassen hören aber schon bei 5.000 auf, sollte das verdächtig erscheinen. Analog dazu sollte es auch auffallen, wenn der kleinste Wert 100, die Klassen beginnen aber erst bei 2.000 sollte das ebenfalls als „bemerkenswert“ zur Kenntnis genommen werden und ggf. zu Nachfragen führen.

2. Wie erklären sich die Stufungen (Klassen)? Sind die Intervalle unregelmäßig? Ist evtl. auffällig, dass sich die Intervalle in eine bestimmte Richtung „verdichten“? Wenn ja, fällt die Streuung auch entsprechend „aus“ aber nicht unbedingt „auf“.
Entspricht die Anzahl der Stufen in irgendeiner Weise der Spannweite?

Hier ein Beispiel mit einer Verdichtung in den ersten und den letzten Stufungen, eine markante Streuung ergibt sich somit in der Mitte:

Es kann im Einzelfall aber auch sein, dass diese „Intervallverdichtung“ durchaus begründet ist, bspw. Um einen bestimmten Bereich gesondert zu betrachten, dann aber sollte auch ein Hinweis erfolgen.

Kurz und klein: Mit Histogrammen und Verteilungen kann eine Menge ausgesagt oder eben auch verschleiert werden. Tür und Tor für Manipulationen sind weit offen. Wer aber die Regeln einer Verteilung versteht, ist weitgehend gefeit.

Wie gut, dass niemand weiss…

…wo in meinen Daten die Informationen stecken. Naja, Spaß beiseite. Im Grunde handelt es sich um ein Ärgernis, das in allen Unternehmen von klein bis groß anzutreffen ist. Mitarbeiter kämpfen sich durch gigantische Ordnerstrukturen und verstecken dort Ihre Daten. Zwar sind natürlich (fast) alle Unternehmen in irgendeiner Weise zertifiziert, auch die Informationsstrukturen sind im Grunde zumeist definiert (Stichwort ISO9000soundsoviel).

Aber: Theorie ist ISO, Praxis ist Excel.

Der Klassiker: Auswertungsdaten werden in Excel-Arbeitsmappen nach Jahren, je bestehend aus 12 Tabellenblättern (von Januar bis Dezember) auseinandergerissen. War das noch zu XLS-Zeiten zweckmäßig, ist das seit XLSX nicht mehr begründbar. In XLS-Dateien konnten lediglich 65.536 Zeilen abgebildet werden, in der XLSX-Variante 1.048.576, das ist immerhin 16 mal so viel. Aber man gewöhnt sich an das Verfahren, dabei wäre es kein großer Aufwand, die Daten (auch jahresübergreifend) zusammenzufassen. Auch die Mächtigkeit der immerhin kostenlosen Power-BI-Add-Ins Powerpivot und Power-Query (ab V.2010) sowie Power-View und  Power-Map (ab V.2013) hat sich in den Unternehmen noch nicht sonderlich herumgesprochen.

Oder: Es werden Duplikate und erhebliche Redundanzen mit nennenswerten Anomalien geführt; Motto: „in meiner Kundentabelle wohnt Firma Müller GmbH in Heidelberg und nicht in Stuttgart“ bzw. „die ABC-Membran hat in meiner Liste die Artikelnummer WA4711 und noch nicht die aktualisierte Nr. WA4711H“. Im günstigsten Fall werden diese Redundanzen mit einem Dateinamen-Präfix á la „20150402-Produktdaten“ geführt um eine Historie zu begründen.

Sind die Daten schlecht gepflegt, drohen falsche Abrechnungen und Auswertungen. Überhaupt besteht bei Auswertungen meiner Erfahrung nach eine erstaunliche „Gläubigkeit“ an die Korrektheit der Datenbasis.

Die Datenqualität leidet erheblich, die Informationen „ver-dschungeln“ sukzessiv, die Zusammenführung ist oft sehr problematisch. Lt. Computerwoche (data-expert-lounge) büßen Unternehmen bis zu 25 Prozent ihres operativen Gewinns in Folge schlechter Datenqualität (DQ) ein [http://www.computerwoche.de/software/bi-ecm/1938325/]. Lt. Forrester-Umfrage „Trends In Data Quality And Business Process Alignment“, unter großen US-Unternehmen, ist 18 Prozent der befragten Unternehmen das Zusammenspiel von Business Process Management (BPM) und Datenqualität nicht bewusst. Es handelt sich eben nicht um ein „nice-to-have“-Thema, wird aber teils noch immer so gesehen! Unter Business-Intelligence (BI) stellt man in der Regel hochgezüchtete Softwaresysteme vor, aber auch das muss nicht unbedingt sein, denn wie lautet das Ziel von BI? Ganz einfach: Die (möglichst verlässliche) Ermittlung von Kennzahlen. Es ist nicht immer gleich zwingend erforderlich eine hochkomplexe Software zu entwickeln oder zu erwerben mit der man zum Mond reisen könnte obwohl noch nicht mal die Absicht besteht die Erdatmosphäre zu verlassen, sondern lediglich auf einen Hügel zu steigen um die Übersicht zu bewahren.

In wenigen Schritten zur Lösung:

  • Zuallererst: Eine Daten-SICHTUNG und Bewertung (welche Daten liegen in meinem Unternehmen überhaupt vor), Prüfung nach Relevanz und Aktualität (gute Daten / schlechte Daten)
  • Die Bereinigung der Daten: Duplikate raus und überprüfen auf Korrektheit, ggf. vervollständigen und abgleichen der Daten – Stichwort „Datenhygiene“. Dieser Punkt ist leider oftmals mit etwas zeitlichem Aufwand verbunden.
  • Die Zusammenführung wesentlicher Daten unter einheitlichen Strukturen
  • Die klare Trennung von Stammdaten und Bewegungsdaten (SEHR wichtig!!!)
  • Eine klare Ablage- und Sicherungsdefinition der Daten
  • Die eindeutige Kennzeichnung von Sicherungen und
  • Eine klare Zuständigkeitsdefinition: wer darf was ändern/anfügen/löschen – und trägt somit die Verantwortung für Korrektheit und Aktualität der Daten    sowie
  • Die Ermöglichung von Daten-Verknüpfungen

Die Einhaltung dieser Punkte (oder Teile davon) würde bereits eine erhebliche Qualitätssteigerung gewährleisten. Natürlich macht sich das alles nicht von selbst. Je „chaotisierter“ die Datenbasis, desto aufwändiger ist zunächst die Bereinigung, aber desto deutlicher ist auch der schon bald spürbare Effekt.

„Data-Quality-Management“ wird (zu Recht) häufig mit „Data-Mining“ in Verbindung gebracht. Unter diesem Stichwort werden wiederum teure Programme und Tools angeboten. Für Excel wird ein ebenfalls kostenloses Data-Mining-Tool als Add-In angeboten. Das Data-Mining-Verfahren kann allerdings auch ohne den Einsatz von Software erfolgen. Der o.g. Punkt „Daten-Sichtung und Bewertung“ ist im Grunde bereits Data-Mining und erfordert oft nur ein hinreichendes Verständnis für Daten und Datenstrukturen und eine möglichst auf Erfahrung basierende Analysefähigkeit.

Fazit: Nichts gegen Excel (und andere Desktop-Tools), ganz im Gegenteil. Nutzen Sie Excel – aber nutzen Sie es auch. Professionell! Versetzen Sie Ihre Mitarbeiter in die Lage, die Möglichkeiten (auch die neuen Möglichkeiten) zu nutzen (Stichwort Schulung). Und: Holen Sie sich ggf. Unterstützung.

Zum Scheitern verurteilt?

Zum Scheitern verurteilt?

Hier einige Punkte, die nach meiner Erfahrung ein Projekt (zumeist unnötig) zum Scheitern bringen können:

  • Zu allererst: Der Rohrkrepierer (der „Klassiker“ sozusagen): In einer Gruppe / Abteilung / Firma entsteht eine Idee, die ein neues Produkt, Projekt mitunter aus einem „brainstorm“ heraus gebiert (nicht selten in der berühmten Kaffee-Pause). In den meisten Fällen bleibt es bei der Idee, eine  Weiterverfolgung scheitert (vermeintlich) an Zeit, Geld und an dem Vertrauen, dass die Idee etwas „wert sei“ und ein hinreichendes Interesse – und hinreichende Unterstützung – besteht, Innovation zu fördern.
  • Schlechte / unzureichende Finanz- und Ressourcenplanung: Manche Projekte starten mit einem nicht hinreichend durchgeplanten Ziel (personeller Einsatz, Bereitstellung von geldlichen Mitteln), das betrifft zum einen das zeitliche als auch das personelle und inhaltliche Ziel. In  manchen Fällen ist das auch nicht im Vorfeld auf den Punkt genau zu definieren, wenn allerdings unterwegs die Luft ausgeht, kann das (mitunter auch kurz vor Erreichen des Ziels) zum Abbruch führen.
  • Der Unfall: Ein Projekt wird aufgrund eines unvorhersehbaren Ereignisses abgebrochen, z.B. Softwaresteuerung für ein bestimmtes Produkt, das aus unterschiedlichen Gründen aus der „Palette“ entfernt wird/werden muss
  • Der Feind des Projektes: In manchen Fällen wird seitens einer Abteilung ohne hinreichende Rücksprache mit einer „durchführenden Instanz“ ein Ziel definiert, dass von Seiten der Hauptverantwortlichen (oder einer „übergeordneten Instanz“) nicht nur „nicht-unterstützt“ sondern aktiv bekämpft wird.

Beispiel:

-Erstellung einer Anwendung mit einer Software, die von der IT-Abteilung nicht gewünscht wird.
-Erstellung einer Software, die Personaldaten mit einbezieht ohne hinreichende Rücksprache mit dem Betriebsrat oder dem verantwortlichen Datenschutzbeauftragten

  • Akzeptanzprobleme: Durchführung eines Projektes z.B. im Software-Bereich, das für den Anwender nicht akzeptiert wird weil u.a. die inhaltliche und abstimmende Rücksprache mit den betreffenden Personen fehlt(e) und das  Personal nach Fertigstellung ein Produkt „vor die Füße geworfen“ bekommt, dass nicht in jedem Fall den organisatorischen Ablauf widerspiegelt.
  • Persönliche Animositäten im Projekt beteiligter Personen (die „Männerfeindschaft“ – wahlweise auch die Frauenfeindschaft). Der oder die Beauftragende wird von einem Kollegen/Kollegin (oder Vorgesetzten) im Projekt derart behindert, bis das Projekt als gescheitert gilt. Beispielsweise  werden immer neue Anforderungen an das Projekt gestellt, die immer wieder erneute Kosten entstehen lassen oder gar technisch nicht umsetzbar sind mit der Folge, dass das Projekt als nicht-mehr-zielführend oder unfinanzierbar gilt. Mitunter wird dann sogar auf ein „altes“ System zurückgeschaltet – und das vielleicht nur, um dem Kollegen eines „auszuwischen“ und dem die entstandenen Kosten vorzuhalten bzw. sein Budget zu verpulvern.

Schon der erste genannte Punkt lässt sich häufiger als gedacht vermeiden. So sind mir Beispiele bekannt, bei denen Mitarbeiter aus eigenem Antrieb eine kleine Software, beispielsweise eine kleine Datenbank oder einen (zunächst) kleinen Makro erstellen, mit der sich eine häufig wiederkehrende Aufgabe deutlich schneller und zuverlässiger erledigen lässt. Nach nur wenigen Wochen stellt sich der eigentliche „Wert“ dieser dann weiter verfeinerten Anwendung heraus die ich später (mit Unterstützung der Fachabteilung) professionell weiterentwickeln und in die Umgebung des Unternehmens fest installiert konnte.

Also: Nur Mut!

[intratorials].Video-Informationssysteme

[intratorials].Video-Informationssysteme

…für Ihr Intranet bzw Ihre individuellen Anwendungen

Ich biete ihnen Beratung und Unterstützung bei

  • Konzeption und Realisierung Ihrer Intranet-Video-Tutorials für Ihre individuellen Anwendungen und Daten z.B. für
    • interne Fortbildung / Weiterbildung von Mitarbeitern
    • Seminare z.B.  bei Release- und / oder Versionswechseln
    • zur Reduktion von Supportanfragen
    • Bei Einführung neuer Software oder Organisationsstrukturen
    • Unterehmensinterne Kommunikation
      (social-media-Tools für Ihr Unternehmen)
    • Lernfilme Für Auszubildende
    • für die Präsentation Ihrer Produkte auch im Internet
  • Aufzeichnung, Schnitt, ein-sprechen  von Video-Clips Ihrer Anwendungen

Videos sieht jeder gern, auch Ihre Mitarbeiter.

  • Der Nutzen liegt auf der Hand:
  • Keine Seminarorganisation / keine Ausfallzeiten
  • Keine Reise- / Hotelkosten
  • Leichte Integrierbarkeit: Lernfilme können jederzeit angesehen werden, auch mehrfach und zwar genau dann, wenn der Inhalt benötigt wird oder wenn es zeitlich passt.
  • Mitarbeiter nutzen nur die Inhalte, die für sie relevant sind, eventuelle „Leerzeiten“ von Seminaren entfallen, Wissenslücken können schnell geschlossen werden.
  • Auszubildende können schnell auf einen „Start-Kenntnisstand“ gebracht werden.
  • Reduzierung von Supportanfragen

Es kann sicher auch für Sie interessant sein, Mitarbeitern oder Auszubildenden wesentliche Inhalte (auch zusätzlich zu Schulungen) als Video-Tutorials – also als kurze Lernfilme z.B. in der Dauer von 3 -8 Minuten –  als Nachschlagewerk zur Verfügung zu stellen, die Akzeptanz ist in der Regel sehr hoch!
Oft habe ich als IT-Trainer von Mitarbeitern, die ich bei Seminaren kennengelernt habe, erfahren, dass sie sich Video-Anleitungen (Video-on-demand) für die „eigenen“, also unternehmensinternen Anwendungen wünschten; beispielsweise wenn Neuerungen in einem Programm oder einen Ablaufprozess vorgenommen wurden oder ein neues Programm eingeführt werden soll.

Der Ablauf einer Aufzeichnung / Produktion …
… entspricht in etwa der den Richtlinien einer Kinofilm- oder Werbefilm-Produktion

Ich biete folgende Leistungen an:

  • Erstellung eines Drehbuchs
  • Aufzeichnen der einzelnen Abschnitte
  • Schnitt / Zusammenschneiden / Übergänge
  • Synchronisation, Text einsprechen  / ggf. Organisation professioneller Sprecher
  • Schrift-Text einspielen und an den gesprochenen Text anpassen
    • – ggf. setzen von  Sprungmarken
    • ggf. einpassen von Powerpoint-Präsentationen im Video
  • Rendern des Videos (technische Filmerstellung)
  • Upload
  • Verschlagwortung

Beispiele meiner online-Tutorials im allgemeinen Office-Bereich finden Sie unter auf meinem Youtube-Kanal

Check:
•    Nicht zu vergessen: Test!
o    Technischer Test
o    Anwender-Test

•    Kontrolle: Akzeptanz-Untersuchung:

  • Verifikation nach einen bestimmten Zeitraum per (online-)Umfrage und/oder Mail-Abfrage(n) im Anwenderkreis
  • oder z. B. Auswertung nach o.g. Rückmelde-Button
  • findet eine Reduzierung der Support-Anfragen statt?

Außerdem zu bedenken:

  • Klären der Netz-Infrastruktur
  • Klären der Zuständigkeiten für einspielen / verwalten von (Video)-Tutorials
  • Auflistung der Themen / Software, die die Infomations- bzw. Nachschlage-Tutorials angedacht  sind
  • Soll / kann ein e-Learning-Verfahren (auch) als betriebsinterne Fortbildung angeboten werden?(für Auszubildende bzw. bei Neueinstellungen oder Positionswechsel vn Mitarbeitern)
  • wie ist eine maximale Akzeptanz im Mitarbeiterkreis herzustellen?

Gerne bespreche ich mit Ihnen die Details.
Sprechen Sie mich an.

Die Datenbank vom Weihnachtsmann…

Weihnachten kommt ja immer so plötzlich und überraschend und ohne vorherige Ankündigung. Alle Jahre wieder…
Hier ein Beispiel, welche Hektik im Einzelfall ausbrechen kann, wenn man Projekte vielleicht doch nicht so ganz zeitnah plant;-)

Dem geübten Datenbankprofil ist natürlich aufgefallen, dass traurigerweise nur noch die Hilfsweihnachtsmänner unterwegs sind (ist altersbedingt begründet), die Adressdaten werden unvollständig und nicht ausreichend nach den Regeln der Normalisierung geführt; weiterhin muss u.a. beim Packen der Geschenke-Säcke natürlich „höllisch“ aufgepasst, also noch mindestens eine Plausibititätsprüfung bedacht werden, das hier nichts durcheinanderkommt. Überdies lässt die Bestellabwicklung noch Entwicklungspotential offen.

Bildnachweise:

Der Eisbär: quelle: pixelio.de (by Babsnrw)

Das Geschenk: Quelle: pixelio.de (by S. Hofschlaeger)

Familie: Quelle: pixelio.de  (by S. Hofschlaeger)

Cafe-Tasse: Quelle: microsoft-office-images

Playmobil-Bilder: selfmade (aus dem Bestand meines Sohnes;-)

Verdammt lang her…

Verdammt lang her, dass ich mein erstes Programm in BASIC geschrieben habe. Das fand damals noch auf einem XT statt, ein Rechnermodell, das heute kaum noch im Museum zu finden ist. Der Code war zeilenorientiert, wurde in einer Shell eingetippt und direkt vom allbeherrschenden Betriebssystem interpretiert. Sollte ein „Makro“ geschrieben werden (was damals durchaus noch nicht so genannt wurde), musste eine Datei umständlich angelegt werden. Dafür stand ein umständlicher Editor zur Verfügung, wer den nicht hatte, konnte den nicht etwa „downloaden“ sondern musste den über Diskette einspielen. Von der schon bald aufkommenden Virenproblematik (die sich anfangs ja noch als geradezu niedlich darstellte, gemessen an heutigen Vorstellungen) möchte ich hier gar nicht sprechen. Ansonsten: 5 ¼-Zoll, DS DD (also double-sided, double density!) das war echter Fortschritt , eine Festplatte war nicht zwingend vorgesehen..

die gute, alte Diskette (möge sie in Frieden ruhen)

Auch Batch-files wurden auf „recht bemerkenswerte Weise“ erstellt, aber immerhin, somit konnten System-Befehle in Serie ausgeführt werden, noch der Begriff „autoexec“ rührt aus dieser Zeit.

Programme werden natürlich seit längerem etwas anders erstellt, für Codierungsprobleme gibt es schon lange Foren. Ohne Internet ist ein Rechner eh halbwegs sinnfrei geworden. Die Programmierung zielt seit Jahren darauf ab, dem Anwender die Erstellung immer weiter zu erleichtern. „Intuitive“ Programmbedienung steht auf dem Lehrplan, das gilt auch für Anwendungsprogrammierung.

Insgesamt muss ich aber konstatieren, dass Programmiersprachen und Entwicklungsumgebungen noch ewig davon entfernt sind den Eindruck zu erwecken, dass Software für Menschen gemacht ist und nicht etwas umgekehrt. Wenn ich mit da beispielsweise VB bzw. VBA vor Augen führe, ist es insgesamt doch noch eine enorme Zappelei und erfordert lange und ausdauernde Erfahrung, bis ein Programm lauffähig und sicher(!) ist. „Ich schreibe mal eben ein Tool“ ist einfach noch immer nicht drin. Auch die Funktions-Sprache von Excel , die durchaus als fortgeschritten gelten darf, ist noch weit davon entfernt, als „intuitv“ bezeichnet werden zu können.

Wer schon mal eine Datenbank konstruiert und erstellt hat, weiß, dass strukturelle Überlegungen und Umsetzungen ohne SQL-Kenntnisse problematisch sind. Nun gibt es Quasi-Clone, die Funktions-Sprech mit SQL für BI-Tools verbindet und ebenfalls als Funktion(en) zur Verfügung stellen. Als Beispiel sei hier die DAX-Funktionssprache von Powerpivot genannt. Um diese Funktionen nun zielgerecht anzuwenden, muss ich mich nun nicht etwa nicht mehr in SQL und Datenbank-Theorie und -Terminologie auskennen, sondern ich muss die Funktionsweise in Parametern pressen und ausrücken. Bei Seminaren stelle ich fest, dass es nicht ganz einfach ist, das einem Excel-Anwender „beizubiegen“ und dabei nicht allzu sehr auf Datenbanktheorie auszuweichen. Und insgesamt kommt es mir so vor, als wenn ich immer noch an meinem ersten BASIC-Programm schreibe. Allzu viel hat sich im Grunde noch nicht wirklich getan in dem Versuch, Software für Menschen zu machen.