"This site requires JavaScript to work correctly"

Digitale Daten im Unternehmen

17.6.2014 |

20140617-dfdda

Digitale Daten im Unternehmen: Fundgrube für Stärken und Schwächen?

Was geschieht eigentlich in einem Unternehmen, wenn die Einkaufsabteilung eine Warenbestellung aufgibt? Welche Prozesse laufen ab zwischen dem Anlegen der Bestellung in einer Maske auf dem Bildschirm bis zum Bezahlen der Rechnung und dem Verbuchen der Ware im Lager? Jeder Schritt hinterlässt digitale Spuren. In diesen digitalen Daten könnten sich durch geeignete Analyseverfahren wertvolle Hinweise auftun zu den Abläufen im Unternehmen. „Datenanalyse – ein Instrument zur Verbesserung der Prozessqualität?!“ Dies war das Thema der zehnten Jahrestagung des Deggendorfer Forums zur digitalen Datenanalyse (DFDDA).

 

Auf Einladung des DFDDA e.V., eines an der Technischen Hochschule Deggendorf angesiedelten Vereins, waren Experten aus Wirtschaft und Wissenschaft, aus Wirtschaftsprüfung, Steuerberatung und Finanzverwaltung nach Deggendorf gekommen. Zur Eröffnung gratulierte der Präsident der Technischen Hochschule, Prof. Dr. Peter Sperber, dem Verein zur zehnten Folge seiner erfolgreichen Veranstaltungsreihe. Prof. Dr. Georg Herde, Gründer und Vorsitzender des Vereins, erinnerte daran, dass auch diese zehnte Tagung des DFDDA unter der Leitfrage stand, die schon an den Anfängen des Vereins stand: „Was kann man aus den Daten im Unternehmen herausbekommen, was die operative Tätigkeit so nicht im Blick hat?“ 2005 begannen die jährlichen Forumsveranstaltungen, 2007 wurde das DFDDA als Verein eingetragen.

Datenanalyse mit statistischen Verfahren werde heute immer häufiger zum „Data Mining“ eingesetzt, zur Suche in großen Datenmengen nach Mustern und Zusammenhängen, die anders nicht zu erkennen seien, sagte Prof. Dr. Stephan Hartmann von der Ludwig-Maximilians-Universität München. Den Physiker und Philosophen hatten die Veranstalter als Eröffnungsredner eingeladen, weil er einer der wenigen Wissenschaftler ist, die sich mit mathematischer Philosophie beschäftigen. Hartmann zeigte an Beispielen, wie sich auch komplexe gesellschaftliche Fragen mit den Methoden mathematischer Logik beantworten lassen. Eines seiner Beispiele: Bei Abstimmungen im europäischen Ministerrat haben die 28 EU-Staaten sehr unterschiedliches Stimmengewicht, da die Bevölkerungszahlen sehr unterschiedlich sind. Wie soll man die optimale Stimmenzahl festlegen? Sein Ergebnis: der höchste Nutzen für alle ergäbe sich, wenn die Stimmenzahl eines Landes nicht an seinem Anteil der EU-Bevölkerung gemessen würde, sondern an der Quadratwurzel aus diesem Anteil. Denn dies würde das Gewicht der kleineren Länder stärken und die großen dennoch angemessen berücksichtigen.

Eines der großen Themen der Tagung war das Process Mining, eine Erweiterung des von Hartmann erwähnten Data Mining. Gemeint sind Ansätze, große Datenbestände nicht nur nach Auffälligkeiten wie ungewöhnlich hohen Zahlungsausgängen und –eingängen zu durchsuchen, sondern bei der Suche auch zu berücksichtigen, wie die einzelnen Schritte eines Unternehmensprozesses zeitlich aufeinander folgen und ob es darin Auffälligkeiten gibt. Alexander Rinke von der Firma Celonis in München stellte eine Software vor, die zeitliche Abläufe etwa von einer Bestellung bis zu Wareneingang und Bezahlung grafisch sichtbar macht. Prof. Dr. Ludwig Mochty, Inhaber des Lehrstuhls für Wirtschaftsprüfung und Controlling an der Universität Duisburg-Essen, hält so eine Art „Film“ des „sequenziellen Flusses der Werte“ im Unternehmen für wünschenswert. Offen blieben für ihn aber noch, wie man die in so einem „Film“ gefundenen Prozessabläufe bewerten soll und welche Konsequenzen die gefundenen Erkenntnisse für interne und externe Kontrollsysteme haben sollten.

Uwe Nadler von IBM Deutschland hatte über seinen Vortrag die Frage gestellt: „Wie viel wiegt die Milch?“ Mit dieser Frage illustrierte er, wie wichtig die Qualität der digitalen Daten für ein Unternehmen ist. Nadler hatte als Logistik-Experte die Aufgabe übernommen, die Auslastung der Lieferfahrzeuge eines großen Lebensmittel-Einzelhandels zu optimieren. Dabei stellte er fest, dass es in dem Unternehmen keine einheitlichen Angaben über die Ausmaße der Paletten mit Milch und damit auch die enthaltene Milchmenge gab. Mitarbeiter in den einzelnen Lagerhäusern hatten sich angewöhnt, die Größe angelieferter Paletten von Hand nachzumessen und ihre wechselnden Ergebnisse in den Computer zu tippen. Die Folge war, dass die Daten erst aufwendig von Hand nachbearbeitet werden mussten, bevor eine computergestützte Optimierung der Auslieferung möglich wurde.

Ein weiterer Schwerpunkt der Tagung war die Kontrolle von Unternehmensprozessen und das Aufspüren von Fehlern aus der Sicht der Wirtschaftsprüfung. Als Referenten sprachen dazu Frank Gerber, Partner des Wirtschaftsprüfungsunternehmens BDO AG in Hamburg, und aus Sicht der internen Revision in einem Großunternehmen Dr. Frank Honold und Dr. Hermann Heiß von der Konzernrevision der BMW AG in München. Ein unverzichtbares Werkzeug für den prüfenden Blick auf die gewaltig anschwellenden Berge von Unternehmensdaten ist die gezielte Auswahl einer Stichprobe. Stichproben und statistische Verfahren zur Suche nach Fehlerschwerpunkten seien „das notwendige, aber ungeliebte Kind“ der Prüfer, sagte Dr. Harald Krehl von der DATEV eG in Nürnberg. Sein Kollege Jörg Schaller hatte schon am Vorabend der Tagung einen Workshop zu statistischen Verfahren angeboten. Beide Referenten sind Mitautoren eines Fachbuches, in dem sie Verfahren und Software-Werkzeuge genauer unter die Lupe genommen haben.