Bretzke: IT-Systeme im Supply Chain Management
Transcrição
Bretzke: IT-Systeme im Supply Chain Management
IT-Systeme im Supply Chain Management (White Paper und Unterrichtsmaterial; Stand: Juni 2006) Von Prof. Dr. Wolf-Rüdiger Bretzke Zielsetzung Informations- und Kommunikationstechnik ist ein Schlüsselfaktor für ein erfolgreiches Supply Chain Management. Moderne Techniken wie das Internet oder RFID (Radio Frequency Identification) ermöglichen im Prinzip eine mehrere Wertschöpfungstufen übergreifende Koordination von Geschäftsprozessen auf allen Managementebenen sowie eine Kontrolle logistischer Prozesse in Echtzeit. Die Technik allein löst freilich kein einziges Problem. Man muss die durch diese Werkzeuge erschlossenen neuen Geschäftsprozesse kennen, die sich mit dem Begriff „Supply Chain Management“ verbinden, und man muss die Anwendungsvoraussetzungen sowie gegebenenfalls noch bestehende Umsetzungsbarrieren kennen, um durch den Einsatz moderne Softund Hardwarelösungen den eigenen Unternehmenserfolg nachhaltig zu steigern. Die folgenden Kapitel schildern das Basiskonzept des Supply Chain Management, beschreiben die wichtigsten Teilkonzepte und zugehörigen Tools, identifizieren die jeweiligen Erfolgsbeiträge und Anwendungsvoraussetzungen und erklären beispielhaft das Zusammenwirken von Unternehmensorganisation und Informations- und Kommunikationstechnologie. Dabei wird ausdrücklich auf die zu lösenden Koordinationsprobleme Bezug genommen, die sich aus der verstärkten weltweiten Arbeits- und Standortteilung, einer rasant ansteigenden Variantenvielfalt, verkürzten Produktlebenszyklen und hohen Serviceerwartungen von Kunden ergeben. Die Leser werden so befähigt, den Nutzen von Supply Chain Management zu erkennen, die Rolle der IT in diesem Kontext zu verstehen und zu begreifen, wie man entsprechende Konzepte und Instrumente erfolgreich implementiert. 1 Inhaltsverzeichnis 1 Die Rolle der IT im Supply Chain Management 1.1 Ziele des Kapitels 1.2 Ziele und Aufgabenstellungen des Supply Chain Management 1.3 Der Beitrag von IT zur Verwirklichung von Supply Chain Management 2 Implementierungsansätze für IT-basierte SCM-Konzepte 2.1 Ziele des Kapitels 2.2 IT-relevante Ebenen des Supply Chain Management 2.3 IT-Lösungen auf der Planungsebene 2.4 IT-Lösungen auf der Ausführungsebene („Fulfillment“) 2.5 IT-Lösungen auf der Kontrollebene 3 Beispiele für IT-getriebene Prozess- und Geschäftsmodell-Innovationen im Supply Chain Management 3.1 Ziele des Kapitels 3.2 Fourth Party Logistics Provider („4PL”) 3.3 Elektronische Marktplätze 3.4 Das „Internet der Dinge“: RFID- basierte Prozessintegration 4 Ansätze zur ökonomischen Bewertung von IT-Investitionen im Supply Chain Management 4.1 Ziele des Kapitels 4.2 ROI und mehr: Wege zu einem Business Case 6 Literaturverzeichnis 2 1 Die Rolle der IT im Supply Chain Management 1.1 Ziele des Kapitels Informationstechnologie unterstützt den Vollzug von Prozessen in der Logistik. Supply Chain Management (SCM) enthält eine Reihe erweiterter Prozessmodelle, die über den Rahmen der bislang fokussierten logistischen Aufgabenstellungen hinausgehen. Deshalb muss man zunächst die Ziele und Aufgabenstellungen des Supply Chain Management sowie die daraus resultierenden Prozessmodelle verstehen, um die zugehörigen IT-Konzepte einordnen zu können. Nach der Lektüre des ersten Kapitels sollte der Leser in der Lage sein, die tragenden Leitideen des SCM-Konzeptes zu verstehen und kritisch einordnen zu können, sowie zu erkennen, welche Rolle die Informations- und Kommunikationstechologie bei der Umsetzung dieses Konzeptes spielt. 1.2 Ziele und Aufgabenstellungen des Supply Chain Management Supply Chain Management (SCM) befasst sich mit der Koordination des Leistungsaustausches zwischen Unternehmen. Diese Koordination umfasst die Ebenen der Gestaltung, Planung, Steuerung, Abwicklung und Kontrolle sämtlicher Aktivitäten, die für die Vorbereitung und erfolgreiche Ausführung eines Leistungsaustausches vollzogen werden müssen. Kennzeichnend für das SCMKonzept ist dabei die Vision, das Design der zwischenbetrieblichen Koordination nicht nur bilateral auf die vertikale Verbindung zweier Unternehmen zu konzentrieren, die im Verhältnis zueinander Kunde und Lieferant sind, sondern auf ganze Wertschöpfungsketten auszudehnen: von der Ebene der Rohstofflieferanten bis zu den jeweiligen Endkunden („from sheep to shop“). Im Extremfall kann die Supply Chain sogar von der Rohstoffgewinnung bis zum Recycling (manchmal auch der Entsorgung) von Alt-Produkten reichen („from dirt to dirt“). Diese Wertschöpfungsketten werden als „Systeme“ interpretiert, deren ganzheitliche Gestaltung einen ganzheitlichen Betrieb ermöglichen und allen Beteiligten damit Wettbewerbsvorteile verschaffen soll. Grundlegend für die Erschließung entsprechender Effizienzgewinne ist die Herstellung einer Supply Chain- weiten Transparenz („Visibilität“) über aktuelle Bedarfe und verfügbare Kapazitäten auf allen einbezogenen Wertschöpfungsstufen. Schon damit wird klar, dass IT für die Realisierung von Supply Chain Management ein kritischer Erfolgsfaktor ist: fundamental geht es um die bessere Versorgung logistischer Entscheidungsprozesse mit dem „Rohstoff Information“. Im Ergebnis sollen Lieferketten durch die wechselseitige Versorgung mit planungsrelevanten Daten überraschungsärmer und Pläne stabiler gemacht werden. Plananpassungen, die sich nie ganz vermeiden lassen, sollen innerhalb kürzerer Frequenzen auf der Basis verbesserter Daten so vorgenommen werden, dass nicht nur das einzelne Unternehmen, sondern das ganze es umgebende Netzwerk an Adaptivität und Agilität gewinnt. Mit der Reduzierung von Irrtumsrisiken verbindet sich die Erwartung, vormals benötigte Redundanzen (insbesondere in der Gestalt von Sicherheitsbeständen) eliminieren und die gesamte Prozesskette nicht nur entstören, begradigen und beschleunigen, sondern insgesamt konsequenter auf den tatsächlichen Endkundenbedarf ausrichten zu können. 3 Schon mit diesen wenigen Worten wird klar, welche Erweiterung die Anforderungen an IT-Lösungen durch das SCM-Konzept erfahren. Unter der Überschrift „EDI“ haben sich die Bemühungen um eine engere Kopplung der DV-Systeme miteinander im Leistungsaustausch stehender Unternehmen jahrelang auf unmittelbar transaktionsbezogene Daten (Avise, Lieferscheine, Rechnungen,…) konzentriert. Bei EDI-Verfahren erfolgt die Kommunikation immer in einer Richtung: Der Sender sendet Nachrichten an einen Empfänger. In vielen Anwendungen von EDI sendet später der ursprüngliche Empfänger seinerseits eine Nachricht zurück, aber dies ist ein anderer Prozess, der zeitlich getrennt abläuft und wiederum ein reiner Sendevorgang ist. Anders ausgedrückt erfolgt die Kommunikation bei EDI nach dem Push-Prinzip. Die Erfolgserwartungen waren begrenzt: man wollte Erfassungs- und Übertragungszeit sowie Papier sparen, Übertragungsfehler reduzieren und durch die Trennung von physischen Objektbewegungen und zugehörigen Informationsflüssen vorauseilende Informationen (z.B. Lieferavise) ermöglichen. Die Projekte waren aufwändig, auch wegen der immer wieder erforderlichen Anpassungen an die individuellen DV-Systeme der beteiligten Partner. Da diese sehr unterschiedlich sein können und häufig auch gegenseitig unbekannt sind, ist die EDI-Realisierung immer ein Projekt. Es bestehen große Unterschiede zwischen EDI in der deutschen oder der japanischen Automobilindustrie, oder im Lebensmittelhandel in Spanien, oder im Interbankenverkehr in Österreich oder der amerikanischen Hightech-Industrie. Die Erfolge flossen dementsprechend spärlich. Letztlich ist nur innerhalb von Punktzu-Punkt-Verbindungen das Fax durch die elektronische Übertragung einfacher, standardisierter Nachrichten ersetzt worden – und auch das oft nur in der Verbindung zu einem Teil der jeweiligen Lieferanten bzw. Kunden. Unter der Überschrift „Supply Chain Management“ erfolgt nun eine erhebliche Ausdehnung des Umfangs der Kommunikationsinhalte. Es geht um aktualisierte Abverkaufsdaten und/oder Bedarfsprognosen, Verfügbarkeitsgrade von Kapazitäten, Bestandsreichweiten und ähnliche planungsrelevante Daten. Gleichzeitig mit dieser Erweiterung der Kommunikationsinhalte sind die Erfolgserwartungen um ein Vielfaches gestiegen. Im Falle des Gelingens ist eine weitere Aufwertung der IT als „enabling technology“ die Folge. Die mit der Erweiterung der Kommunikationsinhalte verbundenen, zusätzlich zu erschließenden Erfolgspotenziale betreffen sowohl die Nutzenseite als auch die Kosten des Managements von Lieferketten. Besonders hervorgehoben werden meist die Möglichkeiten einer Bestandssenkung, die aus der besseren Sicht auf aktuelle Bedarfe und („stromaufwärts“ gesehen) aus einer erhöhten Lieferantenzuverlässigkeit resultieren. Im Zusammenwirken mit Bestandssenkungen können verkürzte Planungszyklen zu verringerten Durchlaufzeiten beitragen, die das gesamte Prozessgeschehen dichter an die Endkunden heranbringen. Die verringerten Prognoserisiken lassen sich nicht nur in eine Reduzierung von Sicherheitsbeständen, sondern vor allem auch in eine erhöhte Lieferbereitschaft und Termintreue umsetzen. Eine Risikominimierung wird auch dadurch angestrebt, dass Lieferketten so weit wie möglich nach dem „Pull“-Prinzip organisiert werden. Konkret heißt das, dass möglichst alle Aktivitäten in einer Supply Chain durch bereits artikulierte oder zumindest erkennbare Kundenbedarfe „gezogen“ werden. Bildhaft gesprochen: beim Scannen eines Yoghurtbechers an der Supermarktkasse geht ein Signal an das Produktionssystem des Farbpigmentherstellers, das online eine Information zum Bedrucken neuer Becher erzeugt. 4 Dabei ist es vor allem ein zentraler Effekt, dessen Eliminierung die Experten des Supply Chain Management besonders fasziniert. Man weiß seit ersten Computersimulationen aus den späten 50er Jahren, dass sequenzielle Entscheidungsprozesse autonom agierender Disponenten über mehrere Wertschöpfungsstufen hinweg zu einer sich selbst verstärkenden Aufschaukelung von Bedarfsschätzungen und daraus resultierenden Bestellmengen führen. Dieser sogenannte „Bullwhip“-Effekt ist in den 90er Jahren bei Proctor&Gamble am Beispiel der Nachfrage nach Pampers (einem A-Artikel!) wiederentdeckt, empirisch bestätigt und tiefer erforscht worden. Dabei hat man tiefere Einsichten in die Reaktionszeitverzögerungen und Nachfrageverzerrungen gewonnen, die dadurch hervorgerufen werden, dass Informationen in Beständen „geschluckt“ und Bedarfe in Losgrößen „verklumpt“ werden. Eine Popularisierung dieser Erkenntnisse erfolgte später durch das „Beer Distribution Game“, in dem die Teilnehmer in den Rollen von Händlern, Großhändlern, Produzenten und Zulieferern auf der Basis lokaler Informationen konkret erfahren, dass sich lokale „Optimierungen“ unter den Bedingungen entkoppelter Prozesse und begrenzter Sichten immer wieder zu suboptimalen Gesamtlösungen aggregieren. Der Bullwhip-Effekt ist vor diesem Hintergrund zu einem Musterproblem geworden, anhand dessen der Nutzen von Supply Chain Management besonders anschaulich demonstriert werden kann. Das Interesse an Supply Chain Management begründet sich nicht nur durch die mit diesem Konzept verbundenen neuen Erfolgsverheißungen, sondern auch durch die geänderten Randbedingungen, unter denen Logistik heute praktiziert werden muss. Die weltweite Arbeits- und Standortteilung sowie eine ausufernde Variantenvielfalt bei gleichzeitig schrumpfenden Produktlebenszyklen haben zu steigenden Störungsrisiken bei der Planung und Durchführung logistischer Prozesse geführt. Diese enorme Steigerung der logistischen Komplexität traf im Markt auf erheblich wachsende Anforderung von Kunden an die Qualität logistischer Leistungen. Das Zusammentreffen dieser Entwicklungen hat einen Bedarf an neuen Koordinationstechniken ausgelöst. Gleichzeitig haben neue IT-Technologien und Kommunikationsmedien wie das Internet die Erwartung geschürt, die technischen Voraussetzungen für eine Vereinfachung und Beschleunigung des Datenaustausches seien erstmalig im Weltmaßstab verfügbar und deren Ausschöpfung sei nur noch ein vergleichsweise einfacher Schritt. Die Frage, inwieweit das SCM-Konzept den so entstandenen Bedarf befriedigen kann, hängt davon ab, wie hoch man die Ziele steckt, die mit diesem Ansatz verfolgt werden sollen. Dabei ist es sinnvoll, zwischen zwei verschiedenen Intensitätsgraden der unternehmensübergreifenden Prozessintegration zu unterscheiden. Die (relativ) schwächere Variante der Integration beschränkt sich auf die Herstellung einer unternehmensübergreifenden Transparenz von Bedarfen, Beständen, Kapazitäten und Prozesszuständen. In dieser Variante bleiben die innerhalb einer Lieferkette interagierenden Unternehmen autonom und die Entscheidungen werden weiter dezentral getroffen. Häufig wird in der SCM-Literatur aber eine stärkere Integration der Supply Chain gefordert, die dann erfüllt ist, wenn sich Manager auf verschiedenen Wertschöpfungsstufen bei ihren Entscheidungen nicht von eigentumsrechtlich bedingten „Partikularinteressen“ leiten lassen, sondern auf der Basis der neu gewonnenen Visibilität ein unternehmensübergreifendes „Gesamtoptimum“ für ganze Lieferketten suchen. Das klingt dann so: „Die Idee des SCM ist es, das logistische Netzwerk ganzheitlich zu planen, zu steuern und zu kontrollieren. Dadurch wird das Ziel verfolgt, ein Gesamtoptimum über alle Unternehmen hinweg... zu erreichen...“. (Vgl. Scheer/Angeli/Herrmann (2001), S. 45 ff.) 5 Viele Autoren folgern aus den Möglichkeiten einer unternehmensübergreifenden Gesamtplanung logistischer Abläufe, dass sich der Wettbewerb zukünftig mehr und mehr von der Ebene einzelner Unternehmen bzw. Wertschöpfungsstufen auf die Ebene ganzer Supply Chains verlagert. Für eine erfolgreiche Realisierung dieser stärkeren Integrationsvariante lassen jedoch sich bislang kaum praktische Beispiele finden. Es gibt auch eine Reihe von Gründen, die diesen sehr weitreichenden Anspruch als unrealistisch erscheinen lassen (Vgl. hierzu ausführlicher Bretzke (2005 a). Die folgenden Ausführungen konzentrieren sich deshalb auf die Frage, wie mit Hilfe geeigneter IT-Instrumente Effizienzgewinne in der Prozesskoordination zwischen einzelnen Unternehmen erzielt werden können, die zwar netzwerkartig miteinander verbunden sind, sich dabei aber nicht durch exklusive Partnerschaften zu einer strategischen Gruppe zusammengeschlossen haben. Mit anderen Worten: der Anspruch auf eine ganzheitliche Optimierung umfassender Lieferketten oder sich als Systeme höherer Ordnung konstituierender Netzwerke wird hier nicht weiter verfolgt. 1.3 Der Beitrag von IT zur Verwirklichung von Supply Chain Management Die folgenden Ausführungen werden zeigen, dass wesentliche Elemente des SCMKonzeptes überhaupt nur auf der Grundlage fortschrittlicher IT-Lösungen realisiert werden können. Der IT können damit verschiedene Rollen zufallen: idealerweise ist sie ein Befähiger, in der Praxis erweist sie sich aber oft auch ein limitierender Faktor (z.B. weil sie ad hoc nicht erfüllbare Anforderungen an eine harmonisierte Stammdatenbasis stellt oder ad hoc nicht lösbare Kompatibilitätsprobleme zwischen Tools aufwirft). In beiden Fällen ist sie von zentraler Bedeutung. Fraglich ist hingegen, ob die oft gebrauchte Bezeichnung der IT als „Treiber“ von Supply Chain Management angemessen ist. Im Zusammenhang mit SCM-Software ist diese Einstufung eher irreführend. Software ist als Problemlösung immer die Antwort auf eine Frage. Die eigentlichen Treiber der Neuerungen sind daher ungelöste Fragen, die zu innovativen Prozessmodellen führen, aus denen dann Anforderungsprofile für neue Programme abgeleitet werden. Ein wesentlicher Treiber von SCM in diesem Sinne sind die ungelösten Koordinationsprobleme, die aus der Vielzahl der Schnittstellen resultieren, die die weltweite Arbeits- und Standortteilung hervorgebracht hat. Bei innovativen Hardwarekomponenten oder Infrastrukturlösungen ist dagegen tatsächlich oft eine umgekehrte Kausalität beobachtbar, die die Einstufung von IT als Treiber rechtfertigt. Die später ausführlicher diskutierten Themen „RFID“ und „Internet“ liefern anschauliche Beispiele dafür, wie sich auch Technologien (Antworten) ihre Anwendungen (Fragen) suchen können. Genauer gesagt: die Anwender werden von den neu eröffneten Opportunitäten einer Technologie getrieben. Die Leitfrage lautet: Was könnten wir denn damit alles (anders) machen? Kapitel 3 liefert Beispiele für solche IT-getriebenen Innovationen. Dort, wo innovative Hard- und Softwarekomponenten ineinandergreifen und IT- und Prozessinnovationen einander gegenseitig fördern, wird man der Interdependenz von technologischem und organisatorischem Fortschritt durch einseitige Ursache/Wirkungs-Muster wohl nicht mehr gerecht. In einem SCM-Umfeld erscheint es deshalb angemessen, die IT generell in der Rolle eines Katalysators zu sehen. 6 Bei solchen grundsätzlichen Überlegungen zur Rolle der IT darf man allerdings nie vergessen, dass die Integration von Informationsflüssen neben technischen immer organisatorische und personelle Aspekte aufweist. Nicht selten trifft der Fortschritt hier auf Barrieren. Eine für das SCM-Konzept typische Barriere dieser Art ist die notwendige Veränderung der Einstellungen von Managern in Richtung auf eine Wahrnehmung von Lieferanten als gleichberechtigte Wertschöpfungspartner sowie, damit eng verbunden, der Aufbau von Vertrauen, ohne das der Austausch von sensiblen Daten nicht gelingen kann. Auch IT-Manager müssen deshalb über mehr Bescheid wissen als über IT. Der eher langsame Fortschritt in der Verbreitung einiger zentraler SCM-Tools, auf die später näher eingegangen wird, ist auch darauf zurückzuführen, dass die Rolle der IT als Problemlösungsbestandteil bisweilen deutlich überschätzt worden ist. 2. Implementierungsansätze für IT-basierte SCM-Konzepte 2.1 Ziele des Kapitels IT ist kein Selbstzweck. Primäres Ziel dieses Kapitels ist es deshalb, innovative Prozessmodelle innerhalb von Supply Chain Management zu beschreiben und die Leser damit zu befähigen, resultierende Anforderungen an IT-Lösungen aus ihrem jeweiligen Problemkontext heraus zu verstehen und die zugehörigen, mittlerweile am Markt verfügbaren Tools entsprechend beurteilen und einordnen zu können. Dabei wird Wert darauf gelegt, das notwendige Zusammenspiel zwischen technologischen und organisatorischen Innovationen herauszuarbeiten, kritische Erfolgsfaktoren für eine gelungene Implementierung zu identiifizieren und auch den Blick für die Grenzen der diskutierten IT-Lösungen zu schärfen. 2.2 IT-relevante Ebenen des Supply Chain Management Unter der Überschrift „Supply Chain Management“ werden Verbesserungsansätze für verschiedene Managementebenen und Funktionsbereiche diskutiert. Hinsichtlich der Managementebenen basieren die folgenden Betrachtungen zunächst auf der grundlegenden Unterscheidung zwischen Planungs-, Ausführungs- und Überwachungsaufgaben. Diese Ebenen durchziehen die grundlegenden betrieblichen Funktionsbereiche Beschaffung, Produktion und Absatz, die gleichzeitig auch als grundlegende logistische Prozesssegmente betrachtet werden können. Unterscheidet man weiterhin zwischen Managementtätigkeiten in und solchen an einem System, so ergibt sich eine dritte Dimension der Kategorisierung, die zwischen systemkonzipierenden („Design“-)Aufgaben, nachfolgenden Implementierungsarbeiten und dem laufendem Betrieb unterscheidet. Es ist etwas irritierend, dass auch solche Design-Aufgaben (wie etwa die Konfiguration eines europaweiten Netzwerkes für die Distribution von Ersatzteilen) immer wieder mit dem Begriff „Planung“ belegt werden. In den folgenden Ausführungen wird dieser Begriff reserviert für die antizipierende Schätzung zukünftiger Bedarfe und darauf aufbauende Entscheidungen über die Beschaffung und Verwendung von Kapazitäten. Planung bezieht sich damit auf die Vorsteuerung des Vollzuges logistischer Aktivitäten, nicht dagegen auf die Gestaltung der strukturellen Rahmenbedingungen, unter denen diese Aktivitäten ablaufen. 7 Beide Varianten von „Planung“ werden von verschiedenen Softwarehäusern oft unter einem Dach als Komponenten einer SCM-Software-„Suite“ verkauft. Das verdeckt den völlig unterschiedlichen Anwendungskontext der jeweiligen Tools. Während Software für die optimierende Strukturierung logistischer Netzwerke projektweise eingesetzt wird und dabei Lösungen liefern soll, die mehrere Jahre Bestand haben, wird Planungssoftware im hier verstandenen Sinne im täglichen Einsatz genutzt, um Kapazitäten bedarfsgerecht einzusetzen und Kundenaufträge wunschgemäß zu erfüllen. Da die hier unterschiedenen Kategorien einander überlappen bzw. frei kombiniert werden können, ergibt sich in zeichnerischer Darstellung ein Würfel (Kubus) mit 27 Elementen, der eine grundlegende Positionierung logistischer Aktivitäten erlaubt. In Abbildung1 etwa ist neben der Aktivität der Gestaltung eines Distributionsplanungssystem (oben links) der laufende Betrieb eines Prozesscontrollings im Beschaffungsbereich (unten rechts) dunkel markiert. Ein praktisches Beispiel für ein modernes Distributionsplanungssystem liefert die europäische Ersatzteillogistik eines führenden Landmaschinenherstellers. Aufgrund kurzer Lieferzeitanforderungen ist dieses Unternehmen gezwungen, in einigen europäischen Kernregionen lokale Ersatzteilläger zu unterhalten. Wegen der sporadischen Teilenachfrage und der begrenzten Prognostizierbarkeit des Teilebedarfs ist es kaum möglich, die von Kunden geforderte hohe Lieferbereitschaft aus lokalen Sicherheitsbeständen heraus zu befriedigen. Eine intelligentere Lösung kann darin bestehen, lokale Lager softwarebasiert zu einem virtuellen europäischen Zentrallager zu verknüpfen. Auf dieses Beispiel gehen wir in Kapitel 2.4 noch näher ein. Beispiele für den anderen markierten Würfel werden wir in Kapitel 2.5 ausführlich diskutieren. Kennzeichnend für alle 3 Dimensionen des SCM-Kubus ist, dass die jeweils unterschiedenen 3 Teilaktivitäten in einer Reihenfolgebeziehung zueinander stehen, also als aufeinanderfolgend gedacht werden können bzw. sollten. Um generell gültige Zwangsabfolgen handelt es sich dabei freilich nicht. Im Handel etwa fehlt das Zwischenglied „Produktion“, bei „historisch gewachsenen“ Organisationsstrukturen fehlt die explizite Designphase, und operative Prozesse, die dem Pull-Prinzip genügen, sind im Grundsatz planungsfrei gedacht (die Prozesse werden von Kundenaufträgen ausgelöst bzw. „gezogen“). Dennoch ist der Kubus für eine grundlegende Unterscheidung möglicher Managementaktivitäten in der Logistik sehr hilfreich. 8 Reifegrad Design Funktion Implementierung Distribution Betrieb Produktion Beschaffung Planung Überwachung Durchführung Managementebene Abbildung 1: Der SCM-Kubus Die hier vorgenommene analytische Zergliederung von Managementfunktionen und Betätigungsfeldern hilft bei der „Verortung“ von Problemschwerpunkten und bei der Fokussierung von Projekten. Sie darf allerdings nicht darüber hinwegtäuschen, dass die tatsächlichen Geflechte von Flüssen und Prozessen in lebenden Organisationen nicht derart rigiden Ordnungsschemata genügen. Nach der Philosophie von Supply Chain Management sollten sie das auch nicht. Denn der Kerngedanke dieser Philosophie ist der der Integration. Schnittstellen erscheinen vor diesem Hintergrund als schädlich, und eine der großen Hoffnungen, die aus der Logistik heraus an die IT herangetragen wird, besteht in der Erwartung, sie möge durch einen medienbruchfreien Datentransfer zur Überwindung der Grenzen zwischen Funktions- und Verantwortungsbereichen beitragen. Das gilt nicht nur für die klassischen „funktionalen Silos“ Beschaffung, Produktion und Absatz, sondern in besonderem Maße für die Schnittstellen zwischen vertikal verbundenen Unternehmen, die durch Supply Chain Management unschädlich gemacht werden sollen. Dass IT-Systeme eine schnittstellenübergreifende Prozessintegration in der Vergangenheit durch Insellösungen oft eher erschwert haben, hat diesbezüglichen Erwartungen an die Zukunft keinen Abbruch getan. IT erscheint damit als janusköpfig: sie kann Komplexität schaffen, aber auch zu deren Überwindung beitragen. 2.3 IT-Lösungen auf der Planungsebene Dass Planung, Ausführung und Kontrolle üblicherweise als sequenzielle Handlungen gedacht werden, wurde bereits hervorgehoben. Unter den Bedingungen unsicherer 9 Erwartungen über die Ergebnisse eigenen Handelns, die sich als Folge unvorhergesehener Umfeldeinflüsse ergeben können, muss dem noch hingefügt werden, dass solche Sequenzen infolge identifizierter Zielabweichungen in sich permanent wiederholenden Zyklen organisiert werden müssen. Es ergibt sich dann ein Prozessmodell, das man in der Kybernetik auch „Regelkreis“ nennt. Abbildung 2 zeigt ein vereinfachtes Modell eines solchen „Feed-Back-Loops“. PLAN ACT CHECK Abbildung 2: Der Managementkreislauf In jeder dieser Phasen gelangen spezifische IT-Konzepte und Softwarelösungen zur Anwendung. So eröffnet beispielsweise die in Kapitel 3.4 ausführlich behandelte RFIDTechnologie ganz neue Möglichkeiten eines Real-Time-Controlling logistischer Abläufe, auf die später noch intensiver eingegangen wird. Planung ist geistiges Vorweghandeln und basiert als solches auf Annahmen über zukünftig zu erwartende Bedingungskonstellationen (Kundenbedarfe, Rohstoffpreise etc). Die Herleitung solcher Parameterkonstellationen nennt man Prognosen. Zwischen Prognose und Planung wird nicht immer trennscharf unterschieden. Der Unterschied wird jedoch überdeutlich, wenn man die zugehörigen Softwaretools betrachtet. Innerhalb der im folgenden näher beleuchteten Planungsphase gibt es spezifische Tools für die Lösung von Prognoseproblemen, die etwa in der Handelslogistik in der Lage sind, Absatzvorhersagen bis herunter auf die Ebene einzelner Artikel, Arbeitstage und Filialstandorte zu liefern und dabei die Datenflut aus einer großen Vielzahl von Scannerkassen zu verarbeiten. Diese Tools sind in der Lage, aus längeren Zeitreihenanalysen Muster zu erkennen, die dann in eine Extrapolation in die Zukunft umgesetzt werden. Der Schritt zum Supply Chain Management im engeren Sinne besteht hier darin, dass Handelsorganisationen Point-of-Sale-Daten mit den Herstellern von Konsumgütern teilen und diese damit in die Lage versetzen, ihre Produktionspläne besser mit dem tatsächlichen Absatzgeschehen zu synchronisieren. Im Idealfall kommt es dabei unter Ausnutzung des prognoserelevanten Wissens beider Seiten zu einer Situation, in der Industrie und Handel von einer gemeinsamen, abgestimmten Absatzprognose ausgehen. Für eine solche „Collaboration“ hat sich der Begriff CPFR („Collaborative 10 Planning, Forecasting and Replenishment“) eingebürgert. Der Nutzen solcher Abstimmungsprozesse ist insbesondere bei Absatzpromotionen sehr ausgeprägt, die ohne unternehmensübergreifende Koordination schnell zu unvorhergesehenen Kapazitätsengpässen führen können. Gegenüber diesem Collaboration-Szenario in der Konsumgüterwirtschaft nehmen wir für die weitere Diskussion fortschrittlicher Planungstools im Supply Chain Management eine zweifache Veränderung vor. Zum einen setzen wir das Problem der Absatzprognose als gelöst voraus und befassen uns nur noch mit den auf diesen Vorhersagen aufbauenden Planungsentscheidungen im Bereich der Ressourcenallokation. Und zum anderen wenden wir uns schwerpunktmäßig Produktionsverbundsystemen zu, in denen Endproduktehersteller (OEM = Original Equipment Manufacturer) mit ihren Zulieferern Produktionspläne koordinieren. Aufgrund der hohen Produktkomplexität und der Vielzahl der beteiligten Unternehmen stellen sich hier naturgemäß besonders anspruchsvolle Koordinationsprobleme, mit entsprechend hohen Anforderungen an die einzusetzenden IT-Lösungen. Viele der unter der Überschrift „Supply Chain Management“ entwickelten und diskutierten Prozessmodelle und Softwaretools beziehen sich deshalb auch immer wieder auf Fälle und Beispiele aus der diskreten Fertigung von variantenreichen Produkten wie Automobilen oder HighTech-Produkten. Die Ausgangslage vieler unter diesem Namen angegangener Projekte kann man fast als das „Feindbild“ des Supply Chain Managements bezeichnen: IT-Systeme mit dem Charakter von „Insellösungen“. Aber auch die vor dem Auftauchen des SCMKonzeptes entwickelten DV-Lösungen waren schon von dem Gedanken der Integration getrieben. Integrationstatbestände gab es schließlich auch innerhalb der vier Wälle eines Unternehmens ebenfalls. Als Keimzellen fungierten dabei zunächst isolierte Lösungen für die Prozesse der Materialbedarfsplanung („MRP-Systeme“) und der Produktionsplanung (PPS-Systeme). In der Produktionsprogrammplanung (auch Primärbedarfsplanung) werden dort Art, Menge und Fertigungstermine der Enderzeugnisse (Primärbedarf) festgelegt. Es erfolgt die Festlegung, welche Produkte in welchen Mengen in einem bestimmten Planungszeitraum produziert werden sollen. Ausgehend vom Primärbedarf (Produktionsmenge) wird in der Materialbedarfsplanung dann ermittelt, wieviele Mengeneinheiten an Zwischenprodukten (Sekundärbedarfe) und Rohstoffen benötigt werden. Die Beschaffungsplanung für Sekundärbedarfe erfolgt auf der Basis von Stücklistenauflösungen, Tertiärbedarfe werden stochastisch (nach Verbrauch) geordert. Aufbauend auf diesen Tools, für die die Software COPICS von IBM in den 70er Jahren das Vorbild geliefert hatte, entwickelten sich DV-Systeme, die auf der Basis eines gemeinsamen Datenbestandes auch andere betriebliche Funktionsbereiche wie Vertrieb, Finanzen, Controlling, Anlagenwirtschaft, Personaleinsatz, Auftragsabwicklung und Lagerhaltung mit abdeckten. Für die Bezeichnung dieser Systeme hat sich später der Begriff ERP (Enterprise Resource Planning) etabliert. Die Versorgung aller betrieblichen Funktionsbereiche mit den gleichen Informationen in der gleichen Qualität war ein großer Fortschritt. ERP-Systeme machten es erstmals möglich, alle informatorischen Maßnahmen, die ein einzelner Geschäftsvorfall erforderlich macht, in einem Komplex (einer „Transaktion“) zu verarbeiten. Man hat diese Systeme deshalb bildlich auch als eine Art zentrales Nervensystem von Unternehmen verstanden. Die Schwächen dieser Systeme liegen jedoch genau da, wo sie durch SCM-Konzepte mit neuen Anforderungen konfrontiert werden: im Bereich der Planungs- und 11 Dispositionssysteme. Diese Schwächen wirken schon vor jedem Versuch, Pläne unternehmensübergreifend zu erstellen oder aufeinander abzustimmen, unternehmensintern begrenzend auf die Qualität der Planung. Für SCM-Konzepte erweisen sie sich als K.O.-Kriterien. Drei Schwachpunkte verdienen in diesem Zusammenhang, besonders hervorgehoben zu werden: a) die Hierarchisierung der Planung, die sich in der sequenziellen Erstellung von Teilplänen für interdependente Sachverhalte äußert (der Preis dieser Komplexitätsreduktion sind suboptimale, häufiger sogar nicht machbare Pläne) b) die Behandlung wichtiger Gestaltungsvariabler als vorgegebene Parameter bzw. Restriktionen (typisches Beispiel ist die Behandlung von Durchlaufzeiten als planungsunabhängige Vorgabewerte) und c) die als Stapelverarbeitung realisierte Auflösung in lokale Teilpläne und Handlungsanweisungen. Im Zusammenwirken führen diese Schwachstellen dazu, dass - Wechselwirkungen zwischen Teilbereichen (etwa der Materialbedarfs-, der Kapazitäts- und der Terminplanung) und daraus resultierende Trade-Offs negiert werden, - Mengenaspekte im Vergleich zu Termin- und Kapazitätsaspekten überbetont werden, - logistische Kerngrößen wie Bearbeitungs- und Wartezeiten als Schätzwerte vorgegeben werden, obwohl sie ein Ergebnis der Berechnungen sein müssten, - die Planungsergebnisse keinerlei Kriterien von „Optimalität“ genügen und - dass Anpassungen an geänderte Planungsprämissen sehr aufwändig sind und so viel Zeit beanspruchen, dass das System Notlösungen (etwa in Form von „händisch“ erstellten Tabellenkalkulationen) geradezu provoziert, weil die systemseitig erzeugten Lösungen zum Zeitpunkt ihrer Hervorbringung schon nicht mehr aktuell sind. Um klarer herauszuarbeiten, warum sich auf der Basis solcher Systeme kein Supply Chain Management betreiben lässt, betrachten wir im Folgenden ein zentrales Prozessmodell des SCM-Konzeptes etwas mehr im Detail. Wie eingangs bereits hervorgehoben, basiert Supply Chain Management im Planungsbereich auf der Schaffung von netzwerkweiter Visibilität auf die planungsrelevanten Parameter im Bereich verbundener Unternehmen. Damit verbindet sich die Erwartung, Lieferketten überraschungs- und damit störungsärmer zu machen und dabei gleichzeitig Sicherheitsbestände, Überkapazitäten und Durchlaufzeiten reduzieren zu können. Ein zentraler Aspekt ist dabei die Substitution situationsunabhängig geschätzter Standardlieferzeiten durch belastbare Lieferzeitzusagen. Während Standardlieferzeiten wie etwa ein pauschal zugesagter 24-Stunden-Service infolge der ökonomisch notwendigen Begrenzung von Sicherheitsbeständen und Überkapazitäten in praxi stets mit einer stochastischen Fehlerrate behaftet sind, erwartet man von der belastbaren Lieferzeitzusage eine 12 100%-ige Zuverlässigkeit. Schließlich ist sie nach den vereinbarten Spielregeln lieferantenseitig einzelfallweise gegen alle mögliche Ressourcenengpässe geprüft. Hinter diesem Konzept verbirgt sich die Idee, dass über mögliche Kapazitätsengpässe alle Produktionsprozesse im Verhältnis zueinander interdependent sind und dass jedes „Bottleneck“ die Kapazität einer ganzen Kette limitieren kann. Deshalb ist die Kenntnis von Engpässen für das Management von Netzwerken grundlegend wichtig. In der Fachliteratur spricht man in diesem Zusammengang auch von einer „Theory of Constraints“. Je nachdem, ob die jeweilige Belastbarkeitsprüfung sich nur auf Lagerbestände als Speicher bereits abgerufener Produktionskapazitäten oder auch auf diese Kapazitäten selbst bezieht, sprich man auch von „available“ bzw. „capable to promise“ (Vgl. hierzu ausführlicher auch Alicke (2003)). Das jeweilige Kundenunternehmen (z.B. ein Automobilbauer) stellt seinem Lieferanten initial eine aktualisierte Bedarfsprognose zur Verfügung, die im ersten Schritt dasjenige Produktionsprogramm beschreibt, das man ohne Versorgungsengpässe innerhalb des betrachteten Planungshorizontes fertigen würde („unconstrained forecast“). Im Gegenzug prüfen die Lieferanten, ob sie dieses Programm uneingeschränkt versorgen können oder wo sich gegebenenfalls kapazitätsbedingte Mindermengen oder Verzögerungen ergeben würden. Daraufhin passt der Abnehmer seine Produktionspläne an die Lieferfähigkeiten seiner Versorger an und kommuniziert als vorläufig endgültige Planungsbasis den adaptierten Plan („constrained“ bzw. „committed forecast“). Soweit derartige interaktive Regelkreise erfolgreich installiert sind und erwartungsgemäß funktionieren, muss kein OEM („Original Equipment Manufacturer“) mehr halbfertige Produkte bis zur Nachlieferung fehlender Teile auf den Hof stellen, um sie später im Angesicht wartender Kunden aufwändig nachzurüsten, und die Zulieferer fertigen nur noch solche Teile, die von ihren Kunden auch wirklich gebraucht werden. Es gibt weniger Spekulation in der Supply Chain und als Folge davon auch weniger Blindleistungen. Das Ergebnis ist nicht nur ein Gewinn an Zuverlässigkeit und Termintreue. Nicht beseitigbare Kapazitätsengpässe sollten dabei durch frühzeitige Identifikation auch seltener werden. Durch Ausnutzung dieser neuen Handlungsspielräume wird, neben der Planungsqualität, gleichzeitig auch die Qualität des „Exception Managements“ besser. Es wird seltener und dabei zunehmend proaktiv: Prävention statt „Troubleshooting“. (Eine ausführliche Behandlung des Themas „Supply Chain Event Management“ erfolgt in Kapitel 2.5). Abbildung 3 verdeutlicht die Logik dieses Modells, das relativ leicht zu erklären, im Verhältnis dazu aber nicht ganz leicht zu implementieren ist. 13 Kapazitäts-Update tier n „Ich verarbeite nur das, was meine Lieferanten wirklich liefern können“ „Ich produziere nur das, was mein Kunde tatsächlich verarbeiten will“ tier n-1 1. Forecast-Update („unconstrained“) 2. Forecast-Update („constrained“) Abbildung 3: Integriertes Bedarfs-/Kapazitätsmanagement Die aus diesem Modell resultierenden Anforderungen an die IT-Systeme der Zulieferer sind nämlich mächtig. Sie müssen in der Lage sein, - aus ihren Planungssystemen heraus Kapazitäts- bzw. Lieferzusagen zu erzeugen, die gegen alle verfügbaren Restriktionen (Mitarbeiter, Material, Bestände, Maschinenzeiten) geprüft und hinsichtlich der abgeleiteten Terminzusagen vollständig belastbar sind (ein solches „constrained based planning“ geben ERP-System üblicherweise nicht her), - sie müssen innerhalb kurzer Planungsfrequenzen, gegebenenfalls auch auf Ad-hoc-Anfragen, auf der Basis von „What-if-Simulationen“ sehr schnell auch auf Fragen antworten können, hinter denen nur aktualisierte Bedarfsprognosen, aber noch keine harten Aufträge stecken. Gefordert ist die Fähigkeit, mit Hilfe von Szenarien Engpässe in der Versorgungskette frühzeitig zu identifizieren, so dass sie noch vor ihrem Wirksamwerden entschärft werden können, und - sie müssen mit Hilfe einer „Locking-Funktion“ Güter und oder Kapazitäten für bestimmte Kunden in unterschiedlichen Produktions- oder Distributionsphasen reservieren können. (Die bloße Mitteilung, man habe derzeit noch freie Kapazitäten, erfüllt nicht die Funktion der Unsicherheitsreduktion. Wenn allerdings die Reservierung nicht durch Aufträge, sondern nur durch aktualisierte Bedarfsprognosen ausgelöst wird, kann es zu einer Risikoverlagerung auf den Zulieferer kommen, dem im Falle einer nochmaligen Bedarfsrevision ein Kapazitätsverfall droht.) Zur Erfüllung dieser Anforderungen ist ein spezieller Typ von Informationssystemen entwickelt worden, der als Advanced Planning System (APS) bezeichnet wird. Mit diesen Systemen wird der Schwerpunkt der Management-Unterstützung durch IT gewechselt: von der Unterstützung bei der Vorbereitung und Ausführung von Transaktionen und Prozessen auf die Entscheidungsunterstützung. Die unter der Überschrift APS im Markt von verschiedenen Anbietern wie SAP (APO), i2 Technologies oder Manugistics angebotenen Tools umfassen in der Regel mehrere 14 Teillösungen für segmentierte Anwendungsbereiche (z.B. „Transportation and Distribution Planning“). Abbildung 4 zeigt ein typisches Bild der Funktionsabdeckung derartiger Software-„Suiten“. Abbildung 4: Typischer Funktionsumfang von SCM-Software-Paketen Die etwas irritierende Zusammenfassung von Planungssoftware für die Vorsteuerung von Produktionsprozessen mit Tools für die Unterstützung einer Netzwerkkonfiguration wurde bereits angesprochen. Hier interessiert vor allem der Beitrag dieser Leistungspakete zu einem unternehmensübergreifend integrierten Bedarfs/Kapazitätsmanagement. Advanced Planning Systems gewinnen die geforderte Rechengeschwindigkeit vor allem dadurch, dass sie einen Großteil der planungsrelevanten Daten im Hauptspeicher des Rechners („Live Cache“) resident halten. Das wird dadurch möglich, dass sie ERP-Systeme nicht ersetzen, sondern „on Top“ auf ihnen aufsetzen. Sie beziehen die benötigten Grunddaten aus den operationsnah operierenden Transaktionssystemen und geben die Ergebnisse ihrer Berechnungen als Pläne zur Exekution an die ERP-Systeme zurück. Dort werden dann z.B. aus den optimierten Produktionsplänen über Stücklistenauflösungen und Materialbestandsabgleiche terminierte Nettosekundärbedarfe, die auf der Basis von hinterlegten Lieferterminen und Losgrößenformeln in Bestellmengen und schließlich in Bestellungen transformiert werden. Davon sind Advanced Planning Systeme entlastet. Allerdings benötigen sie in Teilbereichen auch Daten, die in ERP-Systemen üblicherweise nicht oder nicht in der benötigt Qualität vorgehalten werden. Darauf muss vor einer Implementierung sorgfältig geachtet werden. Schneller werden Advanced Planning Systeme auch dadurch, dass sie einen inkrementellen Planungsansatz verfolgen: sie schreiben bei einer Veränderungen von Randbedingungen Pläne fort und erstellen nicht, wie dies in MRP-Systemen üblich ist, 15 jeweils einen neuen Gesamtplan. Zumindest im Prinzip erringen sie durch diesen Geschwindigkeitsgewinn die Fähigkeit, vormals isoliert behandelte Produktionsstandorte unter Berücksichtigung wechselseitiger Interdependenzen simultan zu verplanen. Advanced Planning Systeme haben eine höhere Integrationsreichweite. Vor allem aber ermöglichen sie jenen Abstimmungs- und Anpassungsprozess, den wir eingangs als „Available to Promise“ oder „Order Promising“ beschrieben haben. Von ihrem eigenen Anspruch (und von den Versprechungen einiger Softwareanbieter) her müssten Advanced Planning Systeme im Grunde alle relevanten Restriktionen gleichzeitig berücksichtigen und damit Produktionsprogramme, Materialbedarfe, Kapazitätsauslastungen, Lagerbestände und Liefertermine in einem Zug optimieren. Diese Komplexität ist aber in sich zu hoch und damit nicht modellierbar. Auch Advanced Planning Systems basieren deshalb im Inneren auf einer hierarchischen Strukturierung der Planung, die ihnen beherrschbare Partialplanungen ermöglicht. Dabei werden verschiedene Planungsebenen unterschieden. Auf der obersten Ebene wird ein unternehmensweiter, sehr grober Plan erzeugt. Je tiefer die Planungsebene ist, des mehr Restriktionen muss ein Plan genügen. Mit jeder Verkürzung des Planungshoriziontes werden die Pläne detaillierter. Der Unsicherheit wird dabei in der Regel durch eine rollierende Planung Rechnung getragen, bei der nach Ablauf jeder Teilperiode diese entfernt und eine weitere Teilperiode „angehängt“ wird. Nicht nur wegen der Unmöglichkeit einer Erstellung von Totalmodellen ist auch bei APS-Systemen beim Umgang mit dem Wort „Optimierung“ Vorsicht geboten. Advanced Planning Systems enthalten neben echten Optimierungsalgorithmen auch relativ schwächere heuristische Lösungsverfahren, die nur machbare Pläne garantieren können. Außerdem ist es eine Schwäche, dass sie in einer Welt mit ausgeprägten Nachfragevarianzen und stochastischen Parametervariationen nur zu einer deterministischen Planung fähig sind. Das erzwingt in dynamischeren Märkten häufigere Plananpassungen, auch unterhalb der Rhythmik einer rollierenden Planung, gegebenenfalls auch als ereignisgetriebene Planrevision. Ihre prinzipielle Überlegenheit gegenüber ERP-Systemen bleibt dabei aber erhalten. Im Übrigen muss eine automatisierte „Optimierung“ auch gar nicht das intendierte Ziel einer APS-Applikation sein. Intelligenter ist ihre Nutzung als Entscheidungsunterstützungssysteme, bei denen die Interaktion mit dem Benutzer Vorrang hat vor dem bloßen Vertrauen auf vorprogrammierte Standardabläufe und Lösungsalgorithmen. Es ist ja gerade einer der großen Vorteile dieser IT-Systeme, dass sie jederzeitige Eingriffe eines Planers erlauben und unterstützen und damit zugleich die Möglichkeit eröffnen, das nicht quantifizierbare Hintergrundwissen eines Disponenten über planungsrelevante Sachverhalte (z.B. die Möglichkeit reiner zusätzlichen Wochenendschicht) in den Lösungsprozess einzubeziehen. Allerdings droht Advanced Planning Systems der Verlust ihrer Schnelligkeitsvorteile, wenn Parametervariationen nicht nur „spielerisch“ simuliert werden, sondern wenn sich wesentlich Planungsgrundlagen real ändern und dies eine entsprechende Erfassung und Verarbeitung in den zugrunde liegenden ERP-Systemen erzwingt. Dann wird der Vorteil der „On-Top-Architektur“ vernichtet und der gesamte RePlanungszyklus läuft wieder nur mit der Geschwindigkeit seines schwächsten Gliedes. Typische Regelungszyklen betragen dann Stunden bis Wochen. In einem dynamischen Marktumfeld ist das eigentlich zu wenig. 16 Um Advanced Planning Systems erfolgreich implementieren zu können, muss man nicht nur datentechnische Vorbereitungen treffen, die sich – wie etwa eine konzernweite Stammdatenbereinigung und- vereinheitlichung – als überraschend aufwändig herausstellen können. In der Regel bedingen diese Systeme auch vorlaufende Anpassungen von Prozessen, Entscheidungsbefugnissen und Kommunikationstrukturen. Das erklärt, warum die Implementierung von Advanced Planning Systems in der Regel zu aufwändigen Projekten mit einem sehr anspruchsvollen Change Management führt. Aufgrund der resultierenden hohen Implementierungskosten dürften Advanced Planning Systeme auf absehbare Zeit wohl auch nur für größere Unternehmen interessant sein. Der Anspruch, etwa innerhalb der Automobilindustrie ganze Zulieferer-Netzwerke über mehrere Wertschöpfungsstufen nach den Regeln eines modernen Supply Chain Management zu reorganisieren, stößt hier an eine ökonomische Grenze. Advanced Planning Systeme haben ihre Rolle als „enabler“ eines echten Supply Chain Management bislang noch kaum ausspielen können. Der Implementierungsaufwand spielt auch eine Rolle bei der Beantwortung der Frage, ob man sich bei der Auswahl eines Advanced Planning Systems für die Software eines Spezialisten entscheiden sollte oder aufgrund der leichteren Integration zu dem bestehenden ERP-System beide Systeme aus einer Hand beziehen sollte. Hier hat SAP mit der kontinuierlichen Weiterentwicklung seiner SCM-Lösung (APO) den Spezialisten als Verfechtern einer „Best-of-Breed“-Lösung das Leben in der jüngeren Vergangenheit immer schwerer gemacht. Als wesentliches Implementierungshindernis erweist sich auch ein Mangel an standardisierten Schnittstellen im Verhältnis zu anderen Wertschöpfungspartnern. Das ist in erster Linier kein reines DV-Problem. Wichtig ist vielmehr, dass die Standardisierung nicht nur DV-technische Schnittstellenfragen löst, sondern auch Arbeitsabläufe umfasst. Dabei geht es nicht nur um softwarenahe Workflows. Schon die Klärung der Frage, ob sich Bedarfsinformationen beim Fahrzeugbau auf Fahrzeugeigenschaften, auf Module, auf Komponenten oder auf Teile beziehen soll, ist nicht trivial. Und wenn beispielsweise die Planungsrhythmen zwischen Unternehmen unterschiedlicher Wertschöpfungsstufen nicht nur der Länge nach, sondern auch kalendertaggenau abgestimmt sind, ergibt sich durch Synchronisierungsmängel schnell eine kontraproduktive Kumulation von Planungsdurchlaufzeiten. Die simpel erscheinende Frage, welche Information zu welchem Zeitpunkt fließen soll, ist schon in der bilateralen Abstimmung zwischen zwei Unternehmen nicht immer einfach zu lösen. Als Gegenstand einer branchenweiten Standardisierung wird sie ziemlich komplex. Hier ist in der Praxis noch viel zu tun, zumal sich die Hoffnung auf eine standardisierende Wirkung elektronischer Marktplätze in diesem Punkt bislang kaum erfüllt hat. (Zur Funktion und Bedeutung elektronischer Marktplätze vgl. ausführlicher Kapitel 3.3). Aus Zulieferersicht sind Standardisierungshemmnisse ein entscheidendes Innovationshemmnis. Die Furcht, sich vor der Herausbildung eines Standards für das falsche System zu entscheiden, kann Investitionsentscheidungen ebenso blockieren wie die Angst, durch die Komplexität einer parallelen Bedienung nicht standardisierter Kundensysteme alle möglichen Vorteile einer „Supply Chain Collaboration“ gleich wieder zu verlieren. Standardisierung ist deshalb eine wesentliche Vorbedingung für eine zügige Verbreitung. Aus OEM-Sicht ist sie allerdings nicht nur mit Vorteilen behaftet. Bei bereits weit entwickelten eigenen Systemen mag manches Unternehmen eine nachträgliche 17 „Sozialisierung“ eigener Wettbewerbsvorteile und/oder den Rückfall auf ein schlechteres Konzept befürchten. Die Haltung vieler OEMs zu Fragen der Standardisierung ist deshalb ambivalent. Am liebsten hätten sie eine logistische „Plug & Collaborate“-Welt, in der man die Effizienzvorteile einer vertikalen Prozessintegration ebenso haben kann wie die Vorteile eines einfachen Lieferantentausches. Wenn Advanced Planning Systeme sich als Voraussetzungen einer unternehmensübergreifend koordinierten Bedarfs- und Kapazitätsplanung nur langsam durchsetzen, ist das insoweit auch auf ein mangelndes Verständnis für die Nöte von Zulieferern zurückzuführen. Dass dabei auch Ängste im Zusammenhang mit der für Supply Chain Management notwendigen Offenlegung sensibler Daten eine restriktive Rolle spielen können, wurde bereits eingangs erwähnt. Die Herstellung von Vertrauen in einem durch harten Wettbewerb um Wertschöpfungsanteile geprägten Umfeld ist eine der zentralen Managementherausforderungen des SCM. Natürlich ist gelegentlich auch ein Mangel an Wissen über „Supply Chain Management“ und die Vorteile einer vertikalen Integration von Planungssystemen für die unzureichende Verbreitung von SCM-Tools verantwortlich. Manche Lieferanten hängen dem Glauben nach, dass sie auch auf der Basis ausgefeilter Tabellenkalkulationsprogramme in einem anspruchsvollen unternehmensübergreifenden Bedarfs-/Kapazitätsmanagement mitspielen können. In diesem Zusammenhang muss ausdrücklich auf die Nachteile von Spreadsheets hingewiesen werden: - Spreadsheets basieren auf lokaler Datenhaltung. Sie erzwingen deshalb keine Datenkonsistenz und –integrität. - Spreadsheets sind zwar hoch flexibel und einer jederzeitigen Manipulation offen. Wenn diese Flexibilität jedoch genutzt wird, kennt bald niemand mehr den aktuellen Planungsstand bzw. die Umstände seiner Veränderung. - Aufgrund ihrer Speicherung als individuelle Dateien sind Planungen auf der Basis von Spreadsheets nicht mit dem in Betrieb befindlichen ERP-System integriert. Sie können deshalb nur sehr begrenzt (jedenfalls nicht automatisch) historische Daten als Planungsgrundlage ausbeuten (etwa im Rahmen von Zeitreihenextrapolationen für eine Absatzprognose). - Spreadsheets basieren oft auf „selbstgestrickten“ Planungsmethoden, die keine Restriktionen berücksichtigen können und deshalb Pläne generieren, deren Machbarkeit unklar ist. Auch und gerade für Supply Chain Management gilt deshalb die alte DV-Weisheit „Garbage in – garbage out“. Zulieferer, die ihren Kunden Terminzusagen auf der Basis von Tabellenkalkulationsprogrammen übermitteln, werden deshalb dem „Available-toPromise-Konzept“ in keiner Weise gerecht. Was Zulieferern in diesem Zusammenhang oft nicht hinreichend klar ist, sind die großen Chancen, die im Rahmen von Supply Chain Management darin liegen, über IT-basierte Zusatzservices eine engere Kundenbindung zu schaffen und durch beiderseitige spezifische Investitionen in ihre gemeinsame Schnittstelle die Kosten eines Lieferantenwechsels zu erhöhen. Ein sehr anschauliches Beispiel hierfür ist ein weiteres Teilkonzept von Supply Chain Management mit Namen „Vendor Managed 18 Inventory“ (VMI). Auch bei dessen Implementierung können Teilfunktionen von Advanced Planning Systems nützlich sein. Eine nähere Erläuterung dieses Konzeptes schafft das notwendige Prozessverständnis und erschließt damit die Sicht auf die ITseitigen Anforderungen zu seiner Realisierung. VMI entsteht durch die Übertragung eines Versorgungsprozesses auf den Lieferanten einer Warengruppe. Es kann insoweit als eine Variante des Logistik-Outsourcings betrachtet werden, bei der der fremd vergebene Leistungsumfang allerdings nicht einem Dienstleister, sondern einem Produzenten übertragen wird. Kunde und Lieferant vereinbaren dabei in der Regel einen Bestandsreichweiten-Korridor, innerhalb dessen der Lieferant den Nachschub für seinen Auftraggeber selbständig organisiert und steuert. Die Grenzen dieses Korridors sollen sicherstellen, dass es weder zu Fehlbeständen noch zu Überbeständen kommt. So übernimmt beispielsweise das Edelstahlwerk Witten Krefeld (EWK) die Bestandsplanung für drei seiner Top-Kunden, darunter die Flender-Gruppe als Hersteller von Getrieben und Kupplungen. EWK berichtet von Bestandssenkungen um über 50% bei gleichzeitiger Verkürzung der Lieferzeiten um 20%. Innerhalb dieses Reichweitenkorridors kann sich der Lieferant dispositiv frei bewegen. Eines förmlichen Auftrages als Impuls für das Anstoßen einer Nachlieferung bedarf es nicht mehr (wohl aber eines Lieferavises). Damit kommt als erste Quelle von Einsparungen eine Senkung von Transaktionskosten ins Blickfeld, die zusätzlich noch durch die gleichzeitig erfolgende Automatisierung von Abläufen verstärkt wird. Der Kunde wird von Bestandsprüfungen, Bestellmengenrechnungen sowie der Erstellung und Kommunikation von Aufträgen befreit. Häufig wird VMI mit dem Konsignationsprinzip gekoppelt, demzufolge der Eigentumsübergang auf den Abnehmer erst nach der Lagerentnahme, dem Verbauen oder (im Handel) nach dem Weiterverkauf erfolgt. In den beiden letztgenannten Fällen spricht man auch von „Pay on Production“ bzw. von „Pay on Scan“. Für die Supply Chain insgesamt ist mit einer solchen Verschiebung der Finanzierungslast allerdings nicht viel gewonnen. Die entscheidenden Vorteile sind an anderer Stelle zu suchen. Ihre Grundlagen sind aus Lieferantensicht die verbesserte Visibilität auf zu erwartende Bedarfe, die Vergrößerung der Dispositionsspielräume in der Produktions- und Transportplanung und die engere Kundenbindung. In einer einfachen Grundvariante wird dem Lieferanten ein tagesaktueller Einblick in die Entwicklung der Bestände seiner Produkte im Lager seines Kunden gewährt. Damit sieht er zukünftige Bedarfe schon etwas eher auf sich zukommen als im „Status Quo Ante“, wo Bedarfe erst nach ihrer Konkretisierung in Aufträgen kommuniziert wurden. Sein volles Potenzial kann das VMI-Konzept jedoch erst entfalten, wenn der Abnehmer seinen Zulieferer mit zusätzlichen Informationen über sein eigenes Absatzgeschehen versorgt. Das kann durch die Weitergabe von aktuellen Absatzzahlen (z.B. Point-of-Sale-Daten) geschehen, die der Lieferant dann allerdings in Bedarfe nach seinen Produkten umrechnen muss. In der Praxis dürfte das aber nur bei einfachen, „rezeptartigen“ Stücklisten problemlos funktionieren. Bei breiteren und tieferen Stücklisten müsste der Kunde seinem Lieferanten diese Arbeit abnehmen und ihn über die Ergebnisse seiner eigenen Absatz-, Produktions- und Beschaffungsplanung (technisch gesprochen: seiner MRPLäufe) informieren. Mit einer solchen Transformation von prognostizieren Bruttoprimärbedarfen in terminierte Nettosekundärbedarfe würden sich dann die 19 Bedarfssignale von den Kunden des Kunden kalenderzeit- und mengengenau auf den (VMI-)Lieferanten übertragen lassen. Soweit eine derart weitgehende Prozessintegration technisch zu aufwändig erscheint oder aus anderen Gründen nicht gewollt wird, sollte der Abnehmer seinen Lieferanten mindesten mit aktuellen Informationen über bedarfstreibende Sonderereignisse versorgen, deren Konsequenzen aus vergangenen Lagerabgängen nicht hochgerechnet werden können. Beispiele hierfür sind etwa Promotionen oder Großkundenverluste. Wo dies nicht geschieht, kann die dem Lieferanten überlassene verbrauchsorientierte Umrechnung von Lagermengen in Bestandsreichweiten fallweise zu nicht belastbaren Werten führen. Mangels Verzahnung der Planungsprozesse wird die Nachschubsteuerung an „transactional data“ gehängt und die Visibilität bleibt auf Lagerabgänge beschränkt. Auch das kann jedoch, wie sich inzwischen durch viele praktische Implementierungen belegen lässt, schon ein beachtlicher Vorteil sein. Zunächst einmal kann die Reduzierung von Überraschungen für eine Absenkung der benötigten Sicherheitsbestände genutzt werden. Sofern die Flexibilität der Produktion des Lieferanten eine Nachversorgung des Kundenbestandes aus laufender Fertigung ermöglicht, kann aus der Supply Chain sogar eine Lagerstufe komplett eliminiert werden. Die erhöhten Dispositionsspielräume, die der Zulieferer als Lead-TimeVerlängerung für seine Fertigungsplanung nutzen kann, begünstigen ein solches Modell. Sie können über Reihenfolge- und Losgrößenoptimierungen ihren Niederschlag im Prinzip auch in einer Senkung der Produktionskosten finden. Die rechnerische Antizipation solcher Effekte ist in der Praxis allerdings schwierig. Einen Business Case wird man auf diesem Effekt deshalb kaum aufbauen können. Etwas einfacher geht dies dagegen mit den Effekten einer integrierten Bestands- und Tourenplanung. Im Ausgangszustand werden Entscheidungen des Abnehmers über Bestellmengen und -zeitpunkte ohne Rücksicht auf die daraus resultierende Auslastung der Zustellfahrzeuge getroffen. Die durch VMI ermöglichte Strategie, einen Nachschub situationsabhängig schon vor Erreichen des jeweiligen Bestellpunktes anzustoßen, um so die Entwertung von freiem Laderaum auf einem LKW zu verhindern, kann die durchschnittliche Fahrzeugauslastung je nach Ausgangslage und kritischer Masse in einer Größenordnung von 8 bis 12 % anheben. Bei sehr vielen Produkten ist eine leichte Erhöhung der Bestandsreichweite als Folge dieses fallweise praktizierten Pushprinzips ökonomisch weit weniger relevant als die Verschwendung von Ladefläche. Die Bilanz dieses Konzeptes ist daher in diesem Punkt meist eindeutig positiv. Allerdings macht es nur Sinn, wenn der Lieferant eigene Ausliefertouren disponiert (idealerweise auf Basis einer Tourenplanungssoftware) oder durch einen Dienstleister disponieren lässt. Bei einer Nutzung von speditionellen Stückgutnetzen, die bei kleineren Sendungsgrößen und weiten Lieferradien üblich ist, gibt es diesen Effekt nicht. Die Ausschöpfung des hier beschriebenen VMI-Potenzials basiert zwar auf moderner Informations- und Kommunikationstechnologie, sollte aber wiederum nicht als reines IT-Projekt missverstanden werden. Die geänderte Rollenverteilung bedingt nicht nur eine Überzeugung konventionell geprägter Einkäufer, sondern generell den Aufbau einer beiderseitigen Vertrauensbasis, ohne die sensible Daten nicht fließen können. Insoweit stellt auch Vendor Managed Inventory eine Herausforderung an das ganze Management dar. 20 2.4 IT-Lösungen auf der Ausführungsebene („Fulfillment“) Obwohl sie auf einer logischen Ebene leicht einsehbar gemacht werden kann, ist die Trennung zwischen Planung und Durchführung in der Praxis nicht immer ganz trennscharf möglich. Das liegt daran, dass auch operative, d.h. auf physische Veränderungen von Gütern (einschließlich der Änderung ihrer Raum-Zeit-Koordinaten) gerichtete Prozesse immer wieder von Entscheidungen durchsetzt sind. Der Unterschied liegt insoweit eher in der Länge der „Planungs“-Horizonte als in einem Wechsel des Prinzips. Ein anschauliches Beispiel hierfür liefert etwa ein Staplerleitsystem, das die Bewegungen von Flurförderfahrzeugen in einem Lager unter Echtzeitbedingungen steuert. Etwas stärker zeitlich entkoppelt vom zugehörigen operativen Geschehen sind in der Regel die Tourenplanungen von Disponenten im Rahmen der Steuerung von Nahverkehrsfahrzeugen in der Flächendistribution. Gemeinsam ist beiden Aktivitäten, dass sie nicht auf antizipierten Bedarfen beruhen, sondern auftragsgetrieben vollzogen werden. Beide Beispiele zeigen, dass Informations- und Kommunikationstechniken auch im operativen logistischen Geschehen ihre Bedeutung haben. Das zeigen auch die namhaften Softwarehersteller, wenn sie Teile ihrer Programmsuiten unter der Überschrift „Supply Chain Execution“ vermarkten. Heutige Warehouse-ManagementSysteme etwa ermöglichen eine zeitnahe und ortsbezogene Verwaltung von Lagerbeständen und unterstützen die Prozesse des Ein- und Auslagerns sowie des Kommissionierens. Weitere Funktionen sind u.a Chargenverfolgung, Mindestmengenüberwachung und die Unterstützung von Inventuren. Zu einem sehr großen Teil richten sich diese immer komplexer werdenden Tools jedoch auf Steuerungsprobleme innerhalb einzelner Unternehmen, d.h. sie fallen nicht unter die Überschrift „Supply Chain Management“. Das gilt nicht mehr, wenn man sich von der unmittelbaren Steuerung physischer Prozesse löst und die darüber liegenden administrativen „Workflows“ mit einbezieht. Hier gibt es zahlreiche Beispiele für erfolgreiche unternehmensübergreifende Integrationen von Aktivitäten, die nicht als Ausführung von Plänen verstanden werden können, weil sie unmittelbar auftragsgetrieben sind. Jeder, der schon einmal ein Buch bei Amazon bestellt hat, weiß, dass er mit seinem Auftrag unmittelbar einen Fulfillment-Prozess auslöst, der physische und administrative Aktivitäten umfasst und weitestgehend automatisiert ist. In einem B2B-Kontext ist das Order Placement bei fortgeschrittenen IT-Lösungen oft noch verbunden mit Verfügbarkeits- und Machbarkeitsprüfungen und der Bestätigung von Lieferterminen. Welche innovativen Lösungen im Bereich Order Fulfillment da möglich sind, lässt sich besonders anschaulich am Beispiel der Ersatzteillogistik demonstrieren. Die Ersatzteillogistik zeichnet sich durch das Zusammentreffen einiger Merkmale aus, die Logistikern Kopfschmerzen bereiten können. Ein breites Artikelspektrum mit einem hohen Anteil nur sporadisch nachgefragter Teile, hohe Folgekosten der NichtVerfügbarkeit infolge Maschinenstillstands und daraus folgende Anforderungen an sehr kurze Lieferzeiten sowie hohe Verfügbarkeitsgrade erfordern einerseits eine weitgehende Zentralisierung der Lagerhaltung. Andererseits sind sehr kurze Lieferzeiten nur auf der Basis kundennaher, also dezentraler Bestände möglich. Aufgrund der sporadischen Teilenachfrage und der begrenzten Prognostizierbarkeit des Teilebedarfs ist es kaum möglich, die von Kunden geforderte hohe Lieferbereitschaft aus lokalen Sicherheitsbeständen heraus zu befriedigen. Eine intelligentere Lösung kann darin bestehen, lokale Lager softwarebasiert zu einem 21 virtuellen europäischen Zentrallager zu verknüpfen. Woher der Kunde seine Ware erhält, kann dann fallweise nach regionaler Verfügbarkeit entschieden werden. Innerhalb gewisser Grenzen wird dann Lagerhaltung durch grenzüberschreitende Transporte substituiert. Die Folge: die Lieferbereitschaft des Gesamtsystems liegt erheblich oberhalb der Lieferbereitschaft jedes einzelnen Lagers. Ein anderer Ansatz für Effizienzsteigerungen im operativen Bereich betrifft die automatische Verarbeitung von strukturierten Verwaltungsaufgaben, die in einem „Execution“-Kontext anfallen. Ein anschauliches Beispiel hierfür liefern sogenannte eProcurement-Systeme. Diese Systeme ermöglichen nicht nur Online-Bestellungen (in der Regel von häufiger benötigten C-Artikeln, bei denen die administrativen Bestellkosten schwerer wiegen als der Materialwert) aus einem elektronischen Katalog, sondern automatisieren und beschleunigen auch die hierarchiestufenübergreifende „Genehmigungsschleife“, die bestellwertabhängig notwendig sein kann. Der dadurch ermöglichte Zusatznutzen reicht von einem komfortablen Navigieren in umfassenderen Katalogen über die Verkürzung von Verwaltungsdurchlaufzeiten und die ersparten Datenerfassungskosten beim Lieferanten oft bis hin zu ersparten Lager- und Handlingkosten durch direkte Arbeitsstättenbelieferungen. Fortschrittliche „Spend-Management“-Systeme liefern darüber hinaus Auswertungsmöglichkeiten für die Beschaffungsaktivitäten in einem Unternehmen, die wiederum Einkäufern und Katalogmanagern bei der Sortimentsbildung und Preisgestaltung helfen. Ein nicht nur als Nebenwirkung interessanter weiterer Effekt ist eine Verringerung des sogenannten „Maverick-Buying“ (Kaufen außerhalb offizieller Rahmenkontrakte). Bei den betroffenen C-Artikeln beträgt der Anteil am Beschaffungsvolumen oft nur 5%, der Anteil an den Bestellvorgängen liegt dagegen eher über 60 %. Der Online-Einkauf („Desktop Purchasing“) kann diese Beschaffungskosten um bis zu 80% senken. IT-Systeme verbessern Informationsgewinnungs- und Verarbeitungsprozesse. Es ist insoweit verständlich, dass man sich angewöhnt hat, Anwendungsfälle primär im Bereich administrativer Prozesse zu suchen. Zum Abschluss dieses Kapitel sei deshalb ein praktisches Beispiel aufgegriffen, dass aufzeigt, wie eng operative und darüber liegende informatorische Prozesse verzahnt sein können und wie sehr letztere helfen können, physische Aktivitäten zu vereinfachen. Das Beispiel ist auch deshalb interessant, weil es unternehmensübergreifende Prozesse betrifft und weil IT hier eine grundlegende Rolle beim Redesign gespielt hat. Ein führender Anbieter von Kinematikprodukten für den Fahrzeuginnenraum (Aschenbecher, Brillen-, Getränke- und Handyhalter etc.) hat über ein elektronisches Kanban-System ein nach dem „Go and See-Prinzip“ betriebenes, zweistufiges Lagersystem durch eine bestandsarme, sequenzgenaue Anlieferung nach dem PullPrinzip ersetzt und dabei unter anderem die Anzahl der Handlingvorgänge von 26 auf 11 reduziert. Das Kanban-Prinzip selbst ist bereits seit über 50 Jahren industrielle Praxis. Auf der Basis einer Steuerung durch Karten wird sichergestellt, dass eine Fertigungsstelle mit Bedarfsträgerstatus sich reibungslos aus einem Teilepuffer versorgen kann, in den hinein die vorgelagerte Produktionsstufe nie mehr produzieren darf, als gerade entnommen wurde. Diese im Ursprung IT-freie Steuerung vermaschter Regelkreise kann durch eine Unterlegung mit Software in mehreren Aspekten verbessert werden. Zum Beispiel lässt sich der Informationsfluss über erwartbare Aufträge beschleunigen, 22 wenn man ihn vom Fluss der Karten entkoppelt. Vor allem aber sind in einem elektronischen Kanban-System alle Materialflussdaten in auswertbarer Form verfügbar. Die Verknüpfung dieser Daten mit Hilfe leistungsfähiger Simulationswerkzeuge kann dann etwa dazu beitragen, die Kartenanzahl und den zugehörigen Entkopplungspuffer besser an die Bedarfsschwankungen anzupassen oder die Reihenfolge der Auftragseinlastung zu verbessern. Das Kanban-System wird dann zugleich robuster und schneller. In dem angeführten Praxisbeispiel war freilich weder das Kanban-Prinzip noch dessen „Elektronisierung“ allein für den Erfolg ausschlaggebend. Erforderlich war vielmehr ein detailgenaues Redesign ineinander greifender Arbeitsabläufe, wobei das SCMtypische in dem Zwang bestand, einen Geschäftsprozess über Unternehmensgrenzen hinweg ganzheitlich zu sehen und neu zu gestalten. Aufgrund dieser Notwendigkeit lautet einer der im Supply Chain Management am häufigsten gebrauchten Begriffe „Collaboration“. 2.5 IT-Lösungen auf der Kontrollebene Wie eingangs bereits herausgearbeitet, sind fortgeschrittene Planungssysteme („Advanced Planning Systems“) zu einem der Hoffnungsträger des modernen Supply Chain Managements avanciert. Sie sollen logistische Prozesse überraschungsärmer machen, indem sie die Planung des Ressourceneinsatzes auf besseren Bedarfsprognosen basieren, vor allem aber dadurch, dass sie ein Übersehen von Engpässen im Planungsprozeß als Quelle späterer Überraschungen ausschließen. Durch „Supply Chain Collaboration“ sollen dabei auch vor- und nachgelagerte Wertschöpfungsstufen integriert werden. Auch knappe Zuliefererkapazitäten können dann nur noch begrenzt zum Anlass nachträglicher Planrevisionen werden. Innerhalb dieser Vision eines durchgehenden, ganze Supply Chains umfassenden „Constrained Based Planning“ gibt es schließlich nur noch belastbare Lieferzeitzusagen („Available to Promise“). Als hauptsächlich störender Restfaktor, der die Supply Chain zu Planrevisionen veranlassen könnte, verbleibt der Kunde. Da die Planungssysteme gleichzeitig immer leistungsfähiger werden, erscheint dieses Risiko jedoch im Prinzip verkraftbar. Man generiert einfach bei unvorhergesehenen Bedarfsverschiebungen in immer kürzeren Abständen neue Planaufwürfe, die dann wiederum zwar nicht gegen abweichende Kundenwünsche, wohl aber gegen Überraschungen aus dem Bereich der Supply-Chain-Kapazitäten gefeit sind. Wie weiter oben bereits angedeutet, wird sich diese schöne neue Welt jedoch nie vollständig durchsetzen lassen. Die Barrieren liegen dabei nicht primär auf dem Felde der Planungstechnik. Zunächst wird es in einer wettbewerbsgetrieben Wirtschaft, in der bei aller Rede von den Vorteilen der Integration auch weiterhin Geschäftspartner gewechselt werden, kaum möglich sein, immer alle „Spieler“ einer Supply Chain auf dem gleichen Integrationsniveau in den Planungsprozeß einzubeziehen. Damit bleibt der Supply Chain aber das Risiko verborgener Bottlenecks im Prinzip erhalten. Zum anderen kann auch bei den integriert planenden Supply-Chain –„Gliedern“ das Leistungsvermögen der verplanten Kapazitäten unterhalb der Sollwerte bleiben (Maschinen können ausfallen, Material sich als unbrauchbar erweisen, Schiffe in schwere See kommen etc.). Und schließlich sind erfahrungsgemäß viele der unter Einsatz dieser Kapazitäten ablaufenden Arbeitsprozesse in ihren Zeitbedarfen nicht hinreichend stabil. 23 Rein theoretisch kann man auf Abweichungen zwischen dem planerisch unterstellten Leistungsvermögen von Produktions- und Logistikkapazitäten und dem, was diese Ressourcen dann tatsächlich hergeben, genauso reagieren wie auf nicht antizipierte Bedarfsverschiebungen: indem man unter Ausnutzung der gewaltig angewachsenen Rechnerkapazitäten die Planungszyklen immer weiter verkürzt und dabei die Planungsbedingungen immer häufiger aktualisiert. Man käme so schließlich von einer weiter vorausgreifenden Planung, die mit auskömmlichen „Einfrierzeiten“ und zugehörigen Puffern operiert, zu einer nahezu permanenten, weitgehend reaktiven Real-time-„Planung“. Das erscheint verlockend, weil es dann keine Ad-Hoc-Lösungen plötzlich auftretender Probleme mehr gäbe, sondern nur noch „Entscheidungen“, die einer rechnergestützten Optimierung entspringen. Drei Gründe lassen diesen Ansatz scheitern: - Wie im Zusammenhang mit der Beschreibung der Leistungsfähigkeit von Advanced Planning Systemen bereits hervorgehoben, verlieren diese Systeme in dem Moment ihre (Anpassungs-) Geschwindigkeitsvorteile, indem sie mit den ihnen zugrunde liegenden ERP-Systemen kommunizieren müssen, um Basisdaten über veränderte Rahmenbedingungen als Planungsgrundlage hochzuladen und/oder um das Ergebnis der Planung an die Exekutionsebene herunter zu reichen. - Hochreagible, unternehmensübergreifend integrierte Planungssysteme, die auch auf kurzfristige Änderungen des „Datenkranzes“ immer wieder mit einem neu aufgeworfenen Gesamtplan antworten könnten, würden den Managementprozess in letzter Konsequenz nicht besser, sondern nur nervöser machen und in eine ungesunde operative Hektik umschlagen. - Selbst wenn sich die Anpassungsfrequenz von Plänen in Richtung auf eine Real-Time-Planung vorantreiben ließe, wäre die Reaktionsgeschwindigkeit bei ad hoc auftretenden Lieferverzögerungen immer noch unakzeptabel hoch. Infolgedessen wird es auch bei einer weit vorangetriebenen Perfektionierung unserer Planungssysteme immer die Notwendigkeit eines ergänzenden „Exception Management“ geben, das nach einer anderen Logik funktioniert und das dementsprechend mit einer anderen Systemunterstützung ablaufen muss. Die Logik ist die des Feuerwehreinsatzes: schnelles „lokales“ Ad-Hoc-Handeln unter Preisgabe des Anspruchs, alle Randbedingungen, Determinanten und Optionen in einem aktualisierten Gesamtplan vollständig zu berücksichtigen. Damit taucht das „Supply Chain Event Management“ (SCEM) als „Zwilling“ des Supply Chain Planning auf, der immer dann für seinen Bruder einspringen muss, wenn der es mal wieder nicht geschafft hat. Wenn man Supply Chain Execution als die realisierende Umsetzung von Plänen begreift, erscheint SCEM als ein ergänzender Ansatz, der eine methodische Lücke zwischen Planung und Realisierung schließt. SCEM kompensiert Planungsversagen, setzt dabei aber eine bestimmte Art von „Planung“ voraus. Um aus Statusinformationen, also den Ist-Werten, wesentliche Abweichungen vom Sollprozess, also die „Events“, zu erkennen, muss man vorher einen geplanten Ablauf und damit hinreichend präzise Zielvorgaben generiert haben. „Planung“ ist in diesem Kontext allerdings nicht in dem bislang gebrauchten Sinn als ein zu einer Ressourcenallokation führender vorsteuernder Entscheidungsprozess zu verstehen, sondern als Zeitbudgetierung für logistische Prozesse. Es muss z.B. vorab 24 festgelegt werden, wie lange ein Containerumschlag in einem Seehafen maximal dauern darf, damit es für die Identifikation von kritischen Zeitverlusten ein „Benchmark“ gibt. Diese Budgetwerte (im Sinne von zulässigen Höchstdauern für einzelne Teilaktivitäten) lassen sich dann nach dem konkreten Start einer logistischen Prozesskette zu kalendarisch fixierten Termingrenzen umwandeln. (Ein bestimmter Container muss dann etwa bis Donnerstag Abend aus dem Hafen herauskommen). Informationstechnisch erfüllen solche Planwerte noch zwei weitere wichtige Funktionen: - in ihrer Gesamtheit können sie zu einem Filter umgewandelt werden, mit dessen Hilfe die Informationsflut gemessener Prozesswerte auf diejenigen Statusmeldungen reduziert werden, die kritisch sind. - Das System kann proaktiv ausgestaltet werden. Der User muss nicht mehr selbst nachfragen, ob bei einem kritischen Prozess alles in Ordnung ist, sondern kann darauf setzen, dass er unaufgefordert benachrichtigt wird, wenn dies nicht der Fall ist. Damit werden Informationen über „in time“ verlaufende Prozesse ökonomisch wertlos: sie beseitigen keine Unsicherheit mehr. Wer die Entwicklung in der Logistik im letzten Jahrzehnt verfolgt hat, dem fällt ein Paradoxon erster Güte ins Auge: Entwicklungsgeschichtlich betrachtet fallen die Bemühungen um eine Verbesserung der Planungssysteme im Supply Chain Management zusammen mit organisatorischen Veränderungen, die die Planbarkeit logistischer Abläufe nachhaltig verschlechtern: zunehmende Variantenvielfalt und abnehmende Produktlebenszyklen überlagern sich in ihrer Wirkung auf Planungsprozesse mit dem Abbau von Entkopplungspuffern („Just in time“), der Reduktion der Kontrollspanne in Fertigungsprozessen („Outsourcing“) und der weltweiten Standortteilung („Globalisierung“). Die hochgradig arbeitsteiligen und gleichzeitig pufferarmen Wertschöpfungsketten unserer Tage haben ihren Preis, der sich in einer gestiegenen Störanfälligkeit bei gleichzeitig steigenden Fehlerfolgekosten manifestiert. Logistikmanager merken dies im Tagesgeschäft dadurch, dass sie einen immer größeren Anteil ihrer Arbeit nicht mit Planung, sondern mit „Exception Management“ verbringen. Der dunkle, in den oberen rechten Quadranten weisende Pfeil in Abb. 5 zeigt, wo die Entwicklung hingeht, wenn wir nicht gegensteuern. SCEM kann vor diesem Hintergrund als ein methodischer Ansatz verstanden werden, Planabweichungen in logistischen Abläufen seltener und die Reaktionen darauf intelligenter zu machen. 25 Folgekosten hoch JIT, Outsourcing, Globalisierung,... mittel Supply Chain Event Management niedrig niedrig mittel Fehlerwahrscheinlichkeit hoch Abbildung 5: Zielrichtung des Eventmanagement Obwohl es eigentlich vielversprechender erscheint, im ersten Schritt alle Kraft darauf zu verwenden, die Eintrittswahrscheinlichkeit von Fehlern zu reduzieren (dies ist nicht nur eine Frage wirklichkeitsnäherer Pläne, sondern vor allem auch eine Frage stabilerer Prozesse, also ein Organisationsproblem), liegt der Fokus der bislang entwickelten SCEM-Ansätze eindeutig in einer Reduktion der Folgekosten eingetretener Fehler. Der Hauptansatzpunkt hierfür ist die Gewinnung von Reaktionszeit nach einer manifest gewordenen Soll-Ist-Abweichung. Aufgrund dieses Fokus lassen sich die bisherigen SCEM-Ansätze in methodischer Betrachtung auch als informationslogistische Konzepte einstufen: sie sind darauf gerichtet, Fehlermeldungen schnellstmöglich dorthin weiterzuleiten, wo Gegenmaßnahmen eingeleitet werden können. Aus solchen Systemen heraus können auch Maßnahmen zur Reduktion der Fehlerwahrscheinlichkeit angestoßen werden, dabei dienen diese SCEM-Systeme jedoch zunächst nur als Impulsgeber. Sie verdichten einzelne Fehlermeldungen auf einer „höheren“ Ebene zu Statistiken und geben damit Signale, wenn sich das Qualitätsniveau eines Prozesses insgesamt verschiebt. Was darauf hin gemanaged wird, ist nicht mehr das einzelne „Event“, sondern der Prozess „als solcher“. Ob man die so angestoßenen Reorganisationsprozesse und die daraus resultierenden Fehlerprophylaxen noch als Teil des SCEM betrachtet, ist eine Definitionssache. Wir gehen am Ende dieses Kapitels auf die Kennzahlenthematik noch ausführlicher ein. Tatsache ist, dass die bisherigen SCEM-Konzepte, soweit sie sich in entsprechenden Softwaretools niederschlagen, allesamt um die Frage kreisen, wie man durch einen Gewinn von Reaktionszeit Fehlerfolgekosten reduzieren kann. „Events“ werden nicht unwahrscheinlicher gemacht oder gar verhindert, sondern entschärft. Fehlerstatistiken erscheinen vor diesem Hintergrund eher als „Abfallprodukt“, obwohl sie in methodischer Hinsicht natürlich von großer Wichtigkeit sind. Sie sind die 26 Voraussetzung dafür, dass eine Organisation aus ihren Fehlern (genauer: aus deren Wiederholung) lernen kann. Im Gegensatz zu APS-Systemen basieren SCEM-Systeme nicht primär auf Daten über die Verfügbarkeit von Kapazitäten, sondern auf Informationen über Prozesszustände („Status“). Typische Informationen dieser Art sind „Tracking-Signals“ von den Produktionssystemen logistischer Dienstleistungsunternehmen wie Ablieferbestätigungen oder Hinweise auf sich abzeichnende Verspätungen innerhalb einer mehrstufigen Transportkette. Statusinformationen beschreiben Prozesszustände nach vorgegebenen Merkmalen. Diese Merkmale können die Qualität von Produkten als Logistikobjekten betreffen (etwa die Kerntemperatur eines zu transportierenden Speiseeises). Insbesondere bei Zwischenschritten mehrstufiger Prozessketten, an denen es nicht zu Eigentums- und Gefahrübergängen kommt, beschreiben sie jedoch oft nur die Koordinaten eines Logistikobjektes (z.B. eines Fahrzeuges oder eines Teiles seiner Ladung) in Raum und Zeit („Wann ist das betrachtete Objekt wo?“). Statusinformationen sind die Grundlage für das Reporting kritischer Ereignisse, der sogenannten Events. Der entscheidende Unterschied zwischen Status und Event ist das Merkmal der „Wesentlichkeit“ und, daraus abgeleitet, das Merkmal der Häufigkeit. Jeder Prozeß lässt sich als unendliche Abfolge von Status interpretieren, von denen jedoch nur wenige als Handlungsimpulse relevant sind: eben die fokussierten „Events“. Zur Illustration mag ein Beispiel aus dem Alltagsleben dienen: Die Nachricht einer Verspätung in einem ICE wird von einem Status zu einem Event, wenn diese Verspätung ein Ausmaß erreicht, dass man den geplanten Anschlusszug zu verpassen droht. Eine weitere wichtige Eigenschaft von Events ist am gleichen Beispiel ableitbar, nämlich die Kontextabhängigkeit ihrer Bedeutung. Nicht jeder Reisende benötigt den gleichen Anschlusszug, daher ist auch nicht jede Verspätung für jeden Reisenden gleich wesentlich. Mit anderen Worten: Events sind für bestimmte Adressaten wesentliche Statusveränderungen. Aufgrund der Kontextabhängigkeit der Bedeutung von „Events“ ist mit der Auswahl des richtigen Adressaten ein eigener Wertschöpfungsprozess verbunden (zumal dies innerhalb größerer Organisationen und langer Prozessketten kein leichtes Unterfangen ist). Damit werden interne Informationswege und umständliche Rückfragen eliminiert, die verzögernd wirken, und somit wird der faktische Zeitwert erhöht. Die Methode, Events an alle Instanzen zu versenden, ist demgegenüber als Sackgasse zu werten. Selbst bei einer Begrenzung der kommunizierten Statusdaten auf „Alerts“ kostet die nicht-selektive Informationsflut auf den Einzelnen noch unnötig viel Lesezeit. (Nicht umsonst beklagen immer mehr Unternehmen z.B. die e-Mail-Flut, die ihre Mitarbeiter überschwemmt.) Die Steuerung des richtigen Weges, in den Statusinformationen gelenkt werden sollen, bedingt rein logisch betrachtet eine Antizipation des Wertes, den diese Information für einzelne Adressaten haben kann. Beispiel: Die verspätete Anlieferung eines Artikels im Lager führt zu einer Out of Stock-Situation. In diesem Fall ist der disponible Bestand (=physischer Bestand + Bestellbestand) zwar hinreichend hoch, weil ja die erwartete Lieferung mit berücksichtigt wird, der physische Bestand ist aber null und somit könnte kein Produktionsprozess starten, der diesen Artikel benötigt. Für die Einkaufsabteilung und Produktionsabteilung hat dieselbe Statusinformation also einen 27 anderen Kontext. Die Einkaufsabteilung wartet weiter auf die Lieferung und muss nichts tun, während die Produktionsabteilung ihre Planungen verschiebt und dabei auch Liefertermine verändert, die wiederum die Vertriebsabteilung dem Kunden beichten muss. Das Beispiel zeigt, dass auch die Bestimmung der Instanz, für die das Event interessant ist, nicht trivial ist und immer vom übergeordneten logistischen Prozess abhängt. Aus der Tatsache, dass die Interpretation von Statusinformationen und die Ableitung entsprechender Anpassungsmaßnahmen nur auf der Ebene der jeweiligen Prozesseigner stattfinden kann, folgt auch, dass Logistikdienstleister ihre „Eindringtiefe“ in die Verladerorganisation erhöhen müssen, wenn sie den Schritt vom Zulieferer von Statusdaten zum Eventmanager anstreben. Das in Kapitel 3.2 beschriebene Modell eines „Fourth Party Logistics Provider“ zeigt einen möglichen Weg dorthin. In den Marktprognosen der einschlägigen Institute werden SCEM-Tools durchgängig sehr hohe Wachstumspotenziale zugewiesen. Der in der Praxis unbezweifelbar zunehmende Bedarf stößt freilich auf eine Landschaft noch entwicklungsbedürftiger Instrumente. Man kann die noch einer Lösung harrenden Probleme gut einkreisen, wenn man von der Plattform der in sich bereits gut entwickelten Tracking and TracingSysteme der Logistikdienstleister startet und fragt, was man über die aus diesen Systemen heraus bereits verfügbaren Informationen denn noch zusätzlich braucht, um ein voll funktionsfähiges SCEM im hier verstandenen Sinne betreiben zu können. Das nachstehende Schaubild (Abbildung 6) beschreibt die Defizite herkömmlicher Tracking & Tracing-Systeme und zeigt damit indirekt auf, was man von einem Supply Chain Event Management-Sytem zusätzlich erwarten sollte. Begrenzung Begrenzungauf aufTransportsektor Transportsektor Mangel dienstleisterübergreifendenLösungen Lösungen Mangelan andienstleisterübergreifenden Mangel verkehrsträgerübergreifendenLösungen Lösungen Mangelan anverkehrsträgerübergreifenden Unzureichende UnzureichendeStandardisierung Standardisierungbei beiDatenidentifikation, Datenidentifikation, --übertragung und -verarbeitung übertragung und -verarbeitung Begrenzung Begrenzungder derInformationen Informationenauf aufSchnittstellen-Ereignisse Schnittstellen-Ereignisse Aufwendige Referenzierung Geringe Datenaktualität Mangelhafte MangelhafteDatenqualität Datenqualität Mangel Mangelan anproaktiven proaktivenLösungen Lösungen(passive (passiveAbfragesysteme) Abfragesysteme) Keine Keineanwenderspezifische anwenderspezifischeVerteilung Verteilungder derInformationen Informationen Keine Keineaktive aktiveEntscheidungsunterstützung Entscheidungsunterstützung Keine Keineautomatische automatischeProblemlösungsfunktion Problemlösungsfunktion 28 Abbildung 6: Defizite herkömmlicher Tracking&Tracing-Systeme Werden diese Anforderungen allesamt erfüllt, so wird der derart versorgte Logistikmanager in eine Art „Cockpit“-Situation versetzt, in der ihm Instrumententafeln jederzeit Eingriffsnotwendigkeiten und Handlungsbedarfe anzeigen. Idealerweise nimmt ihm das System dabei jede Art von Referenzierungsarbeit ab (d.h. er muss nicht mehr von eigenen Lieferschein- auf fremde Paket- oder Collinummern schließen, um den Schlüssel für Recherchen zu erhalten). Und in der Endausbaustufe wird ihm das System dann auch noch Vorschläge für die Lösung eines akut aufgetretenen Problems machen (etwa den Vorschlag, nach einer unerwarteten Stockout-Situation einen benötigten Artikel von einem anderen Lagerort per Expressfracht zu verschicken, um durch Transportbeschleunigung einen Teil der verlorenen Zeit wiederzugewinnen). Aus dem bisher Gesagten folgt, dass die technologische Innovation moderner SCEMSysteme von einer organisatorisch-institutionellen Innovation begleitet werden muss, um wirksam zu werden. Das primär zu lösende organisatorische Problem besteht darin, die unmittelbare Weitergabe von Störmeldungen an eine entsprechende ITPlattform als Bringschuld auf der Ebene der logistischen Prozesseigner zu verankern. Das kann konkret bedeuten, dass man einem selbstfahrenden Fuhrunternehmer, der als Subcontractor eines großen Speditionsunternehmens in Südspanien mit der Zustellung einer Palette unterwegs ist, dazu bringt, nach einer Reifenpanne eine Handynachricht auszulösen (das Beispiel zeigt, dass umfassende und durchgehende Prozesssichten sich nicht vollständig auf Auto-Identifikationssysteme wie etwa den Barcode aufbauen lassen). Die Rückkopplung von Zustandsbeschreibungen eines laufenden Prozesses ist, wie oben bereits erwähnt, zu unterscheiden von der Messung des Prozessniveaus über einen längeren Zeitraum. Hierzu werden einzelne Prozessresultate zu Kennziffern verdichtet, die dem Management Hinweise geben, wann einzelne Fehlerkorrekturen nicht mehr ausreichen, sondern an der Wiederholungswahrscheinlichkeit (also nicht mehr nur im, sondern am System gearbeitet werden muss). Auch hier geht es um Reaktionszeiten, aber nicht mehr um die Erfüllung eines einzelnen Auftrags, sondern um die Anpassung des gesamten Fulfilment-Prozesses mit dem Ziel der Erreichung eines neuen Stabilitätsniveaus. Alarmzeichen der hier angesprochenen Art sind etwa ansteigende Terminüberschreitungsquoten oder sinkende „Fill Rates“ (Lieferbereitschaftsgrade). Die Versorgung entsprechender Kennzahlensysteme mit Daten zählt zu den grundlegenden Anforderungen, die man nicht nur an spezialisierte Supply Chain Event Management-Software, sondern auch an Supply Chain Execution Systeme richten muss. Was man nicht messen kann, kann man letztlich auch nicht vernünftig managen - weil man mit seinen Maßnahmen chronisch zu spät kommt und sich des Erfolges der eigenen Eingriffe nicht vergewissern kann. 29 Target Time Target 4 Time Abbildung 7: Kennzahlen als Frühwarnsysteme Kennzahlen sind nicht nur unverzichtbare Kontrollgrößen, die Zielerreichungsgrade widerspiegeln, sondern erfüllen darüber hinaus eine wichtige Funktion als Führungsinstrumente. Sie unterstützen ein „Management by Objectives“ (Führung durch Zielvorgaben), etwa durch die Verankerung in einer „Balanced Scorcard“ oder durch die Kopplung mit Prämiensystemen. Eine besondere Art der Konkretisierung von Zielvorgaben ist ihre Gewinnung aus Wettbewerbsvergleichen („Benchmarking“). Solche Anreizsysteme können nicht nur zur Steuerung eigener Mitarbeiter, sondern auch im Rahmen eines Lieferantenmanagements eingesetzt werden. Beides setzt voraus, dass man nicht nur einzelne isolierte Kennzahlen definiert, sondern ein Kennzahlensystem entwirft, dass a) aus den strategischen Zielen des Unternehmens abgeleitet ist, b) die Beziehungen der „KPI’s“ (Key Performance Indicators) untereinander (insbesondere Wirkzusammenhänge) definiert, und neben den so entstehenden Hierarchien c) ihre Verbindung zu den einzelnen Kosten- und Erlöskategorien der Gewinnund Verlustrechnung offen legt. Vervollständigt wird ein brauchbares Kennzahlensystem durch klare Messregeln sowie durch Festlegungen der Datenquellen, der Aktualisierungsfrequenzen und der Berichtswege. Beim Arbeiten mit Kennzahlen muss man sich bewusst sein, dass gemessene Zielabweichungsgrade in der Regel zunächst nur Symptome wiedergeben und eine Ursachenanalyse nicht ersetzen, sondern nur anstoßen sollen. So kann beispielsweise eine verschlechterte Termintreue auf eine reduzierte Lieferbereitschaft zurückzuführen sein, die ihrerseits aus Lieferengpässen eines Zulieferers folgen. Oft sind die zu 30 untersuchenden Performancedefizite nicht monokausal bewirkt. So kann eine reduzierte Lieferbereitschaft etwa auch von einer gesunkenen Qualität der Absatzprognose herrühren, die ihrerseits mit einer veränderten ABC-Struktur des Sortimentes (einem erhöhten Anteil schlecht prognostizierbarer C-Artikel) einhergeht. Das hier angesprochene Beispiel zeigt, dass Kennzahlen sowohl zur Messung von wirtschaftlicher Effizienz herangezogen werden als auch Leistungsqualitäten erfassen können. Letzteres ist besonders relevant bei Unternehmen, die sich durch innovative Services Wettbewerbsvorteile verschaffen wollen, die sie auf der Ebene ihrer ursprünglichen (Hardware-)Produkte kaum noch erringen können. Hierfür lassen sich besonders prägnante Beispiele in der Ersatzteillogistik finden, wo Verfügbarkeitsdefizite hohe Folgekosten (z.B. ein „Aircraft on Ground“) auslösen. Qualitätsziele werden hier oft zu entscheidenden Vorgaben für das ganze Supply Chain Design. Ein grundlegendes Modell für ein ausgewogenes logistisches Kennzahlensystem stellt das SCOR-Konzept bereit. Dieses vom Supply Chain Council entwickelte Modell basiert auf einem unternehmensübergreifend konzipierten, hierarchisch strukturierten Referenzmodell zur Beschreibung logistischer Prozesse („Supply Chain Operations Reference Model“). Eine wesentliche Meßgröße im SCOR-Modell ist die Cash-to-cashcycle-time. Diese beschreibt den Zeitraum, wie lange Kapital vom Materialkauf bis zur Bezahlung durch den Kunden gebunden ist. 3. Beispiele für IT-getriebene Prozess- und Geschäftsmodell-Innovationen im Supply Chain Management 3.1 Ziele des Kapitels Anhand der Ausführungen dieses Kapitels wird deutlich, wie IT-Lösungen innovative Geschäfts- und Prozessmodelle im Supply Chain Management nicht nur ermöglichen, sondern als Treiber sogar provozieren können. Dafür werden drei Beispiele ausführlicher beschrieben, von denen zwei sich auf das neue Kommunikationsmedium Internet und eines auf die Autoidentifikationstechnologie RFID beziehen. Um das insbesondere für eine erfolgreiche IT-Implementierung relevante, komplexe Zusammenspiel aus technologischer und organisatorischer Innovation besser zu verstehen, ist ein kurzer vorbereitender Ausflug in die Geschichte der IT-basierten Geschäftsabwicklung sinnvoll. Entwicklungsgeschichtliche Vorbemerkungen In den Anfängen der Nutzung elektronischer Datenverarbeitung war der dadurch ausgelöste Innovationsschub äußerst begrenzt. Die ersten Softwarelösungen bildeten im Wesentlichen nur die bestehenden Prozesse ab und erschöpften sich damit weitgehend in einer „Elektrifizierung des Ist-Zustandes“. Der Ersatz von Karteikästen durch computergedruckte Listen mag zu Arbeitserleichterungen führen, nachhaltige Prozesswirkungen unterblieben aber - vor allem deshalb, weil die weit vorangetriebene Arbeitsteilung in den Unternehmen auf der Softwareebene zunächst nicht überwunden, sondern nur widergespiegelt wurde. Erst mit der Überwindung dieser Form der Datenorganisation durch die ablaufübergreifende Nutzung einer gemeinsamen Datenbasis wurde es möglich, 31 einmal erfasste Daten mehrfach zu nutzen und im Prinzip allen am Prozessgeschehen Beteiligten zur Verfügung zu stellen. Dadurch konnten Mehrfacherfassungen und zeitkonsumierende Datenübertragungsprozeduren eliminiert und die DV-gestützten Abläufe entsprechend beschleunigt werden. Eine Folge dieser Innovation war, dass ehemals getrennte Teilfunktionen wieder arbeitsplatzbezogen zusammengeführt werden konnten. Beide Effekte zusammen, die Datenintegration und die Funktionsintegration, wurden zum Fundament des computergestützen Prozessredesigns bzw. der daraus erzielbaren Effizienzgewinne. Als Musterbeispiel einer computergestützten Integration wurde dann ein Konzept entwickelt, das aufgrund überzogener Ansprüche in die Geschichte der gescheiterten IT-Innovationen eingegangen ist: „Computer Integrated Manufacturing“ (CIM). Wie so oft im Leben, kann man auch hier aus Fehlern besonders viel lernen. Innerhalb des CIM-Modells sollten alle Daten, die von den später so genannten ERPSystemen im Rahmen der Fertigungssteuerung benötigt und verarbeitet werden (von der Kapazitätsterminierung über die Produktionsablaufplanung bis hin zur Versandsteuerung) mit den entsprechenden Daten aus der Konstruktionsabteilung (CAD = Computer Aided Design) zusammengeführt werden. Arbeitsplandaten und Stücklisten, die etwa als Ergebnis der Produktentwicklung „abfallen“, könnten dann konsistenzsichernd sofort in PPS-Systemen weiterverarbeitet werden. Der Phantasie in der Ausschöpfung der hier nur angedeuteten Integrationspotenziale waren keine Grenzen gesetzt. Dementsprechend hoch war bis Anfang der 90er Jahre auch die CIM-Euphorie. Genau daran ist CIM aber im ersten Ansatz gescheitert. Die ins Auge fallende Gemeinsamkeit von CIM und Supply Chain Management besteht in dem Anspruch, alle irgendwie interdependenten Funktionen, Daten und Abläufe innerhalb eines Systems „ganzheitlich“ abzubilden. Trotz der inzwischen dramatisch gestiegenen Leistungen von Datenspeichern und Rechnern sollte man sich in Erinnerung halten, dass „ganzheitliche Integration“ eine Anforderung ist, die zwei gravierende Nachteile nach sich ziehen kann: sie kann zur Herausbildung nicht realisierbarer Pflichtenhefte („Bau von Systemkathedralen“) führen, und die enge Verzahnung zu vieler Prozesse kann das gesamte System unflexibel machen gegenüber häufigen Parametervariationen. 3.2 Fourth Party Logistics Provider („4PL”) Die Beschreibung des 4PL-Konzeptes kann unmittelbar an die in Kapitel 2.5 entwickelte Erläuterung des Supply Chain Event Management-Ansatzes anknüpfen. Dort ist dieser Ansatz als Funktionsmodell und Prozessbeschreibung dargestellt worden. Offen geblieben ist dabei die Frage, wer diese Konzepte „zum Fliegen“ bringen kann. Diese Frage zielt auf die Trägerschaft des Leistungsbündels ab, das mit dem Kürzel SCEM umrissen wird. Eine der innovativen Antworten, die man zur Beantwortung dieser Frage entwickelt hat, besteht in dem Entwurf eines neuen Typus von Logistikdienstleister, dessen Kernkompetenz im Bereich der IT-Integration angesiedelt ist. Das Interessante daran ist, dass IT hier nicht eine Entwicklung neuer Prozesse, sondern eine institutionelle Innovation vorangetrieben hat. Da Verladern immer die Option offen steht, Event-Management-Funktionalitäten auch selbst abzudecken (etwa auf der Basis eines entsprechenden SAP-Moduls oder eines Application Service Providing), verbirgt sich hinter diesem neuen Dienstleistungsangebot die Make-or-Buy-Frage. 32 „Fourth Party Logistics Provider” ist die Bezeichnung für ein neues Geschäftsmodell. Im engeren Wortsinne setzt dieses Modell zunächst nicht mehr voraus als eine weiter vorangetriebene Arbeitsteilung in der Logistikkette, gekoppelt mit einer „Hierarchisierung“ der Beziehungen zwischen Verladern und ihren Logistikdienstleistern. Ähnlich dem aus der Fertigungswirtschaft bereits länger bekannten Konzept des Modular Sourcing, wo einzelne Hersteller als „First-tiersupplier“ ganze Module des jeweiligen Endproduktes (etwa komplette Türen eines Autos) vormontiert an die Endmontage eines Herstellers liefern und damit die Zulieferer der zugehörigen Teile ins zweite Glied drängen, wird hier eine neue Generation von Dienstleistern konzipiert, sich zwischen die Logistikanbieter herkömmlicher Prägung und deren Kunden zu schieben. Dies kann nur gelingen, wenn aus einer solchen Zwischenposition heraus für die Kunden ein echter Mehrwert generiert werden kann. Worin kann nun der „added value“ einer vierten Partei im Logistikgeschehen begründet sein? Ein möglicher Ansatz resultiert aus einer verbleibenden Schwäche der großen Speditions- und Logistikkonzerne, die mit ihrem Aufbau weltumspannender Full-Service-Angebote nicht so schnell vorangekommen sind, wie der entsprechende Kundenbedarf nach einem „One-stop-shopping“ gewachsen ist. Solange Großanbieter nicht wirklich alles auf dem Niveau der jeweils besten Spezialisten leisten können, ist beim Einkauf logistischer Dienstleistungen aus Verladersicht nach wie vor eine MultiLieferantenstrategie angesagt – es sei denn, ein fremder Dritter übernimmt sozusagen treuhänderisch die Aufgabe, für einzelne, sachlich und/oder regional abgegrenzte logistische Teilaufgaben die jeweils besten Dienstleister zu identifizieren und deren Angebote zu einem Leistungspaktet zusammenzuschnüren. Im Kern basiert die Position eines 4PL also auf einem Outsourcing der typischen Aufgaben einer Versandabteilung. Die hiermit verbundene größere Eindringtiefe in die Kundenorganisation wird einerseits durch eine immer weiter vorangetriebene Konzentration vieler Industrie- und Handelsunternehmen auf ihr Kerngeschäft unterstützt. Auf der anderen Seite locken 4PL’s ihre Kunden damit, dass sie mehr Service bieten als nur die Bequemlichkeit einer einzigen Schnittstelle zum Logistikmarkt und Kostendegressionseffekte, die dadurch entstehen mögen, dass ein Dienstleister Tätigkeiten wie das Beibringen von Abliefernachweisen oder das Abwicklen von Transportschäden für mehrere Kunden gleichzeitig erbringt. Eine wesentliche Grundlage für diesen Mehrwert ist die unternehmensübergreifende Integration von Planungs-, Steuerungs- und Überwachungsprozessen auf der Basis leistungsfähiger IT-Systeme. Ein Beispiel hierfür ist die Bereitstellung einer einzigen Plattform, in die hinein Spediteure und Transporteure als 3PL’s Statusinformationen liefern. Der 4PL übernimmt die Aufgabe, diese Informationen zum Fließen zu bringen und bereitet sie so auf, dass sein Kunde, wie vor einem Cockpit sitzend, proaktiv mit Warnhinweisen („Alerts“) versorgt wird, wenn durch unvorhergesehen Kapazitätsengpässe oder Minderleistungen Qualitätsziele im Lieferservice bedroht sind. One-stop-shopping wird somit durch ein “One-stop-viewing” angereichert, für das es in der alten Welt logistischer Dienstleistungen kein vergleichbares Vorbild gab. Obwohl sie diese ins zweite Glied drängen wollen, haben Fourth Party Logistics Provider also mit den großen Netzanbietern im Paket- und Expreßfrachtsegement eine Gemeinsamkeit: sie profilieren sich über das Thema „Integration“. Während die „Integrators“ klassischer Prägung jedoch eine durchgehende Qualitätssicherung qua Eigentum an den logistischen Kapazitäten und Prozessen versprechen, ist es gerade umgekehrt ein typisches Merkmal von 4PL’s, im operativen Bereich überhaupt keine 33 logistischen Ressourcen ihr eigen zu nennen. 4PL’s integrieren Prozesse informationstechnisch, wobei der fehlende Besitz von Transport-, Lager- und Umschlagskapazitäten ihren Anspruch unterstreicht, neutral die jeweils besten „Produzenten“ der operativen Dienstleistungen auszusuchen. In vielen der frühen Veröffentlichungen zu diesem Konzept wurden die Ziele, die 4PL’s erfüllen sollen, freilich noch deutlich höher gesteckt. Fourth Party Logistics Provider sollen, so las man häufiger, für ihre Kunden das gesamte Supply Chain Management einschließlich aller zugehörigen Planungs- und Steuerungsaktivitäten übernehmen, ja sogar vorher für ein kreatives Redesign der Supply Chain sorgen. Letzteres brachte auch Spieler auf den Plan, die man früher als Anbieter logistischer Services nicht auf der Agenda hatte: Softwarehäuser etwa, oder größere Beratungshäuser, die strategische Allianzen mit Verladern oder 3PL’s eingehen und dem Markt substanzielle Quantensprünge in der logistischen Performance versprechen. Das Ziel einer ganzheitlichen, von Dienstleistern gesteuerten und verantworteten Supply Chain, die vom Rohstofflieferanten über mehrere Wertschöpfungsstufen bis zum Endkunden reicht, hat sich jedoch als überzogen erwiesen und den 4PL-Begriff eher in Misskredit gebracht. Über das endgültige Schicksal dieses Modells ist aber noch nicht entschieden. Wahrscheinlich ist es auch „kontingent“ in dem Sinne, dass seine Marktchancen von den jeweiligen Randbedingungen der Auftraggebersituation abhängen. Eine eher günstige Konstellation ist etwa dann gegeben, wenn der zu managende Supply Chain-Abschnitt keine größeren Produktionskapazitäten umfasst. Die Planung der weltweiten Warenströme eines Sportartikelunternehmens mit outgesourcten Produktionkapazitäten im asiatischen Raum und Handelskunden in Europa und Amerika kann man sich jedenfalls eher in den Händen eines koordinierenden Dienstleisters vorstellen als die outgesourcte Steuerung der weltweit verteilten und ineinander verzahnten Produktionsprozesse eines Herstellers von Computern. General Motors sieht für sein Konzept der „Long Range Supply in Line Sequencing“ den Einsatz von 4PLs ausdrücklich vor, denen die Verantwortung für die Supply Chain von Produzenten von Teilen in Übersee bis zum Montageband übergeben werden soll. Das ist eine reine Überwachungs- und Risikomanagementaufgabe. Man sollte den Anspruch an Fourth Party Logistics Provider jedoch nicht zu hoch hängen und von ihnen eine unternehmensübergreifenden Integration von Supply Chains erwarten, zu der in vielen Branchen die betroffenen Unternehmen selbst noch nicht in der Lage waren. Schließlich gibt es auch unterhalb dieses hohen Anspruchs für innovative Angebote von Dienstleistern ohne eigene Logistikkapazitäten noch genug Marktchancen. Ausschlaggebend für den Erfolg von 4PL’s dürfte im Gegensatz zu klassischen Speditionsgesellschaften auch die Eigentümerstruktur sein. Die sehr weitgehende Übertragung logistischer Prozesse koppelt die outsourcenden Unternehmen zunehmend von den Primär-Märkten für originäre logistische Dienstleistungen ab und schafft damit Abhängigkeiten, die man nur durch eine Beteiligung des Kunden am Service Provider neutralisieren kann. Nicht zufällig sind wohl auch einige der erfolgreicheren Beispiele für Dienstleister der vierten Art wie die Lufthansa Technik Logistik GmbH oder die vertriebslinienübergreifende „Shared Services“ anbietende METRO Gruppenlogistik (MGL) als Fourth Party aus den Kundenunternehmen selbst hervorgegangen. In solchen Konstellationen gibt es von Anfang an das, was Start-ups oft fehlt: Vertrauen und Momentum. 34 Eine Zwischenposition zwischen 4PL und klassischen Spediteuren (3PL) nehmen Lead Logistics Provider (LLP) ein. Das sind Dienstleistungsanbieter, die zwar über eigene Kapazitäten in der operativen Logistik verfügen, diese aber gezielt mit den Leistungen anderer Anbieter zu einem „Best-of-Breed-Ansatz“ verknüpfen. Solchen Serviceprovidern fällt dann naturgemäß die Rolle zu, auf der Ebene einer horizontalen Integration auch die Statusreportsysteme der verschiedenen anderen originären Prozesseigner zu verknüpfen und den eigenen Kunden damit in eine Cockpitsituation mit einem One-stop-Viewing-Angebot zu versetzen. LLP’s können sich mit einem solchen Konzept eine Vorrangstellung unter den 3PL’s sichern und ein „Dazwischenschieben“ von Plattformbetreibern als neuartigen Intermediären verhindern. Gegenüber reinen 4PLs haben sie den Vorteil der glaubwürdigen Kompetenz eines Machers, d.h. sie spielen den Ressourcenbesitz als Wettbewerbsvorteil aus. Ermöglicht durch das Internet, treten des weiteren offene Logistikplattformen neutraler Intermediäre als weitere Wettbewerber neuer Prägung auf den Plan. Sie werden Extranets größerer Verlader oder 4PL’s nicht verhindern, können jedoch insbesondere Vorteile für kleine und mittelständische Zulieferer und Logistikdienstleister erschließen. Das Prinzip dabei ist einfach. Die Plattform bietet den angeschlossenen Unternehmen (mit Imitatoren-Rolle) standardisierte Dienste, um Informationen zu erheben, zu verarbeiten und anderen Geschäftspartnern zur Verfügung zu stellen. Um den standardisierten Dienst zu nutzen, muss man sich einmalig an das System anschließen. Unternehmen in der Initiator-Rolle können Daten für ihre individuellen Systeme aus der Plattform beziehen bzw. Grunddaten (z.B. Auftragsrumpfdaten) in der Plattform einstellen, brauchen dazu aber nur eine zentrale Schnittstelle. Der Intermediär integriert also über standardisierte Dienste eine Vielzahl von kleinen und mittleren Unternehmen und stellt die gefilterten Daten den mächtigen EventManagement-Systemen der großen Player zur Verfügung bzw. übernimmt die Verteilung der Grunddaten an die Geschäftspartner. Die Reduktion der Implementierungskosten und die Darstellung eines „Managed Service“ (im Sinne eines Outsourcings von IT-Leistungen zur Abwicklung von Geschäftsprozessen) für diese Datendienste sind die Wertschöpfungsbasis. Die sich dadurch ergebende Neutralität bezüglich der Basis-Logistikdienstleistung ist Teil der organisatorischen Innovation. 3.3 Elektronische Marktplätze Das im vorangegangenen Abschnitt beschriebene Modell einer IT-basierten institutionellen Innovation vermittelt einen ersten Eindruck davon, wie neue Informations- und Kommunikationstechniken zur Entwicklung innovativer Geschäftsmodelle führen können. Eines der meist beachteten neuen Geschäftsmodelle waren elektronische Marktplätze, eine neue Form von Intermediären, die auf ihren Internetplattformen nahezu alle Phasen der Entstehung und Abwicklung einer Geschäftsbeziehung bzw. Transaktion zu unterstützen versprachen. Auch wenn sich das ursprünglich erwartete Volumen der „Virtualisierung“ des Handels nicht in dem betrachteten Zeitrahmen realisiert hat, beweisen die heute noch aktiven Marktplätze die Potenziale, die in diesem Geschäftsmodell stecken. Um Internet-basierte Geschäftsmodelle ganz zu verstehen, ist eine gewisse Grundkenntnis der Funktionsweise dieses Mediums hilfreich. 35 Das Internet („INTERconnected NETworks“) hat seine Ursprünge im ARPANET der „Advanced Research Projects Agency“ (ARPA), einer Forschungsstelle des amerikanischen Verteidigungsministeriums, durch das 1969 die ersten Computer vernetzt wurden. Das so entstandene Netz war über viele Jahre nur einem kleinen Kreis von Wissenschaftlern und Technik-Freaks zugänglich, bis es in den 90er Jahren als „Information-Highway“ breiteren Schichten zugänglich wurde. Das heutige „Netz der Netze“ basiert auf der Verknüpfung lokaler Netze auf der Basis eines gemeinsamen Kommunikationsprotokolls (TCP/IP) und fasziniert vor allem durch drei Eigenschaften: es hat keinen zentralen Eigner oder Betreiber, es ist durch flexible Kopplungen lokaler Server nahezu ausfallsicher, und es auf eine sehr einfache Weise für jedermann zugänglich. Eines der ersten Anwendungssysteme mit breiter Nutzung war das E-Mail. Heute ist einer der am meisten genutzten Dienste das 1989 von Berners-Lee am CERN in Genf entwickelte WWW, das auf drei Stützpfeilern basiert: der Programmiersprache HTML (Hypertext Markup Language), dem Netzwerkprotokoll HTTP (Hypertext Transfer Protocol) und dem Identifikationssystem URL (Universal Resource Locator). Diese Komponenten erlauben die Darstellung graphisch angereicherter Dokumente, die durch Querverweise (Hyperlinks) beliebig miteinander verknüpft werden können. Aus dieser Verknüpfung und der eindeutigen Bezeichnung jedes Dokumentes mittels einer eindeutigen Adresse (URL) ergibt sich ein einfacher Zugriff auf Informationen, die weltweit auf verschiedenen Hostrechnern verteilt sind. Eine wichtige Weiterentwicklung von HTML ist das Dateiformat XML, das insofern wesentlich flexibler ist als ältere Datenübertragungs-Standards wie EDIFACT, als es keine feste Anordnung der Inhalte eines Dokumentes (wie Adresse, Artikelnummer oder Datum) mehr vorsieht (wohl aber eine entsprechende Struktur voraussetzt). XML ist für viele Anwender deshalb etwas schwer "greifbar", weil es eigentlich nicht viel tut. Seine Leistung besteht darin, dass man mit den Konzepten und Regeln, die es bereitstellt, eigene Auszeichnungssprachen definieren kann, die ähnlich funktionieren wie HTML. All diese Sprachen bestehen immer wieder aus Elementen, markiert durch Tags, deren Verschachtelungsregeln, und aus Attributen mit erlaubten Wertzuweisungen. Das übermittelte Dokument informiert dann den Empfänger vor jedem neuen Element, welcher Inhalt sich in dem Tag befindet. Damit wird das Dokument dechiffrierbar, allerdings hat es damit noch nicht das Benutzerformat für die unmittelbare Weiterverarbeitung in einer bestimmten Applikation. XML bietet die Möglichkeit, Daten so zu strukturieren, dass sie Regeln entsprechen, die man selbst festlegen darf: standardisierte Datenfreiheit. Das erleichtert die Kommunikation über das Web, hinterlässt aber noch Konvertierungsprobleme. Mit dem Auftreten des Internet als neuem, global verfügbaren Kommunikationsmedium verbanden sich um die Jahrhundertwende extrem ausgeprägte Erwartungen. „Der Kapitalismus“, schrieb 1996 der amerikanische Cyber-Guru Don Tapscott, „wird von Grund auf neu erfunden werden müssen“. Sehr schnell und weitgehend ohne Widerspruch wurde die Welt der Wirtschaft in eine „New“ und eine „Old Economy“ eingeteilt. „Adapt or Die“ war die Devise. Diese Erwartungshaltung schlug sich auch in den Bewertungen von Unternehmen der „New Economy“ an den Börsen nieder. AOL war innerhalb kürzester Zeit doppelt so wertvoll wie Time Warner und erreichte Ende 1999 einen Börsenkurs, der um 81.152 % über dem Ausgabekurs lag. Yahoo war sehr schnell um das siebenfache wertvoller als die alterwürdige New York Times, und der Internetbuchhändler Amazon erzielte den 24-fachen Börsenwert des größten „Bricks & Mortar“-Buchladens der USA, Barnes&Nobles. 36 Diese Entwicklung betraf insbesondere auch die Softwareindustrie, die sich als „Enabler“ der neuen Welt des „Electronic Commerce“ erfolgreich zu positionieren wusste. Der auf Electronic Procurement spezialisierte Anbieter ARIBA etwa war als Newcomer sehr schnell bei einer Börsenkapitalisierung von über 9 Mrd. US $ gelandet. Inzwischen ist sein ähnlich aufgestellter und bewerteter Wettbewerber CommerceOne von der Bildfläche ganz verschwunden, und der Aktienkurs von Ariba ist von über 180 $ auf (inzwischen wieder) 10 $ abgestürzt. War die damalige Einschätzung der ökonomischen Potenziale des Internet grundlegend falsch? Die Antwort aus heutiger Sicht lautet: nein. Falsch war in erster Linie das angenommene Timing der Entwicklung. Und natürlich war nicht jedes damals entwickelte Geschäftsmodell belastbar. Nach der ersten großen Enttäuschung und dem dadurch ausgelösten Börsen-Crash gewinnen Internet-basierte SCM-Lösungen jedoch stetig an Bedeutung. Zwei Erfolgsbeispiele aus den beiden E-CommerceSegmenten „Business-to Consumer“ (B2C) und Business-to-Business“ (B2B) mögen belegen, wie der Fortschritt nunmehr kommt, wenn auch auf leiseren Sohlen. Die Otto-Gruppe ist (nach Amazon) mit ihrem virtuellen Versandhandel der zweigrößte deutsche Verkäufer von Ware über das Internet. Offensichtlich schätzen die Kunden die Möglichkeit, per Mausklick flexibel in Katalogen zu navigieren und per Mausklick ohne großen Aufwand zu bestellen. Und Otto selbst wird die Möglichkeit schätzen, von dem schwerfälligen und teuren Medium „Katalog“ wegzukommen und nunmehr im Prinzip in der Lage zu sein, sowohl die Angebotsstruktur als auch die Preisstruktur nach Bedarf und Wettbewerbssituation jederzeit ändern zu können. Auch die Nutzung präziserer Kundenprofile für ein „One-to-one-Marketing“ ist verlockend: Man kann proaktiv neue Produkte anbieten, von denen man weiß, dass sich ein Kunde dafür interessiert. Der Erfolg ist eindeutig: Otto prognostiziert für die Neuen Medien bis 2010 einen Umsatzanteil von 20 Prozent am gesamten Distanzhandelsgeschäft. Der Reichtum des neuen Mediums zeigt sich dabei insbesondere in solchen ServiceAngeboten, die auf der für das Internet typischen Kombination von hoher Informationsreichweite und Informationstiefe („Media Richness“) basieren. Man kann heute eben einen nahezu unbegrenzten Adressatenkreis mit einer nahezu unbegrenzten Fülle an Informationen zu Grenzkosten nahe Null versorgen. Der Internethändler Zooplus etwa liefert nicht nur Futter, Accessoires, Spielzeuge, Bücher, Hygieneartikel, und vieles mehr bequem direkt ins Haus, sondern bietet weitere Services wie Online Tierarzt, Gesprächsforen und unterhaltsame Informationen rund um das Hobby. Amazon ködert Buchkäufer mit Buchrezensionen. Das Beispiel zeigt, dass der Nutzen von E-Commerce immer auf zwei Seiten liegen kann: er kann in der Senkung von Transaktionskosten liegen (Amazon hat sich die 1Click-Bestellung patentieren lassen), und er kann in neuen Wertschöpfungsformen begründet sein (Community-Building ist dafür nur ein Beispiel). Letztere werden oft als „Soft Facts“ behandelt, was ihrer ökonomischen Bedeutung vielfach nicht gerecht wird. Dell und Cisco, die ihren Kundendienst überwiegend auf das Internet verlagert haben, beweisen, dass beide Effekte oft Hand in hand gehen. Cisco hätte vermutlich gar nicht so schnell wachsen können, wenn es den Kundenservice durch Menschen hätte erbringen müssen. Dell ermöglicht seinen Kunden ein „Online-Customizing“ der gefragten Produkte, nutzt diesen Vorgang gleichzeitig als Order-Taking und integriert damit den Kunden mit der eigenen Produktionsplanung. (Dass das Unternehmen mit seinem Built-to-Order-Konzept und der damit verbundenen Eliminierung des Großhandels gleichzeitig eine Supply Chain Revolution ausgelöst hat, sei hier nur am Rande vermerkt). 37 Bei den als Treiber internet-basierter Geschäftsmodelle oft primär hervorgehobenen Transaktionskosten gibt es Anhaltswerte für eine Schätzung relevanter Größenordnungen. Laut einer US-amerikanischen Studie ist der Anteil der inner- und zwischenbetrieblichen Transaktionskosten am Bruttosozialprodukt der USA von 25% im Jahre 1870 auf 55% im Jahre 1970 gestiegen und wird mittlerweile auf über 60% geschätzt. Das ist zugleich ein Indikator für die volkswirtschaftliche Bedeutung der Informations- und Kommunikationstechnologie. Auch im Geschäft zwischen produzierenden Unternehmen gibt es inzwischen beeindruckende Erfolgsgeschichten. Die SupplyOn AG, Anbieter von Internet-Services für die Automobil- und Fertigungsindustrie, feiert ihr fünfjähriges Jubiläum und verzeichnet dabei ein enormes Wachstum: Die Anzahl der Kunden ist in den letzten zwölf Monaten um 50 Prozent auf 9.000 Unternehmen gestiegen (Stand: Anfang 2006) und der Benutzerkreis hat sich um 80 Prozent auf 25.000 erweitert. Die Zahl der SCMTransaktionen nahm um 75 Prozent zu und liegt nun bei 260.000 pro Monat. SupplyOn hat sich seit seiner Gründung von einer reinen Handelsplattform zu einer umfassenden Kollaborationsplattform entwickelt. Ähnliche Erfolgsmeldungen liefert Elemica, der führende elektronische Marktplatz der chemischen Industrie. Das Unternehmen berichtet über eine Volumenverdopplung alle 6 Monate und ein inzwischen erreichtes Transaktionsvolumen von 35 Mrd. US-Dollar. Als erfolgsentscheidend wird die durch Elemica bereitgestellte „Connectivity“ herausgestellt: eine universale Übersetzungskapazität ermöglicht weltweit Verbindungen trotz unterschiedlicher Datenformate und Protokolle. Wer sich mit Elemica verbindet (die derzeitigen Anschlusskosten liegen zwischen 10.000 und 30.000 Dollar) hat damit sofort Zugang zu einem großen User-Netz mit Unternehmen wie Bayer, BASF, Dow Chemical, Dupont oder BP. Das Ausmaß der so ermöglichten Komplexitätsreduktion lässt sich leicht mit Hilfe einer einfachen Formel veranschaulichen. Wenn sich n Unternehmen jeweils bilateral untereinander direkt vernetzen, ergeben sich als Folge der „Point-to-Point-Communication“ n*(n-1) Schnittstellen. Kommunizieren diese Unternehmen über eine einheitliche Plattform, so sinkt die Anzahl der Schnittstellen auf 2*n. Elemica fungiert dabei aber nicht nur als Übersetzungsmaschine, sondern stellt auf der eigenen Plattform Softwareapplikationen bereit, die ein integriertes Supply Chain Management unterstützen. So wird berichtet, dass Dow Chemical über das von Elemica bereitgestellte VMI-Modul bei einigen Großkunden Bestandssenkungen von über 30 % realisieren konnte. Ähnlich erfolgreich ist im Hightech-Bereich die Plattform e2open, die über 12000 Kunden betreut und von über 45.000 Nutzern berichtet. Kunden wie IBM, Panasonic, Hitachi und Matsushita nutzen nicht nur die Möglichkeit vollständig automatisierter Auftragsabwicklungsprozesse („untouched orders“), sondern vor allem die vergleichsweise einfache Herstellung einer netzwerkweiten Visibilität auf die Kapazitäten von Handelspartnern. Das in Kapitel 2.3 beschriebene Bedarfs-/Kapazitätsmanagement mit den permanent durchlaufenen „Forecast-CommitCycles“ wird auf dieser Plattform von IBM intensiv genutzt bzw. betrieben. Nicht zuletzt auf dieses Modell stützt sich der Werbeslogan „Business on demand“, mit IBM seine Supply Chain Management Kompetenz propagiert. Wie andere elektronische Marktplätze auch wirbt e2open mit dem Vorteil, „on demand“ Software als ein Service zu bieten. Gegenüber dem traditionellen „License and Install“-Modell hat ein solches „Application Providing“ die Vorteile niedriger Installationszeiten und –aufwändungen, vereinfachter Updates und eines 38 entsprechend ausgeprägten ROI. Selbst im Falle enttäuschter Erwartungen zeitigt dieses Modell noch Vorteile: die „Exit-Kosten“ liegen erheblich unter denen gekaufter Software. Neben dem offenen Marktplatz hosted e2open auch sogenannte „private Marketplaces“, auf denen große Firmen in einem abgegrenzten Bereich ihre Zulieferer oder Kunden anbinden. Strukturell sind solche Marktplätze durch eine 1:n-Beziehung geprägt. Für solche IT-basierten Dienstleistungen gibt es keine historischen Vorbilder. Auch die Propheten des Internet waren sich hinsichtlich der Wirkungen des Internet auf Struktur und Funktionsweise von Supply Chains ursprünglich nicht sicher. Sehr häufig sprachen sie in diesem Zusammenhang von einer zu erwartenden „Disintermediation“, also einem Funktionsverlust von Absatzmittlern jeglicher Couleur. Elektronische Marktplätze sind jedoch Intermediäre einer ganz neuen Art. Sie tragen dabei nicht nur zur Lieferkettenintegration bei, sondern bieten auch Services an, die zu einer Fragmentierung von Supply Chains führen. Diese Services fokussieren Marktfunktionen im klassischen Sinne: Unterstützung bei der Partner- und Preisfindung. Elektronische Plattformen für Ausschreibungen („Request for Quotation“, Reverse Auctions“) reduzieren nicht nur die Transaktionskosten von Einkäufern, indem sie etwa Suchkosten minimieren. Sie erzeugen vor allem eine vorher nie gekannte Wettbewerbsintensität und einen dementsprechenden Preisdruck. Das fördert nicht Partnerschaft und Ganzheitlichkeit, sondern Austauschbarkeit und Desintegration. Häufig werden Online-Auktionen und Supply Chain Services sogar auf einundemselben Marktplatz angeboten. Tendenziell führt das zu einer Spaltung von Zulieferern: während Anbieter schwer austauschbarer Produkte in Supply Chains integriert werden, müssen Anbieter von „Commodities“ sich in Auktionen immer wieder neu um Aufträge bewerben. Von besonderer Bedeutung sind Online-Auktionen im Einzelhandel und in der Konsumgüterwirtschaft. Handelsorientierte Marktplätze versuchen hier, dieses Geschäftsmodell als nutzbringend für beide Marktseiten zu positionieren (was in der Regel von herstellern/Anbietern anders gesehen wird). Ein typisches Beispiel hierfür ist der Text, mit dem der Marktplatz GNX sein diesbezügliches Service-Angebot im Internet beschreibt: „GNX ist darauf spezialisiert, Einzelhändlern bei der Implementierung von OnlineVerhandlungsplattformen als Standard-Geschäftsprozess zu unterstützen. Mit GNX Negotiations, einer Full-Service-Auktionslösung, können Sie den strategischen Einkaufsprozess um ein Vielfaches effizienter gestalten. GNX bietet die Lösung und den Support, die ein Unternehmen benötigt, um auf seine Bedürfnisse zugeschnittene Online-Auktionsprozesse nahtlos zu integrieren. Das GNX Negotiations-Tools ist webbasiert, benutzerfreundlich und lässt sich schnell und mühelos implementieren. Die GNX-Auktionsexperten stehen sowohl Einkäufern als auch Anbietern mit einem Service in mehreren Sprachen rund um die Uhr, an fünf Tagen pro Woche zur Verfügung. GNX hilft Einkäufern bei der Planung und Strukturierung von Auktionen, bietet Anbietern vor, während und nach Auktionen Schulungen und Support und versetzt somit alle Teilnehmer in die Lage, aktiv zum Verhandlungsprozess beizutragen. Gemeinsam spielen die GNX-Mitarbeiter eine aktive Rolle bei der erfolgreichen Durchführung jeder Online-Auktion.“ GNX ist inzwischen mit dem ehemaligen Wettbewerber Worldwide Retail Exchange (WWRE) zu der einheitliche Plattform Agentrics verschmolzen worden, einem 39 Marktplatz, der auf seiner Homepage stolz verkündet, Händler mit einem Gesamtumsatz von weltweit über einer Trillion Dollar zu repräsentieren. Wie um den Anbietern ob dieser Größenordnung den Schrecken zu nehmen, adressiert Agentrics im ersten Satz seines Mission Statement den eigenen Beitrag zum Supply Chain Management: Primäre Aufgabe sei es, „to offer the Single Technology Platform for Collaboration: A "Retail Interface" that connects retailers and manufacturers to their trading partners to more effectively and efficiently share information and manage collaborative work processes“. Dass man auf Bidding-Plattformen auch Transaktionskosten sparen kann, wird nicht alle Lieferanten beruhigen. Als ein besonders erfolgreiches Anwendungfeld für elektronischen Handel haben sich Transportmarktplätze erwiesen. Hierfür sind primär drei Gründe ausschlaggebend gewesen: 1. Sowohl die Anbieterseite von Transportleistungen als auch die Seite der Verlader ist, gemessen an den jeweiligen Marktanteilen einzelner Teilnehmer, stark fragmentiert. Das gibt neutralen Plattformbetreibern die Chance, sich als Intermediäre zu etablieren (Zwar betreiben einige Großverlader auch „private marketplaces“ bzw. „buy-side-solutions“, die meisten Verlader finden auf offenen elektronischen Marktplätzen jedoch das, was sie selbst nicht schaffen: Volumen und „Liquidität“). 2. Reine Transporte sind „commodities“, bei deren Einkauf der Preis eine herausragende Rolle spielt. 3. Wie bei jeder Dienstleistung entfällt bei Transporten die Möglichkeit eines „load levelling“ (Versenken von Nachfragespitzen in Nachfragetälern durch verzögerte Auftragsdurchführung und/oder Bildung von Bestandspuffern). Insbesondere bei der Suche nach Rückfrachten droht ein Verfall von Kapazitäten, aber auch der umgekehrte Fall von Ladungsüberhängen muss ad hoc gelöst werden. Es leuchtet ein, dass das Medium Internet geradezu ideal ist, für einen Ausgleich von Angebot und Nachfrage zu sorgen. Ebenso klar ist, dass die Attraktivität eines virtuellen Transportmarktplatzes von der Wahrscheinlichkeit bestimmt wird, auf einer bestimmten Transportrelation (wie Finnland-Ruhrgebiet) ad hoc einen Partner zu finden, der den freien Laderaum oder die (überhängende) Ladung hat. Damit wird die Größe des elektronischen Marktplatzes zum entscheidenden Attraktivitätsmerkmal. Ökonomen sprechen hier auch von Netzwerkeffekten: jeder zusätzliche Kunde macht das Produkt besser. Das bewirkt naturgemäß eine Konzentration der Anbieter virtueller Laderaumbörsen. Die Zahlen der Marktführer sind inzwischen beeindruckend. Teleroute berichtet von 70.000 Angeboten täglich bei 45.000 Nutzern in 25 Ländern und gibt das jährlich vermakelte Transportaufkommen mit 200 Millionen Tonnen an. Der Wettbewerber Timocom spricht auf seiner Internetseite von bis zu 100.000 Laderaum- und Frachtangeboten und zählt 19.000 Kunden mit 58.000 Nutzern (Stand Anfang 2006). Bei solchen Zahlen muss man sich allerdings zwei Spezifika des Transportmarktes vor Augen halten: a) die jeweils platzierten Angebote zergliedern sich in eine große Anzahl von Verkehrsrelationen und können insoweit nicht aggregiert werden, und b) Kapazitätsangebote verfallen schnell. Typisch für die beiden hier erwähnten Marktführer ist, dass sie einzelne Ad-hocAufträge vermitteln, in den Preisbildungsprozess dabei selbst nicht eingreifen und ihre Services nur Spediteuren und Transporteuren anbieten. Online-Auktionen bieten sich 40 eher für Rahmenkontrakte an, bei denen dann Verlader direkt involviert sind. Hierfür gibt es Spezialisten. Der Verladernutzen liegt primär in der Erzielung niedriger Frachtraten bei gleichzeitig sinkenden Kommunikationskosten und verkürzten Ausschreibungsdauern. Erfolgreiche Beispiele für online vermittelte Rahmenkontrakte gibt es besonders zahlreich im Seefrachtbereich, wo für einen großen Tender bisweilen über 10 Leute beschäftigt sind. Neben erfolgreichen, carriergetriebenen e-Commerce-Portalen wie Inttra und GT Nexus gibt es Anbieter wie Glomap, die sich von einem offenen Marktplatz für die Schifffahrt in einen Anbieter für Verlader gewandelt hat, der elektronische Ausschreibungsportale konzipiert. So schreibt etwa die Wieland Werke AG in Ulm monatlich 80 40-Fuss-Container zur Verschiffung nach Südostasien über Glomap aus. Auch die Bayer Gruppe Material Sciences hat ihre Beschaffungs-ITPlattform (Sourcing Cockpit) um ein Ausschreibungsportal für Seefracht ergänzt, von dem aus 2005 90 Linienreedereien in aller Welt eingeladen wurden, einen Tender herunterzuladen und ihr Angebot wieder hochzuladen. Inttra bietet ein DecisionSupport-Tool an, mit dem Frachtmanager die Angebote der Carrier unter diversen Gesichtspunkten (Transitzeit, Abfahrtsfrequenz, Rate, Routing) analysieren und einem Ranking unterziehen können. Konkurrent GT Nexus liefert konkrete Vorschläge für die Frachtzuteilung auf einzelne Carrier und produziert sogar digitale Vertragsentwürfe. An dieser Stelle stößt des Internet freilich an seine Grenzen. Spotgeschäfte kann man vollständig elektronisch tätigen, bei größeren Rahmenkontrakten bleibt der persönliche Kontakt zwischen beiden Marktseiten in der Regel unverzichtbar. Auch bei Transportmarktplätzen stellt sich Anbietern die Aufgabe, beiden Marktseiten Nutzeneffekte zu versprechen. Beispielhaft soll hier ein Angebot von Timocom zitiert werden, das in den hier gegebenen Kontext passt, weil es ebenfalls TI-Basiert ist: „Das Kalkulationstool TC eMAP ist vollständig in die Fracht- und Laderaumbörse TimoCom TRUCK & CARGO® integriert. Auf diese Weise erhalten die TimoComKunden einen großen Zusatznutzen. Dieses Modul erlaubt es den Börsen-Nutzern, sich für jedes Frachtangebot sowie für selbst gewählte Routen Zusatzinformationen bezüglich der Kosten und des Streckenverlaufs anzeigen zu lassen. Passend zu den individuellen Vorgaben gibt es außerdem eine detaillierte verbale und grafische Wegbeschreibung.“ Auf weitere Erfolgsfaktoren wie eine vorlaufende Bonitätsprüfung der Teilnehmer sei hier nicht weiter eingegangen. 3.4 Das „Internet der Dinge“: RFID- basierte Prozessintegration Obwohl diese Technologie nicht neu ist, steht der aktuelle „Hype“ um das Thema „Radio Frequency Identification“ (RFID) in einem deutlichen Kontrast zu dem allgemein verbreiteten Wissen über ihre Funktionsweise und Anwendungsbreite. Die folgenden Ausführungen sollen den Leser mit den neuen Chancen vertraut machen, die sich durch RFID insbesondere im Bereich logistischer Prozessinnovationen in dem Moment erschließen, wo diese Technologie „bezahlbar“ wird. Getrieben durch Projekte großer Einzelhändler wie Walmart und METRO und daraus resultierende Stückzahlen wird die Frage der Bezahlbarkeit schon in naher Zukunft ihre Eigenschaft als Implementierungsbarriere verlieren. Deshalb wird man sich schon jetzt in sehr vielen Branchen mit dem Einsatzmöglichkeiten von RFID beschäftigen müssen. Ausgelassene Wettbewerbsvorteile werden sonst sehr schnell zu ausgeprägten Wettbewerbsnachteilen. 41 Ähnlich dem bekannten Barcodesystem ist RFID eine Technologie, die primär der automatischen Objektidentifizierung dient. Der wesentliche technische Unterschied besteht darin, dass RFID zur Datenübertragung anstelle von Lichtstrahlen Funkwellen nutzt. Von einer Basisstation mit Energie versorgt, geben die am Objekt angebrachten, aus einem Mikrochip und einer Antenne bestehenden Datenträger („Transponder“ bzw. „Tags“) ihren Inhalt an das Lesegerät zurück. Wie beim Barcode enthält dieser Inhalt zunächst eine eindeutige Kennnummer („electronic product code“), die bei Ergänzung um eine Seriennummer nicht nur die Unterscheidung von Objekttypen (z.B. Artikeln), sondern sogar von einzelnen Objektausprägungen (z.B. einzelnen DVD-Spielern) ermöglicht. Elektronische Etiketten können dabei aufgrund ihrer Speicherkapazität über wesentlich mehr informieren als Strichcodes, beispielsweise über produktbezogene Qualitätsdaten (Chargennummern, Mindesthaltbarkeitsdaten,...), über Objektziele („Routing“), über Prozesssequenzen oder über Handlungsanweisungen. Je nach technischer Ausstattung können sie dabei auch noch „unterwegs“ mit neuen Inhalten (z.B. über zwischenzeitliche Kontrollresultate oder Warenvereinnahmungsdaten) angereichert werden. Elements of an RFID Antenna Reader Tag Abbildung 8: Funktion einer RFID-basierten Objektidentifikation Aus diesem Technologiewechsel resultieren einige gravierende Vorteile wie insbesondere der Wegfall der Notwendigkeit einer genauen Objektpositionierung gegenüber dem Lichtstrahl eines Lesegerätes und die Möglichkeit eines sehr schnellen Einlesens einer großen Vielzahl von Objekten („Bulkscanning“ mit einer hohen Leseleistung auf der Basis sogenannter „Antikollisionsmechanismen“). Gegenüber der Barcodetechnologie kann man hier auch von einer vollständigen Automatisierung von Objektkontrollen (Identifikations- und Zählprozessen) sprechen. Die damit verbunden Vorteile gegenüber einem Barcodesystem lassen sich nüchtern als Zeit- und Qualitätsgewinne aufzählen. Gesamthaft betrachtet, kann man diesen technischen Fortschritt aber auch als einen Paradigmenwechsel bewerten. METROVorstand Mierdorf spricht von einer „Zeitenwende“. Um den Umbruch in einem Bild zu veranschaulichen: Die Welt der Gegenstände fängt selbständig an, mit unseren Planungs- und Überwachungssystemen zu kommunizieren, sich auszuweisen und über den eigenen Status zu informieren. In einer Automobilfabrik spricht ein Einbauteil: „Ich bin ein Tachometer, Artikel-Nummer 79351, und habe nach dem Einbau gerade 42 erfolgreich die Qualitätskontrolle passiert.“ Das Regal wird dem Supermarktpersonal zurufen „Befülle mich jetzt!“ Und der Koffer wird in einem Labyrinth von Förderbändern in einem Flughafen einer Weiche mitteilen, wohin er als nächstes fliegen will. Im logistischen Umfeld sind Tags und zugehörige Peripheriegeräte der Ebene der materialflussnahen Hardware zuzuordnen. Die Peripheriegeräte („Basisstation“) werden über ein Datenmanagementsystem mit der jeweiligen Applikationssoftware verbunden. Dort können ereignisabhängige Workflows für das Auslösen von Folgeprozessen sorgen. So wird etwa nach einem Selfscanning von Kunden am Checkout eines Einzelhandelsgeschäftes automatisch der Zahlungsmitteltransfer angestoßen und Warteschlangen an Kassen gehören irgendwann der Vergangenheit an. Die durch Transponder stimulierte „Prozessintelligenz“ kann aber auch an anderer Stelle installiert sein. So können etwa im Transponder hinterlegte Produktdaten in einem Automobilwerk Schweißroboter erkennen lassen, ob als nächstes ein Kombi oder eine Limousine zu fertigen ist und welche Schweißpunkte entsprechend zu setzen sind. Damit entfallen bislang notwendige, aufwändige Umrüstvorgänge. Die positionierungsfreie Objektidentifikation ermöglicht eine Vergrößerung der Zahl der installierten Messpunkte und damit eine Erhöhung der Kontrolldichte logistischer Abläufe. Das kann auch zur Entwicklung gänzlich neuer Prozessmodelle führen. Im Haushaltsbereich etwa könnten „intelligente Mülltonnen“ aus entsorgten Verpackungen Impulse für Nachbestellungen generieren und damit zwischen Handel und Konsument ein „Continuous Replenishment“ von Versorgungsgütern ermöglichen. Neben Kontrolldichte kann auch die Kontrollfrequenz erhöht werden. RFID könnte beispielsweise in einem Lager eine tägliche Inventur ermöglichen (wenn diese angesichts der verbesserten Handlingskontrolle überhaupt noch nötig ist). Unklar ist jedoch noch, wie mit der Datenflut umzugehen ist, die aus einer Kombination von erhöhter Informationsdichte pro Chip, erhöhter Kontrolldichte je Prozess und erhöhter Kontrollfrequenz verbunden wäre. Bulkscanning ohne vorhergehende Objektpositionierung ist nicht die einzige Vorteilsquelle funkbasierter Identifikationstechniken. Zu den in einem ersten Durchgang erwähnenswerten, technologiebedingten Vorteilen von RFID zählen auch noch die weitgehend fehlende Beeinträchtigung durch äußere Einflüsse wie Verschmutzung sowie die bereits angedeutete Möglichkeit, größere Datenmengen (wie Adressdaten, Handlungsanweisungen oder Objekthistorien) am Objekt zu verankern und gegebenenfalls „unterwegs“ zu verändern. Im Ansatz ergibt sich damit ein Trend zu einer stärker dezentralisierten Datenhaltung. Außerdem ermöglichen Tags über eine sensorische Datenerfassung die Kontrolle von Qualitätsparametern wie etwa der Temperatur von Speiseeis. Keine schlechte Lösung, wenn man bedenkt, dass nach einer Studie von Langnese-Iglo überhaupt nur 50 Prozent der Eisartikel in unbedenklicher Form in den Tiefkühltruhen des Handels landet. Sie bedingt allerdings den Einsatz einer energieautonomen Tag-Variante, die nicht nur nach externer Aktivierung innerhalb der Reichweite von Basisstationen funktioniert. Mit solchen Tags ließe sich grundsätzlich ein Nachteil ausschalten, den „normale“ Tags ansonsten nach wie vor mit Barcodesystemen teilen: beide lassen logistische Prozesse über längere Strecken unbeobachtet. Die Fachdiskussion um das Thema RFID ist stark auf den Einsatz von Tags an Produkten und Ladungsträgern fokussiert. Transponder werden jedoch auch an Transportmitteln (z.B. Gabelstaplern) und an Werkzeugen und Betriebsmitteln eingesetzt. Über fest integrierte Tags am Werkzeug lassen sich produktions-, 43 instandhaltungs- und steuerungsrelevante Daten speichern. RFID kann hier z.B. Falschbestückungen verhindern, Werkzeugbegleitkarten ersetzen und die exakte Terminierung von Wartungsintervallen unterstützen. In der bislang am weitesten entwickelten Vision wird die RFID-Technologie mit künstlicher Intelligenz in Gestalt von Multi-Agenten-Systemen gekoppelt. Diese Vision führt zu einer Art „Internet der Dinge“, einer enthierarchisierten, dezentral gesteuerten Prozesswelt, in der sich logistische Objekte durch eingebettete Intelligenz ihren Weg durch verzweigte Netzwerke selbst suchen. Die Steuerung von Paketen wird in dieser Welt von einer Steuerung durch die Pakete abgelöst. Denkbar ist dabei auch, dass entsprechend ausgestattete Objekte in mehrstufigen Systemen mit wechselnden Engpässen Sortierreihenfolgen und Verteilstrategien jeweils ad hoc selbständig „erfinden“. Erste Versuche in dieser Richtung laufen bereits in enger Anbindung an Systeme der Materialflusstechnik. Die Fülle der hier zunächst nur angerissenen Einsatzmöglichkeiten von RFID führt unmittelbar zu der Frage nach dem Reifegrad dieser Technologie, von der man schon vorab sagen, kann dass sie auf jeden Fall erheblich komplexer ist als der Barcode (Im RFID Innovation Center der Metro Group allein sind Geräte und Dienste von über 30 Firmen im Einsatz). In welchen grundlegenden Varianten ist RFID verfügbar und welchen Einschränkungen unterliegt diese Technologie gegebenenfalls heute noch? Die technischen Realisierungsmöglichkeiten für das Systemelement „Transponder“ lassen sich nach verschiedenen Kriterien gliedern. Eine erste, grundlegende Unterscheidung ist die zwischen nur lesbaren und auch beschreibbaren Tags, ein Unterschied, der naturgemäß ebenso mit erheblichen Kostendifferenzen einhergeht wie die Unterscheidung von passiven und aktiven (energieautonomen) Tags. Unterschiedliche Einsatzspektren und Wirtschaftlichkeitsprofile verbinden sich vor allem auch mit einem weiteren, wichtigen Differenzierungskriterium, der Sendefrequenz. Im niedrigen Frequenzbereich zwischen 125 – 134 kHz angesiedelte RFID-Systeme verfügen über eine Speicherkapazität von bis zu 32 kByte bei einer maximalen Lesereichweite von 100 cm. Letzteres beschränkt ihre Anwendung auf Spezialfälle wie etwa die Steuerung geschlossener Mehrwegbehältersysteme. Auch die schon im Hochfrequenzbereich angesiedelten 13,56 MHz-Systeme erreichen keine höheren Lesedistanzen. Die für viele Anwendungsfälle in der Logistik erforderlichen Lesereichweiten von 2 – 5 Metern bedingen den Einsatz einer Ultrahochfrequenztechnologie (UHF). EPCglobal, eine Gemeinschaftsorganisation der Standardisierungsgremien EAN international und Uniform Code Council (heute GS1; EPC steht für „electronic product code“) hat bereits einen Standard im Frequenzbereich zwischen 850 und 930 MHz ratifiziert. Wegen der erforderlichen Steigerung des Energie-Outputs von 0,5 auf 2 Watt muss diese Technologie innerhalb der europäischen Union noch genehmigt werden, sie wird sich dann aber in der Logistik wahrscheinlich als Variante mit der größten Anwendungsbreite durchsetzen. Das Frequenzband um 2,4 GHz ist für bestimmte Einsatzbereiche bereits freigegeben. Hier werden in der Regel batteriegetriebene, komplexe Transponder eingesetzt, mit denen man Reichweiten von mehreren 10 Metern erreichen kann. Ein wichtiges praktisches Einsatzfeld ist die Containeridentifikation. Die hier nur grob skizzierten Varianten der RFID-Technologie zeigen, dass der erste Schritt in praktischen RFID-Projekten immer eine sehr sorgfältige Technologieauswahl 44 sein muss. „Plug & Play“-Lösungen gibt es im Markt (noch) nicht. Dass man darüber hinaus aus technischen Gründen immer mit einer begrenzten Pilotanwendung starten sollte, hat weniger mit der Variantenvielfalt als mit dem Reifegrad der RFID-Technik zu tun. Einen Karton in der Mitte einer Palette mit Schrauben kann man nach derzeitigem Stand der Technik über Radiofrequenzen nicht identifizieren. Auch Waren, die in Aluminiumfolie verpackt sind, sich in Gitterboxen befinden oder stark wasserhaltig sind, zeigen derzeit noch Machbarkeitsgrenzen der RFID-Technologie auf, an denen gearbeitet wird. Weiterhin beklagen Praktiker nach ersten Feldversuchen, dass es keine Fehlermeldungen gibt, wenn RFID-Tags beim Passieren von Funkschleusen nicht gelesen werden. Gelegentlich beeinträchtigen auch Störungen durch andere Maschinen die funkbasierte Datenübertragung. Die noch unbefriedigenden Leseleistungen, die sich in ersten Pilotinstallationen auch bei technisch eher unproblematischen Gütern (z.B. im Konsumgüterbereich) gezeigt haben, sind dagegen möglicherweise schon durch einfache Experimente mit der Positionierung von Tags und der Gestaltung des Installationsumfeldes behebbar. Von einer vollständig ausgereiften Technologie kann man jedoch insgesamt noch nicht sprechen. Aber wohl auch nicht von unlösbaren Barrieren. Unabhängig von der Frage der einzusetzenden Technologievariante ist der Nutzen von RFID hochgradig unternehmensbezogen und szenarioabhängig. Der Verlauf der Stückkosten von Peripheriegeräten und Tags wird die wirtschaftlichen Einsatzfelder dabei zunächst noch begrenzen. So ist etwa im Konsumgüterbereich zunächst nur ein RFID-Einsatz auf Paletten- und Kartonebene geplant. Um auf der Ebene von Verkaufseinheiten einsetzbar zu sein, müssen die Preise für Tags auf wenige Cent sinken. Der bevorstehende Technologiewechsel von siliciumbasierten Chips auf bedruckte Polymere kann hier den Durchbruch beschleunigen. Der Einsatz von aktiven Transpondern und Tags mit „read/write-capability“ wird wohl dennoch bis auf weiteres auf Produkte mit einer hohen Wertdichte beschränkt bleiben. Bei allen Einschätzungen dieser Art sollte man jedoch die schnelle Verbreitung von Mobiltelefonen im Hinterkopf haben, mit der anfangs auch niemand gerechnet hatte. Zu den wichtigen Nutzenprofilen nicht-logistischer Art zählen insbesondere die durch RFID ermöglichten Verbesserungen beim Diebstahlschutz und beim Schutz vor Markenpiraterie, wobei letzteres zumindest indirekt mit dem Thema „Supply Chain Management“ zusammenhängt: die Kunst wird darin bestehen, Plagiaten weltweit den Zugang zu Supply Chains zu verwehren. Man schätzt, dass gefälschte Produkte zwischen 5 – 7 % des Welthandels ausmachen. Die im Wesentlichen auf Diebstahl zurückzuführende Schwundquote im Handel wird zwischen 2-4 % geschätzt und liegt damit oberhalb der Umsatzrendite vieler deutscher Einzelhändler. Für hochwertige Produkte dürften sich damit keine Schwierigkeiten ergeben, einen entsprechenden Business Case für den RFID-Einsatz aufzubauen. Indirekt ist damit aber auch schon ein Implementierungsproblem angesprochen. Wenn die Wirtschaftlichkeit einer Technologie von einzelnen Produktmerkmalen wie der Wertdichte abhängt, droht ein paralleler Einsatz von neuer und alter Identifizierungstechnologie (Barcode), ein Szenario, das geeignet sein könnte, die verantwortlichen Träger der zu treffenden Investitionsentscheidung etwas zu irritieren. Die oben bereits angesprochene Differenzierung zwischen Pallet-, Box- und ItemLevel-Tracking führt in die gleiche Problematik. Zwei weitere Nutzenprofile nicht primär logistischer Natur sind noch erwähnenswert. So mag die für den Einzelhandel wichtige Erstellung individueller Verbraucherprofile durch RFID noch trennschärfer möglich sein. Verbraucher selbst können durch ein am Einkaufswagen angebrachtes Display über eine RFID-basierte Objektidentifikation 45 reichere Produktinformationen abfragen (z.B. sich als Diabetiker über die Zusammensetzung von Lebensmitteln informieren). Die im Verbraucherbereich noch zu lösende Datenschutzprobleme müssten eigentlich lösbar sein. Selbst wenn ein Tag nach dem Verlassen eines Ladenlokals nicht deaktiviert worden ist, entsteht dem Kunden schließlich insofern kein Schaden, als ein elektronischer Produktcode außerhalb seiner spezifischen Systemumgebung für Dritte nur eine völlig bedeutungslose Zahlenfolge ist. Weiterhin kann das vom Gesetzgeber forcierte Thema „Rückverfolgbarkeit“ im Lebensmittelsektor neue Einsatzfelder für RFID erschließen, wenngleich der Zwang, hier schon ab dem 1.1.2005 Lösungen implementieren zu müssen, die Unternehmen zunächst einmal wohl überwiegend zu „RFID-freien“ Lösungen greifen lassen wird. Dass die Grenze zwischen Qualitätssicherungsthemen und Logistik fließend ist, zeigen übrigens Rückrufaktionen in anderen Branchen. Der Rückruf von über 14 Millionen Reifen durch die Firma Firestone im Jahre 2000 hätte mit Sicherheit schneller und treffgenauer realisiert werden können als dies damals möglich war (wobei der Hauptnutzen bei denjenigen Autofahrern gelegen hätte, die weiterhin unidentifiziert mit den betroffenen Reifen durch die Gegend gefahren sind!). Etwas komplexer stellt sich die Frage nach dem Business Case für RFID in einem rein logistischen Kontext. Ein Hauptgrund dafür liegt schlicht darin begründet, dass ein Teil der Funktionsumfänge von RFID durch die inzwischen etwa 30 Jahre alte Barcodetechnologie abgedeckt wird und einige Unternehmen zögern werden, ihre bestehenden Investitionen in diese Technologie einfach abzuschreiben. Die RFIDVorteile zeigen sich innerhalb logistischer Systeme mit besonderer Deutlichkeit an den jeweiligen Schnittstellen. Transshipmentpoints innerhalb von speditionellen Netzen oder Handelsnetzwerken haben einen hohen Durchsatz an Sendungen bzw. Packstücken. Hier ist aktuell die Barcodetechnologie Standard. Dabei werden meist Sendungsund Routinginformationen einzeln von Mitarbeitern mit Scannern ausgelesen. Auf Packstückebene ist hier aufgrund der hohen Stückzahlen ein hoher Zeitaufwand zu verzeichnen. Angenommen RFIDs würden flächendeckend eingesetzt, könnten alle Sendungen quasi gleichzeitig auf dem LKW ausgelesen werden. Damit wäre eine Vollständigkeitskontrolle „auf Knopfdruck“ möglich. Die Durchlaufzeit im Wareneingang reduziert sich erheblich, die Ware wird unmittelbar nach ihrem physischen Zugang disponibel. Ebenso könnte per Knopfdruck überprüft werden, ob sich auf dem LKW überzählige (z.B. fehlverladene) Packstücke befinden. Fehlende Kartons auf einer Palette werden nicht erst beim Wareneingang des Käufers entdeckt, sondern bei jedem Kontrollpunkt. In einem Pilotprojekt des britischen Handelsunternehmens Tesco konnte z.B. der Zeitbedarf für eine komplette LKW-Entladung von durchschnittlich 23 auf 3 Minuten reduziert werden. Besonders ausgeprägt sind dabei die Zeitgewinne im Zusammenhang mit dem Abgleich zwischen physischem Wareneingang und elektronisch übermittelten Versandavisen (DESADV). Diese Beispiele zeigen die für RFID typische Doppelwirkung: operative Effizienzgewinne durch Prozessverschlankung paaren sich mit Informationsgewinnen, die sich in besseren (z.B. schnelleren) Entscheidungen und einer erhöhten Adaptivität niederschlagen. Weitere logistische Vorteile erschließen sich erst auf den zweiten Blick. So werden z.B. heute oft noch notwendige, aufwändige Referenzierungsprozesse bei Statusrecherchen (von der Lieferscheinnummer des Versenders zur Sendungs- oder Collinummer des Logistikdienstleisters und zurück) überflüssig. Und bei Umsortierungen wie etwa der Bildung von Mischpaletten in einem regionalen 46 Distributionscenter oder einer Cross-Docking-Operation muss nicht jedes Mal eine neue NVE (Nummer der Versandeinheit) gebildet werden. Bei standardisierten, wiederverwendbaren Ladungsträgern würde es z.B. genügen, den Ladungsinhalt mit der elektronischen Ladungsträgernummer („Global returnable/indidividual asset identifikation“ – GRAI) zu „verheiraten“. Auf Transportverpackungsebene entfaltet der Einsatz von RFIDs seine Stärke besonders bei Mehrwegbehältersystemen. Die Wiederbeschreibbarkeit und hohe Haltbarkeit machen eine langfristige Identifikation eines Mehrwegbehälters möglich, und der Chip kann gleichzeitig temporäre Routinginformationen aufnehmen. So kann in Behälterkreisläufen nachvollzogen werden, wo sich welcher Behälter befindet bzw. an welcher Stelle ein Behälter „untergegangen“ ist. Voraussetzung ist die Ausstattung der Teilnehmer am System mit RFID-Lese/Schreibgeräten. Über die Identifikation des Behälters kann man auf der Basis von Datenbanken Inhalt, Herkunft und Ziel der jeweiligen Logistikobjekte ableiten. Innerhalb eines Lagers werden „Real-time“-Inventuren möglich. Dabei könnte je nach Anforderung ein RFID auf Artikel- oder Umverpackungsebene zur Identifikation eines Lagerstücks dienen. Den höchsten Nutzen versprechen Echtzeit-Inventuren auf der Ebene von Verkaufsregalen, wo zu spät entdeckte Fehlbestände immer noch – trotz Barcodeeinsatz - unnötige Umsatzverluste (und zugehörige Kundenfrustrationen) auslösen. Wie bereits erwähnt, wird ein „Item-Level-Tracking“ allerdings aus Kostengründen im Konsumgüterbereich auf absehbare Zeit noch nicht möglich sein. Zeitgewinne ergeben sich durch RFID-Einsatz nicht nur bei kompletten Inventuren, sondern auch bei der gezielten Suche eines einzelnen Objektes. So verwundert es nicht, dass die Bibliothek des Vatikans diese Technologie inzwischen ebenso nutzt wie die Strandkorbverwaltung von Westerland. Auch die Identifikation einzelner Fahrzeuge auf den großflächigen Pufferzonen von Automobilspediteuren bietet sich für einen Einsatz dieser Technologie an. Auch bei dem Beispiel „Bibliotheksverwaltung“ wird der Nutzen aber wahrscheinlich nicht erst bei der schnellen Identifizierung falsch einsortierter Objekte anfallen, sondern schon bei der Verhinderung solcher Irrtümer. Suchoperationen werden nicht effizienter, sondern seltener. Nicht nur bei „außerlogistischen“ Systemvorteilen wie „Schutz vor Markenpiraterie“ ist eine vollständige monetäre Nutzenbewertung von RFID schwierig, oder genauer gesagt: nur auf der Basis einiger mehr oder weniger spekulativer Annahmen möglich. Auch die von vielen Projekten zunächst verfolgten rein logistischen Effekte lassen sich leichter verbal beschreiben als monetär bewerten. Welchen ökonomischen Wert hat beispielsweise der Reaktionszeitgewinn, der sich Supply Chain Managern durch verstärkte, RFID-basierte Echtzeitkontrollen logistischer Prozesse erschließt? Und in welchem Umfang schlagen sich reduzierte Stockouts in einem Handelsregionallager oder am Point of Sale über verhinderte Umsatzverluste in Rohertragssteigerungen nieder? Die Aufbereitung entsprechender Business Cases vor dem RFID-Einsatz ist eine anspruchsvolle Aufgabe, deren Lösung genaue Prozessanalysen und sehr sorgfältige, nach Einzeleffekten (z.B. im Umsatz- und im Kostenbereich) differenzierte Schätzungen bedingt. Die Branche der Logistikdienstleister kann ihren Business Case nicht auf „außerlogistischen“ Systemvorteilen aufbauen. Auf der anderen Seite müssten insbesondere die Betreiber von Stückgut- und Paketnetzen mit besonders hohen Investitionsaufwendungen rechnen, da nicht nur in Tags, sondern an vielen Terminals, Toren und gegebenenfalls Fahrzeugen auch in die zugehörige Systemperipherie (Schreib- und Lesegeräte) investiert werden muss. Hinzu kommt, dass die bislang 47 entwickelten, barcodebasierten Sendungsverfolgungssysteme für die eigene Qualitätskontrolle im Grunde ausreichend sind. Um eine Palette unbeschädigt und rechtzeitig von A nach B zu bringen, muss man nicht unbedingt Detailkenntnisse über ihren Inhalt haben. Zumindest für netzbasierte Transportdienstleistungen wird die Wertschöpfung also weniger in der weiteren Rationalisierung der eigenen Prozesse liegen als vielmehr in der Marktanteilssicherung oder -steigerung durch verbesserte Nutzenprofile für Kunden (s. auch das oben angesprochene Merkmal einer vereinfachten Referenzierung). Für Anbieter komplexerer, nicht netzbasierter „Added-ValueServices“ dagegen ergibt sich ein anderes Bild. Diese Dienstleister moderner Prägung operieren als Konsequenz immer weiter reichender Outsourcingkonzepte innerhalb verladerspezifischer logistischer Prozessketten und können, etwa aus einer 4PLPosition heraus, für ihre Kunden sogar zu beratenden Treibern einer RFID-Einführung werden. Von einer fehlenden branchenweiten oder branchenübergreifenden Technologie-Standardisierung wären sie weit weniger betroffen als die Betreiber offener Transportnetze, durch die hindurch Güter ganz unterschiedlicher Branchen fliessen. Es zählt zu den Wesensmarkmalen der RFID-Technologie, dass sie ihr volles Potenzial erst in der unternehmensübergreifenden Gestaltung logistischer Prozessketten entfaltet. Die von großen Handelsunternehmen aktuell angestoßenen Projekte setzen denn auch die System-Integration der Hersteller zwingend voraus. Aus deren Sicht mag die Vorteilhaftigkeit von RFID deutlich schwächer ausgeprägt sein als für ihre Handelskunden. Insbesondere für kleinere und mittelständische Lieferanten geht es dabei wohl oft weniger um das Ausschöpfen eigener Vorteile als vielmehr um die Erfüllung kundenseitig erhobener Forderungen („compliance“). Wie auch für die bereits erwähnten Netzspediteure wird es für diese Unternehmen kriegsentscheidend sein, dass die schnelle Herausbildung von Branchenstandards sie von dem Zwang befreit, kundenseitig verschiedene Technologien bedienen zu müssen. Einige der wesentlichen Erfolgsvoraussetzungen für den RFID-Einsatz sind in den vorausgegangen Abschnitten bereits erwähnt worden: Sinkende Systemkosten insbesondere für die Tags als Informationsträger, der technische Reifegrad und die Beseitigung der klassischen Investitionsblockade bei neuen Technologien in Gestalt unzureichender Standardisierung. Als weitere Erfolgsvoraussetzung ist noch der Hinweis auf die Notwendigkeit des Erreichens einer kritischen Masse anzubringen. In vielen Branchen wird es der Marktmacht einzelner „Spieler“ bedürfen, um den Rollout so zu beschleunigen, dass sich (möglichst für alle Beteiligten) ein schnelles Erreichen des Break-Even-Punktes ergibt. Dabei wird sich das Muster eines sich selbst verstärkenden Prozesses ergeben: Im Zuge des Rollout ergeben sich Kostendegressionseffekte bei der Produktion von Transpondern und Peripheriegeräten, die Preissenkungen zur Folge haben, die dann ihrerseits wieder die wirtschaftliche Attraktivität der Technologie verbessern usw. Lediglich innerhalb geschlossener logistischer Kreisläufe, also beispielsweise bei der unternehmensinternen Sendungsverfolgung von getagten Mehrwegtransportbehältern, spielen Fragen der Standardisierung und der kritischen Masse nur eine untergeordnete Rolle. Bei offenen Systemen (und damit im Supply Chain Management) sind sie „kriegsentscheidend“. Seltener erwähnt wird der Tatbestand, dass die vollständige Ausschöpfung des Potenzials von RFID in vielen Fällen ein vorbereitendes Prozessredesign im Umfeld 48 des Einsatzes von Tags bedingt. Ein anschauliches Beispiel hierfür liefert der Einzelhandel, bei dem die RFID-gestützte Warenvereinnahmung eine vorauseilende Information durch den Hersteller in Form eines elektronischen Lieferavises bedingt. Ohne eine entsprechende EDI-Nachricht sind automatisierte Soll-Ist-Vergleiche im Zuge der LKW-Entladung nicht möglich. Bislang sind hierzu aber kaum mehr als 10% der Lieferanten des Konsumgüterhandels in der Lage. Für die zurückhinkenden Hersteller wird es demzufolge bei der RFID-Einführung oft um mehr gehen als nur um die Bestückung von Paletten mit Tags. Aus einzelwirtschaftlicher Sicht liegen weitere Erfolgsvoraussetzungen vor allem in Fragen eines professionellen Projektmanagements, auf die deshalb abschließend noch eingegangen wird. Wie bereits oben angeklungen, ist die Implementierung von RFID alles andere als ein hochstandardisierter und auch heute noch nicht wirklich standardisierbarer Prozess. Dies liegt sowohl in der enormen technischen und funktionalen Applikationsbreite als auch in der sehr unterschiedlichen Komplexität der möglichen Anwendungsszenarien begründet. Viel zu häufig beginnen RFID-Implementierungen mit der Diskussion und Bewertung der Preis-/Leistungsfähigkeit von Tags und Lesegeräten. Wesentlich wichtiger jedoch als die Qualität einer Einzelkomponente (bestes Lesegerät, billigster Tag) ist das funktionierende Zusammenspiel aller Hard- und Software-Komponenten innerhalb des Gesamtsystems in bezug auf Integrierbarkeit, Kombinierbarkeit und Skalierbarkeit. In Wahrheit stehen wir in vielen Fällen vor dem vollständigen Neubau einer sehr komplexen IT-Infrastruktur, in der die sogenannten ‚Savants’ als spezifische RFIDMiddleware das zentrale Nervensystem des Systems darstellen. Sie fungieren als Bindeglied zwischen den Lesegeräten, der konventionellen Unternehmens-Middleware und den ERP-Systemen und ermöglichen die Anbindung von Servicediensten wie z.B. ‚Object Naming Services’ (ONS) oder anderen Web-Applications. Ihre Hauptaufgabe besteht in der intelligenten Filterung und Regulierung der gigantischen Ereignisdatenströme. Sie zielen im Sinne eines Event Managements darauf, genau die steuerungsrelevanten Ereignissätze (und nur diese) an nachgelagerte Systeme weiterzugeben und bewahren z.B. die transaktionalen ERP-Systeme vor unbeherrschbaren Terrabytefluten. Eine weitere Herausforderung an das Design der Systemarchitektur liegt meist im Fehlen von gesicherten Annahmen hinsichtlich der zu erwartenden Datenvolumina und –ströme. Bereits kleinere Änderungen im IT-Prozessdesign können zu nachhaltigen Auswirkungen auf die Performanz und die Funktionsfähigkeit zuvor störungsfrei funktionierender Systeme führen. Die vollständige Planbarkeit ist hier a priori illusorisch, die flexible Skalierbarkeit ein Erfolgsfaktor. Insgesamt werden die Kosten der RFID-Systemarchitektur vermutlich die Gesamtverfahrenskosten stärker determinieren als die Kosten für Tags und HardwarePeripherie. Die Entwicklung vom ‚Laborbetrieb’ zum ‚gesicherten Einsatz im Feld unter Produktivbedingungen’ wird nicht überraschungsfrei sein. Die Gründe hierfür liegen primär in der Physik. Neben den bekannten potentiellen Störquellen Flüssigkeiten und Metalle, spielt die Positionierung des Tags am Objekt eine wesentliche Rolle, deren Optimalität letztlich durch systematisches Austesten herauszufinden ist. Daraus ergibt sich für die Implementierungsplanung auch eine abweichende und erweiterte Projektplanung und –phasenaufteilung gegenüber anderen IT Einführungsprojekten (wie z.B. der Einführung einer ERP-Software). Neben den üblichen Anforderungen bzgl. Klarheit 49 von betriebswirtschaftlichen und konzeptionellen Spezifikationen muss das ‚Dazulernen’ im Projekt institutionalisiert werden. Die schrittweise technische Verfeinerung darf nicht in späte Implementierungs- oder gar Rollout-Phasen des Projekts geschoben werden, sondern muss quasi von der ersten Projektminute als Parallelstrang mitkonzipiert und im Projekt gelebt werden. Das ‚Labor unter Realbedingungen’ hat einen noch höheren Stellenwert als die ‚Sandbox’ zur Demonstration von Musterprozessen, wie man sie aus der Einführung von ERP-Systemen kennt. Auch vor dem Hintergrund von Komponentenauswahl- und somit Beschaffungsentscheidungen ist dies wichtig. Ein projektbezogenes strukturiertes und kontinuierliches Steigern der technischen und verfahrensseitigen Komplexität ist daher sinnvoll. Dies gilt sowohl bei der Selektion und Priorisierung der Anwendungsszenarien (Cases) als auch bei der Meilensteinplanung für einen konkreten Einführungs-Case: ‚Think big, start small, pilot early, verify at each stage and extend continuously’. So gesehen werden proprietäre Einzellösungen wie z.B. das Management und die Verfolgung von teuren Spezialbehältern schneller zum Erfolg geführt werden können als ein komplexes Kunden-Lieferanten-übergreifendes Kollaborationsszenario zur Abbildung einer Supply Chain, bei dem sich zu den genannten technischen Schwierigkeiten noch Fragen der Aufteilung von Benefits unter den Beteiligten stellen. . Vermutlich wird man in einigen Fällen auch dann die proprietäre unternehmensspezische Lösung bauen, wenn sich mittelfristig durch das Schaffen von Standards und die Verbesserung der technischen Produktreife bessere Lösungen abzeichnen. Das Durchleben der Kinderkrankheiten stärkt das Immunsystem, will sagen, der frühzeitige Know-How-Aufbau und die erlebte Erkenntnis des ‚im Feld’ Machbaren sind – gut gemanaged - sicherlich keine Fehlinvestition. Perspektivisch können sie möglicherweise sogar ein Wettbewerbsvorteil sein, weil man a) gegenüber einem Warten auf den Standard schneller vorankommt und b) die Gelegenheit nutzt, die Lösung konsequent auf die individuellen Bedürfnisse des eigenen Unternehmens anzupassen. Obwohl solche individuellen Lösungen dann Partnern auf der Lieferantenseite die hohen Set-up-Kosten der Bedienung verschiedener Schnittstellen zumuten, wird man in solchen Fällen wenig Neigung zeigen, den eigenen Vorsprung über einen Standard oder auf einer öffentlich zugänglichen IT-Plattform nachträglich „sozialisieren“ zu lassen. Ein solches Verhalten bedingt freilich Marktmacht. In Bezug auf die Standardisierung der Produkt-Codifizierung ist die entscheidende Frage nicht, ob es einen Standard geben wird oder nicht. Die Frage wird eher sein, wie schnell diese Standards ausdefiniert und z.B. über die ‚Mandate’, (WalMart, Tesco, Metro, DoD) konkret umsetzbar sind und ‚market practice’ werden. Die hohen Erwartungen an EPCglobal sind hier vermutlich gerechtfertigt. Die teilweise noch recht unklaren Business Modelle einiger Anbieter (insbesondere im Service-Bereich) tragen derzeit nicht zur Transparenz bei. Dies gilt insbesondere für Fragen der Data-Ownership, Data Privacy, Kryptologie sowie des Pricing und der Leistungsverrechnung. Letztlich werden neben Geschwindigkeit am Markt, Produktqualität und Leistungsfähigkeit des Business Modells vor allem Vertrauenswürdigkeit und Seriosität in Ruf und ‚gelebtem Beweis’ perspektivisch relevant sein. Ein weiteres Problem ist das bereits aus den Zeiten des e-Hypes bekannte ITRessourcen-Management Problem. Aufgrund der Vielzahl der technischen 50 Spezialfragestellungen gilt es für den RFID-Projektmanager, eine im Vergleich hohe Anzahl von Experten mit hochgradigem Spezialwissen aber geringem Projekteinsatzvolumen (über den Projektzeitraum) trotz der beschriebenen unsicheren Planungsdeterminanten effizient zu koordinieren und punktgenau bedarfsorientiert einsetzbar zu machen. Ein sinnvoller Ansatz ist hier, die strategischen Partner nicht nur als Lieferanten, sondern in einer klaren Mitverantwortung für die Projektziele – z.B. als Alliance-Partner - mit einzubinden und ihre Mitwirkung vertraglich festzuschreiben. Die Chancen hierzu stehen gut, wenn man bedenkt, dass fast jeder Technologie- und Serviceanbieter im RFID-Umfeld geradezu nach Projektreferenzen lechzt und demzufolge auch bereit ist, einen gewissen Investitionsanteil zu übernehmen. Ein gutes Beispiel hierfür ist die Einführung der Brandklappenüberwachung am Frankfurter Flughafen, in denen SAP und Psion (als Handheld-Lieferant) nicht nur partnerschaftlich und mit relevantem Eigeninvest eingebunden waren, sondern ihrerseits sogar erhebliche Projektleistungen (z.B. im Bereich Testing und Projektdokumentation, ja sogar Produktentwicklung) eingebracht haben. Viele Unternehmen interessieren sich für die Möglichkeiten dieser neuen Technologie, sehen sich aber nicht in der Lage, deren Nutzenpotenzial genauer abzuschätzen und unter den vielen Einsatzmöglichkeiten (Sparten, Teilprozessen,...) die lukrativsten Teilbereiche für ein Pilotprojekt einzugrenzen. Die erste Unterstützung sollte deshalb in der Bereitstellung eines Kriterienrasters für eine Grobbewertung sowie eines methodischen Bezugsrahmens für die Erstellung eines Business Case bestehen. Die „Lukrativität“ eines RFID-Einsatzes hängt wesentlich von der Prüfung der nachstehenden 25 Kriterien ab. Die Kriterien fokussieren logistische Aspekte der Prozesskontrolle. Andere mögliche Werttreiber wie „Verhinderung von Markenpiraterie, „Diebstahlkontrolle“, „gläserne Kunden“ oder „Personenschutz“ werden hier nicht betrachtet. Die Anwendung dieser Checkliste macht nur Sinn, wenn drei Voraussetzungen erfüllt sind: - RFID muss im betrachteten Falle technisch machbar sein - Es darf keine anderen Ausschlusskriterien geben wie etwa ungeklärte Missbrauchsrisiken (Fremdeinwirkung auf den Speicherinhalt von Tags) oder ungeklärte Datenschutzprobleme - Das Unternehmen muss in seiner Entscheidung über den RFID-Einsatz frei sein (kein Fall von „Compliance“ gegenüber den Anforderungen von Großkunden). Die wichtigsten Kriterien/Fragestellungen lauten: 1. Integrierbarkeit der Technologie (lassen sich Tags und Peripheriegeräte problemlos in der gegebenen Prozess- und IT-Landschaft, in den Verpackungssystemen etc. verankern?) 2. Geschlossenheit der Objektkreisläufe (verlassen die Kontrollobjekte den Bereich selbstorganisierter Kontrollinstanzen?) 3. Notwendigkeit eines unternehmensinternen Prozessredesigns (müssen wesentliche Arbeitsabläufe sowie gegebenenfalls deren softwareseitige 51 Abbildung neu gestaltet werden, damit das Nutzenpotenzial von RFID voll ausgeschöpft werden kann?) 4. Notwendigkeit eines unternehmensübergreifenden Prozess- bzw. Lösungsdesigns (tritt der Nutzen nur ein, wenn Unternehmen auf vor- oder nachgelagerten Wertschöpfungsstufen die Technologie ebenfalls einsetzen und ihre Prozesse entsprechend anpassen?) 5. Kooperationsbereitschaft von Partnern (sind die als „Mitspieler“ benötigten Kunden oder Lieferanten bereit, ebenfalls in diese Technologie zu investieren?) 6. Verteilung des Wissens über RFID (verfügen alle benötigten Partner über einen ähnlichen Wissenstand? Sind sie darauf aufbauend in der Lage, für sich selbst einen konsistenten Business Case zu erarbeiten?) 7. Win-Win-Situation ( ergäbe sich ohne Ergebnisumverteilung zwischen den Partnern eine annähernd symmetrische Verteilung der Benefits von RFDI?) 8. Netzwerkkomplexität (sind die zu beteiligenden Unternehmen jeweils Teile unterschiedlicher Supply Chains, etwa, indem sie verschiedene Absatzkanäle bedienen? Sind die benötigten Datenerhebungspunkte über eine große Vielzahl unterschiedlicher Standorte/Firmen/Institutionen verteilt?) 9. Verfügbarkeit von Standards/Investitionssicherheit (gibt es für den RFIDEinsatz einen allgemein akzeptierten Branchenstandard?) 10. Existenz eines Break-even-Punktes/einer kritischen Masse (muss für das Erreichen der Gewinnschwelle eine Mindestanzahl von Objekten -Artikeln, Verpackungseinheiten, Tonnage – und/oder „Spielern“ erreicht werden?) 11. Erreichbarkeit der kritischen Masse (kann der Break-even-Punkt innerhalb einer wirtschaftlich vertretbaren Zeit erreicht werden?) 12. ROI-Sensitivität des Break-even-Punktes (ist die Lage der Gewinnschwelle stark abhängig von der Entwicklung der Preise für Transponder? 13. Wertdichte der Objekte/ Kostentragfähigkeit (stehen die Kosten je Transponder in einem angemessenen Verhältnis zum Wert der Kontrollobjekte?) 14. Senkung von Informationsbeschaffungskosten (lassen sich benötigte Informationen – z.B. über den Inhalt einer LKW-Ladung – auf RFID-Basis mit reduziertem Aufwand erheben? Fällt diese Ersparnis aufgrund der Häufigkeit entsprechender Vorgänge wirtschaftlich ins Gewicht?) 15. Mehrkosten zusätzlicher Informationen (wären die Kosten für die Beschaffung zusätzlich durch den RFID-Einsatz zu erwartender Informationen im Ist-System sehr hoch – etwa im Rahmen einer täglichen Inventur? ) 16. Rückverfolgbarkeit (ist es aus Sicherheitsgründen notwendig, bestimmte Objekte auf ihren Herkunftsort oder auf ihren Herstellungsprozess – z.B. eine bestimmte Chargennummer – zurückzuverfolgen?) 17. Rückholaktionen (ließen sich durch RFID Rückholaktionen schneller und zielgenauer abwickeln? Sprechen Häufigkeit und Ausmaß solcher Aktionen für einen Technologiewechsel?) 18. Störanfälligkeit der Prozesse ( sind gegenüber der Fehlerhäufigkeit im IstZustand erhebliche Stabilisierungseffekte zu erwarten?) 19. Ausmaß der Reaktionszeiten ( ist die übliche Zeitspanne, die im Ist-Zustand zwischen dem Auftreten eines Fehlers, seiner Entdeckung, seiner Meldung und seiner Beseitigung verstreicht, unakzeptabel lang und/oder schwankend?) 20. Höhe der Fehlerfolgekosten ( spricht die wirtschaftliche Tragweite von Verzögerungen/Verfügbarkeitslücken etc. im Ist-Zustand für den Einsatz einer neuen Technologie?) 21. Messbarkeit der Fehlerfolgekosten (lassen sich die Folgekosten von Bestandslücken, Prozessverzögerungen etc. nachvollziehbar abschätzen?) 22. Fehlertoleranz der Kunden (sind die Kunden besonders anspruchsvoll im Hinblick auf Leistungsmerkmale wie Termintreue oder Warenverfügbarkeit?) 52 23. Quantifizierbarkeit der Fehlerfolgekosten (sind die Kosten der Nichtverfügbarkeit – z.B. Umsatzausfälle durch Bestandslücken - ausreichend genau abschätzbar?) 24. Wettbewerberverhalten ( sind wichtige Konkurrenten in der Nutzung von RFID schon weiter fortgeschritten? Entsteht dadurch ein gewisser Implementierungsdruck?) 25. Marketingeffekte (würde ein RFID-Einsatz zur Profilierung Ihres Unternehmens gegenüber Wettbewerbern als besonders „fortschrittlich“ beitragen?) Die hier vorgelegte Checkliste kann Unternehmen helfen, mögliche Einsatzfelder von RFID nach den Kriterien „Auswirkung auf das Ergebnis“ und „Einfachheit der Umsetzung“ einer ersten Bewertung zu unterziehen und daraus z.B. eine Priorisierung von möglichen Projekten abzuleiten. Unterscheidet man diese beiden Merkmale einfach in den Kategorien „niedrig“ und „hoch“, so entsteht eine vielseitig verwendbare Positionierungsmatrix, mit deren Hilfe man auch innerhalb eines anderen Kontext zu einem nachvollziehbaren Ranking konkurrierender Maßnahmen kommen kann. Abbildung 9 zeigt beispielhaft das Ergebnis einer solchen Positionierungsarbeit. Anwendungsfelder für RFID werden sich hier eher unter den „Must haves“ als unter den „Quick Wins“ oder den „Low Hanging Fruits“ finden. Beispielhaft hierfür sei nur der Einführungsprozess für RFID im Lebensmitteleinzelhandel angesprochen. Hier beginnt die Konsumgüterwirtschaft mit der Nutzung von Transpondern auf Palettenebene, um dann (im Zuge der fortschreitenden Verbilligung von Tags) über die Umkartonebene schließlich auf der Ebene einzelner Verkaufseinheiten zu landen. Erst dort wird sich das volle Potenzial von RFID entfalten (etwa in der Gestalt einer Reduzierung von Leerständen in den Regalen von Filialen). 53 Ergebniswirkung „Must-Have“ 10 „Quick-Wins“ 11 9 hoch 8 5 1 2 7 4 niedrig 3 5 6 „Money-Pitfalls“ niedrig „Low-Hanging-Fruits“ hoch Einfachheit der Umsetzung Abbildung 9: Priorisierungsmatrix Dieses Schema vermittelt einen ersten Eindruck relativer Wertigkeiten. Für die Freigabe größerer Mittel ist es jedoch zu grob. Im folgenden Kapitel wenden wir uns deshalb der Frage zu, wie man im Zusammenhang mit SCM-Innovationen zu belastbaren Zahlenwerken kommen kann, die den zu erwartenden Return on Investment und die Kapitalrückflussdauer der notwendigen Investitionen widerspiegeln. 4. Ansätze zur ökonomischen Bewertung von IT-Investitionen im Supply Chain Management 4.1 Ziele des Kapitels In diesem Kapitel wird aufgezeigt, wie man Investitionen in IT-Lösungen in einem SCM-Kontext kaufmännisch rechnen kann, d.h. wie die einzelnen Wirkungen einer verbesserten Informationsversorgung so bis in die Kategorien einer Gewinn-undVerlust-Rechnung durchverfolgt werden können, dass sich auf der Basis plausibler Annahmen ein „Business Case“ rechnen lässt. 54 4.2 ROI und mehr: Wege zu einem Business Case Die durch Supply Chain Integration ermöglichten Ergebnisverbesserungen werden häufig auf der Ebene von Effizienzsteigerungen beschrieben, die sich in Kostensenkungen niederschlagen. Das ist aus zwei Gründen unzureichend. Zum einen fehlt die Berücksichtigung möglicher Umsatzwirkungen. Und zum anderen besagen Kostensenkungen noch nicht allzu viel, solange unberücksichtigt bleibt, welche Investitionen aufgewendet werden müssen, um diese Potenziale zu erschließen. Entscheidungsreife kann ein SCM-Projekt mit einer größeren ITInvestition folglich erst dann erlangen, wenn die zu erwartende Verzinsung und die daraus resultierende Kapitalwiedergewinnungsdauer „Pay-Back-Period“) ermittelt ist. Die Frage, welche Klippen auf dem Weg dorthin in der Praxis zu umschiffen sind, wird im Folgenden beispielhaft erläutert. Stellen Sie sich vor, Sie leiten als Logistikleiter bei einem Produzenten von Stahlröhren ein Projekt, in dem über die Einführung eines APS-Systems entschieden werden soll. Die Softwareanbieter, die Sie in die engere Wahl gezogen haben, berichten Ihrem Team, dem auch der IT-Leiter, der kaufmännische Leiter und der Leiter Vertrieb angehören, von beeindruckenden Effizienzsteigerungen, die sie mit der Einführung ihrer Tools in anderen Unternehmen erzielt haben. Von Bestandssenkungen und Durchlaufzeitverkürzungen ist dort die Rede, von einer Stabilisierung der Produktionsplanung und einer daraus resultierenden Verbesserung der Termintreue sowie von einer besseren Auslastung der Fertigungskapazitäten. Für die Verbesserungsraten werden auf der Ebene entsprechender KPIs jeweils attraktive 2-stellige Prozentzahlen versprochen. Reicht das, um das Projekt in Ihrem Unternehmen durchzusetzen? Natürlich nicht. Der kaufmännische Leiter will als erstes wissen, welche Spuren es denn in der Ergebnisrechnung hinterlassen würde, wenn man die Planungszyklen um die Hälfte verkürzen könne. Dann fragt er noch, was das für Kosten und Erlöse konkret bedeutet, wenn die Auftragsabwicklungszeit einer Röhrenproduktion von 8 auf durchschnittlich 5-6 Wochen gesenkt werden kann und wenn damit eine Verkürzung von Bestandsreichweiten auf der Ebene von Rohstoffen und Vormaterialien in Höhe von 25 % einhergehen wird. Sie schaffen es, diese Zielgrößen über eine Schätzung der Cash-to-cash-Cycle-Time halbwegs nachvollziehbar in finanzielle Werte zu übersetzen, stellen bei dieser Gelegenheit aber fest, dass Einsparungen auf der Ebene der Supply Chain Kosten nicht ausreichen werden, um zu einer angemessenen Verzinsung dieser Investition zu gelangen, zumal Ihr IT-Kollege darauf hinweist, dass in einigen ihm bekannten Unternehmen die Kosten der Softwareeinführung erheblich über den ursprünglichen Schätzungen gelegen hätten und man die Umstellungsrisiken in der Schätzung der Pay-back-Periode angemessen berücksichtigen müsse. (Sie versuchen, die komplexe Frage nach Dauer und Aufwand der Implementierung zu umschiffen, weil Sie a) die SCM-Readiness Ihres Unternehmens selbst mit einem Fragezeichen versehen, und b) solange keinen ausführlichen Implementierungsplan entwickeln wollen, wie offen ist, ob das Projekt überhaupt eine Chance auf Genehmigung hat). Sie verlagern den Schwerpunkt der Diskussion auf die Leistungsseite der Logistik und heben hervor, dass das Unternehmen durch eine Kombination von verkürzter durchschnittlicher Lieferzeit und erheblich verbesserter Termintreue seinen Kunden einen geldwerten Vorteil verschaffen könnte, der sich in höheren Umsätzen und Marktanteilen niederschlagen würde und dem Unternehmen Wettbewerbsvorteile und 55 Alleinstellungsmerkmale verschaffen kann. Ihre Kollegen verstehen zwar nach einer entsprechenden PowerPoint-Präsentation das „Available-to-Promise-Konzept“, aber auf die Frage des kaufmännischen Leiters, mit welchen Mehrumsätzen er denn infolge des besseren Service rechnen würde, zuckt der Vertriebsmann mit den Achseln. So etwas sei Kaffeesatzleserei. Man beschließt, derartige Effekte als „Soft Facts“ einzustufen und sie in der quantitativen Ergebnisschätzung nicht ausdrücklich zu berücksichtigen. Obwohl das Unternehmen in der Vergangenheit häufiger Kapazitäten hat verfallen lassen müssen, weil es bei wichtigen Lieferanten zu Lieferengpässen und Verzögerungen gekommen ist, die man auf der Basis einer verbesserten Informationsversorgung vermutlich hätte entschärfen können, verlässt Sie der Mut, nun noch ergänzend auf die Potenziale einer Supplier-Integration hinzuweisen. Sie ahnen, dass Sie, auch wenn Sie noch so intelligent über die Effekte einer zeitnahen „bilateral change propagation“ sprechen, sich damit wieder im Bereich der Soft Facts bewegen und Ihre Pro-Argumente damit als „nice to have“ eingestuft werden. Wer garantiert denn, dass die Lieferanten zu einer entsprechenden Supply Chain Collaboration überhaupt willens und in der Lage sind? (Auf einer allgemeineren Ebene über den grundsätzlichen Nutzen von Transparenz in Netzwerken, über die Schädlichkeit von Bullwhipeffekten und über die globale Notwendigkeit einer erhöhten Adaptabilität zu reden, hatten Sie sich schon länger abgewöhnt, weil das einsam macht). Was läuft da schief? Man kann aus dieser fiktiven Geschichte dreierlei lernen. Zunächst einmal zeichnen sich SCM-Projekte immer wieder dadurch aus, dass wesentliche Effekte auf der Leistungsseite der Logistik angesiedelt sind, damit Fragen der Servicequalität betreffen, nicht über die Kosten, sondern über den Umsatz auf den Gewinn wirken und schwer quantifizierbar sind. Es ist ein Fehler, solche Effekte allein aufgrund eingeschränkter Messbarkeit aus der Bewertung auszuschließen. Dass man die Wirkungen einer verbesserten Prognosegenauigkeit, Lieferbereitschaft oder Termintreue nicht genau abschätzen kann, heißt ja weder, dass es diese Effekte nicht gibt, noch dass sie für das Unternehmensergebnis irrelevant sind. „Nicht alles, was zählbar ist, zählt“, sagte schon Einstein, „und nicht alles was zählt, ist zählbar“. Wenn man eine Runde von Experten etwa aus dem Vertrieb ernsthaft mit der Aufgabe betraut, die Wirkungen einer erhöhten Warenpräsenz bestimmter Konsumgüter in den Handelsregalen auf den Umsatz zu schätzen und diese Aufgabe dahingehend präzisiert, man möge Wahrscheinlichkeiten dafür angeben, dass ein Kunde im Stockout-Fall a) zu einem Konkurrenzprodukt greift, b) in einem anderen Handelsgeschäft nach demselben Produkt sucht, c) noch einmal wiederkommt, oder d) dem Händler aufgrund wiederholt schlechter Erfahrungen als Kunde ganz verloren geht, dann wird man feststellen, dass diese Experten relativ schnell einen Konsens darüber herbeiführen können, wie diese Verhaltensweisen vermutlich ausgeprägt und verteilt sind. Man kann dann die jeweiligen Effekte quantifizieren (wofür man wiederum Annahmen braucht: was kostet ein verlorener Kunde?), sodann mit ihren Eintrittswahrscheinlichkeiten gewichten und die so errechneten Erwartungswerte zu Kosten der Nichtverfügbarkeit aggregieren. Eine Möbelhandelskette hat eine solche Übung einmal gemacht und dabei zu ihrer Überraschung festgestellt, dass die zu erwartenden Umsatzsteigerung aus einer besseren Warenverfügbarkeit für das zukünftige Unternehmensergebnis dramatisch wichtiger sind als die aus der Installation besserer Dispositionstools zunächst primär erwarteten Bestandssenkungen. Das erste Fazit lautet also: Serviceverbesserungen nicht als Soft 56 Facts abtun, sondern über Expertenschätzungen und Annahmen in plausible Wertgrößen übersetzen. Dieses Beispiel führt uns direkt zu einem zweiten Problem, das auf eine ähnlich pragmatische Weise gelöst werden kann. Die einem Prozessredesign unmittelbar zuzurechnenden Performancesteigerungen wirken oft erst über mehrere intervenierende Variable in die Kategorien einer Gewinn- und Verlustrechnung hinein. Eine verbesserte Prognosegenauigkeit etwa erlaubt eine Absenkung von Sicherheitsbeständen (in beiden Fällen ist die Beantwortung der Frage: „Um wieviel?“ nicht ohne „Guesswork“ möglich), und daraus resultieren wiederum eine Freisetzung von Umlaufvermögen sowie ein reduzierter Lagerraumbedarf. Solche Wirkungsketten haben die unangenehme Eigenschaft, nicht nur mehrstufig zu sein, sondern auch noch Interdependenzen zwischen KPIs auf einer Stufe oder Rückkopplungen zu zeigen. Auch hier ist der Anspruch auf Perfektion schädlich und die Flinte gehört nicht ins Korn. Das nachstehende Schaubild (Abbildung 10) zeigt beispielhaft, wie man projektbezogen mit Blick auf die wichtigsten Kenngrößen einen Wirkungsbaum definieren kann, der es erlaubt, von logistischen Primäreffekten auf „Bottom-LineEffekte“ in einer kaufmännischen Ergebnisrechnung zu schließen. KPI Korrelation mit EVA KPI Lieferbereitschaft Umsatz Termintreue Durchlaufzeit Automatisierungsquote Produktions Kosten EBIT - Verwaltungs Kosten Steuern - Prognosegenauigkeit Umschlagshäufigkeit Wareneingangsdauer NOPAT Umlaufvermögen Ergebnis Kapitalbindung Kapital Kosten Anlagevermögen Zinssatz LKW-Auslastung (NOPAT = net operating profit after tax) Abbildung 10: Wirkungsanalyse-Diagramm Die dritte, aus der einführenden Beispielsituation ableitbare Einsicht ist nicht ganz so offenkundig. Wenn ein wesentlicher Teil der zu erwartenden Effekte einer SCM- 57 Innovation im Bereich der Kundenbindung durch Servicequalität liegt, dann ist es ein Gebot der Klugheit, das Soll-Serviceprofil aus der Unternehmensstrategie abzuleiten bzw. dort zu verankern und auf dieser Basis einen Projektsponsor auf Unternehmensführungsebene zu gewinnen. Man verhindert so, dass gute Ideen am Bedenkenträgertum auf mittleren Führungsebenen scheitern. Das ROI-Konzept kann leicht dazu verführen, infolge einer Überfokussierung auf kurzfristige, messbare Ziele eine wettbewerbsentscheidende langfristige Ressourcenentwicklung zu verhindern. Abschließend sei noch darauf hingewiesen, dass eine ROI-Analyse nur dann eine brauchbare Entscheidungsgrundlage sein kann, wenn sie eine angemessene Risikoanalyse umfasst. In diesem Rahmen muss geprüft werden, wie robust ein Konzept gegenüber möglichen Veränderungen wichtiger Randbedingungen ist. Dabei kann zu Tage treten, dass ein bei statischer Betrachtung optimales Konzept seine Vorziehenswürdigkeit verliert, weil es zu unflexibel ist. 5 Literaturverzeichnis Basisliteratur - - Alicke K. (2003): Planung und Betrieb von Logistiknetzwerken, Berlin Heidelberg - New York 2003. Bretzke, W.-R. (2005a): Supply Chain Management: Wege aus einer logistischen Utopie, in: Logistikmanagement, Heft 2 (2005), S. 22 ff. Bretzke, W.-R. (2005b): Supply Chain Integration: Chancen und Grenzen einer logistischen Leitidee, in: Logistik Management. Innovative Logistikkonzepte, hrsg. von R. Lasch und G. Janker, Wiesbaden 2005, S. 65 ff. Busch, A., Dangelmaier, W. (Hrsg.): Integriertes Supply Chain Management, Wiesbaden 2002. Cohen, S., Roussel, J. (2006): Strategisches Supply Chain Management , Berlin-Heidelberg-New York 2006. Stadtler, H., Kilger, Ch. (Hrsg.): Supply Chain Management and Advanced Planning, 3. Aufl., Berlin Heidelberg New York 2005. Straube (2004): e-Logistik. Ganzheitliches Logistikmanagement, BerlinHeidelberg-New York etc 2004. Vertiefende Literatur - An, Ch., Fromm, H. (Hrsg): Supply Chain Management on Demand, BerlinHeidelberg 2005. Seifert, W., Decker, J. (Hrsg.): RFID in der Logistik. Erfolgsfaktoren für die Praxis, Hamburg 2005. 58