Signal zum Aufbruch

Horst Walther[1]

Ein Versicherungskonzern plant seinen Aufbruch in die neue Software-Welt

O saeculum!  saeculum![2]
Was vor zehn Jahren als ehrgeiziger Versuch begann, neue Weisheiten der Unternehmensstrategie in die Informationstechnologie (IT) zu übersetzen, das endete, wie viele wohlmeinende Kochrezepte enden: im (Akten-)Schrank. Doch wachsende Dynamik und Deregulierung der Märkte stellen die Überlebensfähigkeit der Unternehmen ohne Unterlass auf die Probe. Und siehe da: Die althergebrachten IT-Systeme wirken wie Fesseln beim Aufbruch in "die neue Welt"… Also zurück zu alten Wegen? Ja und nein, denn IT-Strategie ist zwar mehr denn je unverzichtbar, doch mit einem Kochrezept ist es nicht beileibe getan …

Ein großer, deutscher Komposit-Versicherer wagte den Aufbruch zu neuen Ufern - ein Projekt, von dem dieser Artikel berichten will. Der Projektschilderung soll ein allgemeiner Szenario-Entwurf für den Versicherungsmarkt vorangehen. Die Leitfragen lauten: Welche großen Trends werden die Marktaktivitäten der Versicherungsunternehmen in welcher Weise zukünftig beeinflussen? Wie kann vor diesem Hintergrund die Ausrichtung und Gestaltung einer IT-Strategie verstanden werden?

Die bereits erwähnte Dynamik und Deregulierung der Märkte führt ganz allgemein zu einer verstärkten Fokussierung der Anbieter auf den Kunden. In dieser sich wandelnden, komplexen Umwelt ist der Pfad zwischen der Konzentration auf Kernkompetenzen, d. h. auf ein definiertes Kundensegment, und einer auf wachen Sinnen beruhenden Unternehmensintelligenz zu suchen. Die Versicherung als Serviceanbieter vertreibt für ihren genau definierten Marktteil industrialisierte Dienstleistungen, deren Marketing, Produktion und Vertrieb es hinsichtlich time-to-market, kundenfreundlicher Transparenz und zielgerichteter Innovationskraft zu messen gilt.

Dem Anspruch konsequenter Kundennähe ist nicht ohne ein umfassend erneuertes Selbstverständnis der Unternehmung zu genügen. So wird Spartenorientierung zugunsten von Kundenorientierung aufgegeben. Vielmehr tritt dem Kunden ein einziger Mitarbeiter gegenüber, der als Experte innerhalb seines erweiterten Ermessensspielraums eigenverantwortlich entscheidet und handelt. Ergebnisorientierte Vergütungssysteme ebnen dabei den Weg zu weitreichenden, organisatorischen Veränderungen: Relativ kleine, autonom handelnde Einheiten mit Profit-Center-Charakter lösen monolithische Organisationen mit tiefen, funktionalen Hierarchien ab. Die Flexibilität dieser "Netzwerkstrukturen" kann sich dann optimal entfalten, wenn Verwaltungstätigkeiten ebenfalls dezentral und weitgehend automatisiert abgewickelt werden können.

Auf Seiten der Wertschöpfungsprozesse liegt in der Produktintelligenz der Schlüssel zum Erfolg. Ein "intelligentes" Produkt trägt das Wissen über seine eigene Rolle im Wertschöpfungsprozess mit sich. Das "Expertenwissen" zu seiner Abarbeitung wird also elektronisch mitgeliefert. Doch weder produktgebundenes Expertenwissen noch Automatisierung der (dezentralen) Verwaltungstätigkeiten sind möglich ohne die zielgerichtete Einbindung neuester Informationstechnologie. Time-to-market von Versicherungsprodukten heißt also gleichbedeutend auch time-to-market von Software-Produkten und Systemlösungen. Die Forderung nach marktgerechter Flexibilität und Qualität findet ein Echo in den aktuellen technologischen Strömungen, von denen die Objektorientierung, softwaretechnisch unterstützte, generische Fachmodelle (wie z. B. IAA) sowie Client-/ Server-Technologie als eine Auswahl beherrschender Einflüsse in diesem Bereich stehen.

Welche Rolle kommt also der IT-Strategie zu? Offensichtlich verbindet sie die vier Träger der Entwicklung - Mitarbeiter, Produkte, Prozesse und Produktionsmittel (Hardware, Software, Infrastruktur) - miteinander.

Träger der Entwicklung

Die Marktsituation verlangt, gleichzeitig ein hohes Service- und Know-how-Niveau zu erreichen sowie dabei Kosten zu reduzieren. Mit der Mobilisierung und Motivierung der Mitarbeiterpotentiale durch mehr Eigenverantwortung und den Profit-Center-Gedanken ist es nicht getan. Optimierte Geschäftsprozesse, bereits im Design der Produkte verankert, ergänzen die neue, konsequent kundenorientierte Struktur der Prozesse. Die IT muss diesen Anforderungen Rechnung tragen, sie muss abbilden und integrieren. Doch mit diesem Ansatz würde sie nicht "wiedergeboren". Vielmehr ist die IT-Strategie die treibende Kraft und "Arm" der Unternehmensstrategie. Wie kann so etwas in der Praxis aussehen? In einem deutschen Versicherungskonzern nahm das Projekt seinen Verlauf …

O litterae!

litterae!
Die wichtigsten Trends und ihre Auswirkungen auf Versicherungen als Anbieter von Dienstleistungen seien nun grob skizziert. Vor diesem Hintergrund erscheinen die strategische Ausrichtung des Hauses und das damit untrennbar verknüpfte Verständnis der IT-Strategie. Der Konzern formulierte die folgenden strategischen Aussagen:

Beide, Service und Produktgestaltung (im weitesten Sinn), sind ohne massiven, strategisch gelenkten Einsatz von Informationstechnik nicht denkbar. Die Anforderungen an die "neue IT-Strategie" erwachsen daher aus den strategischen Zielen des Konzerns:

Verwaltungs- und Routinearbeiten automatisieren …

Dezentralisierung heißt auch immer Dezentralisierung von Verwaltungstätigkeiten. Damit Sachbearbeiter aber eine qualifizierte Kundenberatung liefern können, müssen sowohl Verwaltungs- als auch Routinearbeiten soweit wie möglich automatisiert sein. Bei Auslagerung von Aufgaben wie Antragserfassung, -prüfung oder Bestandserfassung in den Außendienst, also zum Ort ihrer Entstehung, entfällt bestenfalls die komplette Sachbearbeitung im standardisierten Neu- und Bestandsgeschäft. Fehlerfrei erfasste Daten fließen per Datenfernübertragung in das Vertragssystem. Der quantitative Nutzen ist offensichtlich: weniger Fehler in der Aufgabenbearbeitung, eine höhere Bearbeitungsgeschwindigkeit und mehr Raum für qualifizierte Beratung.

Beratungswissen elektronisch und vor Ort zur Verfügung stellen …

Die Kernprozesse Policierung, Vertragsänderungen und Schaden-/ Leistungsbearbeitung führt der Mitarbeiter des Außendiensts direkt und unmittelbar am Ort ihrer Entstehung aus. Elektronische Plausibilitätsprüfungen und Entscheidungsfindung durch Expertensysteme steigern die Kompetenz des Außendiensts - der Mitarbeiter erteilt in eigener Verantwortung Zusagen. Jeder Außendienst-Mitarbeiter verfügt über Beratungsschwerpunkte, doch wie behandelt er Versicherungszweige, die nicht dazu zählen? Ein elektronischer Beratungsassistent kompensiert Wissenslücken und kann während des Beratungsgesprächs abgerufen werden. Expertensysteme ermöglichen im Rahmen von Kompetenzen direkte Bearbeitung von Schaden- und Leistungsfällen vor Ort. Der qualitative Nutzen von IT-Systemen greift besonders "vor Ort", also dort, wo Mitarbeiter in direktem, persönlichem Kontakt mit dem Kunden stehen.

Kundenprofile schnell und unkompliziert bereitstellen …

Der Mitarbeiter, der in direktem Kontakt mit dem Kunden steht, hat auch gleichzeitig den besten Zugang zu Kundeninformationen. Er erfasst die Daten, die für das Unternehmen von strategischem Interesse sind, denn differenzierte Marktbearbeitung kommt nicht ohne Detailinformationen über Kunden aus. Bedürfnisse, Zufriedenheit und der einhergehende Wandel erfordern eine zeitnahe und einfache Erfassung von Marktinformationen, die sofort in Kundenprofile und Entwicklungstrends umgesetzt werden können. Die entsprechende Software muss also anwenderfreundlich, leicht anpassbar und dezentral zu Verfügung stehen

Produkte zeitnah entwickeln …

Die aufbereiteten Kundeninformationen sind die Grundlage des Produktdesigns. Die Anforderungen für ein kurzes time-to-market liegen zum Betrachtungszeitpunkt bei ca. sechs Wochen. Sechs Wochen stehen zur Verfügung, um zielgruppengerecht das definierte Marktsegment mit kalkulierten Preisanreizen, möglichst neue Versicherungskonzepten und IV-gestütztem Service anzusprechen. Regelbasierte Systeme, die die Komposition von Produkten aus "elementaren" Produktbausteinen (= Tarife) und "zusammengesetzten" Bausteinen (Komposition von Tarifen) unterstützen, eröffnen hierbei einen Weg zur mehr Schnelligkeit bei gesteigerter Qualität der Produkte.

Die IT spielt also eine gestaltende und damit auch steuernde Rolle. Sie ist integraler Bestandteil der Unternehmensprozesse und deshalb maßgeblich am operativen Geschäftserfolg beteiligt. Als Initiator vertritt sie die ressortübergreifenden Unternehmensinteressen und schafft die Grundlagen zur Umsetzung der marktgerichteten Strategie des Hauses. Die IT wird gleichzeitig als Innovator hinsichtlich technischer und organisatorischer Maßnahmen tätig.

Das entworfenen Zielbild gleicht einer Architekturzeichnung. Und Architekturen - verkörpern übergeordnete Ideen. Sie liefern uns einen Konzeptrahmen, der Bauprinzipien und Baukomponenten zweckgerichtet zusammenführt. Von gotischen Kirchen bis zu utopischen Städteentwürfen sind sie Ausdruck einer Weltsicht. Gewichtige Vorschusslorbeeren also für einen Begriff wie die "Informationssystem-Architektur" (IS-Architektur) …

Die IS-Architektur ist Teil der Informationsarchitektur. Letztere führt IS-Architektur und den Überbau aus Unternehmenszielen und -modell (Geschäftsregeln, Organisationsprinzipien, …) zusammen. Die IS-Architektur vereinigt zwei Felder betrieblicher Konzeption: Die Betriebsarchitektur (häufig auch IS-Architektur im engeren Sinn genannt) beschreibt die fachliche und technische Anwendungsarchitektur sowie die System- und Kommunikationsarchitektur. Die Entwicklungsarchitektur hingegen definiert die Softwareentwicklungsumgebung zur Umsetzung der Betriebsarchitektur.

Die fachliche Anwendungsarchitektur …

Das "Wunschbild" des "Bauherren" sah dann schließlich so aus: Die Fachliche Anwendungs-architektur beschreibt das Zusammenspiel von Geschäftsprozessen, Applikationen und Geschäftsobjekten. Applikationen sind implementierte Elementarprozesse, die von einer Person zu einer Zeit an einem Ort ausgeführt werden. Bei dieser Tätigkeit greift diese Person über sogenannte Sichten (Views) auf Geschäftsobjekte (Models) zu. Wer was zu welcher Zeit sehen darf, wird mit Hilfe desModel-View-Controller-Prinzips definiert. Geschäftsprozesse schließlich sind nichts anderes als eine Kette von Elementarprozessen, deren Glieder durch die Zustandsübergänge der beteiligten Geschäftsobjekte verbunden werden. Definierte externe oder zeitliche Ereignisse lösen Geschäftsprozesse aus.

Die technische Anwendungsarchitektur …

Die technische Anwendungsarchitektur, die eine solche fachliche Anwendungsarchitektur tragen soll, setzt sich aus den folgenden Bausteinen zusammen: Ein Workflow-Manager steuert den Ablauf der Geschäftsprozesse, also den Makro-Flow. (Die Applikationen lenken indessen eigenständig den sogenannten Mikro-Flow.) Damit der Informationsfluss plattformübergreifend funktioniert, sind leistungsfähige Datenupload, -download und -routing-Mechanismen notwendig. Selbstadaptierende Expertensysteme und integrierte Groupware-Komponenten runden das Bild ab. Die angesteuerte Client-/Server-Architektur ermöglicht verteilte Datenhaltung mit hoher Offline-Fähigkeit. Die lokalen Arbeitsplätze mit objektorientierten Datenbankmanagement-Systemen und Benutzeroberflächen sind multimedia-fähig.

Die System- und Kommunikationsarchitektur …

Die systemtechnischen Grundlagen liefert die System- und Kommunikationsarchitektur. Sie sieht eine zweistufig vernetzte Client-/Server-Architektur vor: Ein unternehmensweites Backbone beliefert drei unabhängige LANs. Dieses Prinzip bringt drei Vorteile mit sich: Sowohl Lasten als auch Technologie und Sicherheit werden entkoppelt. Während der Mainframe zum "Enterprise-Server" umfunktioniert wird, auf dem der führende, rechtsverbindliche Datenbestand, sowie übergreifende Batch-Jobs und die verbleibenden Altprogramme liegen, wird der PC zum Standard-Arbeitsplatz.

Die Entwicklungsarchitektur …

Die Entwicklungsarchitektur beschreibt die Werkzeuge, Methoden, Verfahren und Aufgaben, die eine solche Hard- und Software-Welt zur Implementierung benötigt. Die Softwareentwicklung findet selbst in einem PC-LAN statt. Während auf dem Mainframe für die Wartung und Weiterentwicklung der Altsysteme ein modifiziertes Wasserfallmodell, sowie Werkzeuge wie u.a. ADW und MicroFocus COBOL zum Einsatz kommen, beschreitet die Client-/Server-Welt neue Wege. Das Wasserfallmodell weicht einer rekursiv-parallelen Vorgehensweise. Generische Prototypen, die definierte Aufgabenbereiche umfassen, werden in Entwicklungsinkrementen schrittweise zur Einsatzreife gebracht. Die Fertigstellung eines Prototypen stößt die (parallele) Produktion weiterer Prototypen an. Ein Prototyp wird also (rekursiv) mit immer größerer Funktionalität ausgestattet. Methodisch liefert die Objekttechnologie ein phasenübergreifendes Prinzip der Kapselung, Vererbung und Polymorphie. Ein konsequentes Qualitätsmanagement begleitet diesen Prozess nach einem definierten und gesteuerten Verfahren. Es stützt sich auf aussagefähige Prozessgrößen und deckt den repräsentativen Teil der Softwareentwicklung ab.

Die Entwicklungsarchitektur bringt neue Anforderungen an die Mitarbeiter der Softwareentwicklung, deren Berufsbilder sich teilweise grundlegend ändern, teilweise sogar neu entstehen. Entsprechend den Phasen des Entwicklungsprozesses lassen sich die Tätigkeiten in Analytiker, Designer, Programmierer und Tester (Mitarbeiter des Qualitätsmanagements) kategorisieren. Hinzu kommen die "neuen Spezialisten" der Softwareentwicklung: ReUse-Manager, Qualitätsmanager und Metriker.

Die Analytiker pflegen die Unternehmensmodelle und ordnen ihre Komponenten vorhandenen Software-Bausteinen zu, bzw. binden sie in generische Unternehmensmodelle wie z. B. IAA ein. Eine Analyse "auf der grünen Wiese" wird in Zukunft die Ausnahme bleiben. Der Designer als "Entwurfsarchitekt" hat die anspruchsvollste Aufgabe. Er muss die Analyse-Ergebnisse bis in die Tiefe verstehen und gleichzeitig über solide Erfahrungen in Systemauslegung und Programmierung verfügen. Seine Werkzeuge sind Frameworks und Designpatterns. Die Welt der Programmierer zerfällt in zwei Teile: Die Komponentenfertiger implementieren definierte "Elementar"-Teile, die durch die "zweite Hälfte" für aufbauende Programmierung weiterverwendet werden.

Zwischen den beiden steht einer der "neuen Spezialisten", der ReUse-Manager. Als Wächter und Verwalter der Unternehmenswerte in Form von wiederverwendbaren Komponenten steigert er die Produktivität der gesamten Entwicklung. Qualitätsmanagement sowie Softwaremetrik und Prognose begleiten als "Neulinge" den gesamten Prozess der Softwareerstellung.

Juvat vivere

uvat vivere!
Als Träger der neuen IT-Strategie war der Bereich der Betriebstechnik (BT) Gegenstand der Ist-Analyse. Dabei entstand das folgende Bild: Die Mitarbeiter brachten mit Hochschulstudium, geringer Fluktuation und einem relativ niedrigen Durchschnittsalter alle Voraussetzungen mit, den Wechsel zu einer anderen Softwaretechnik zu schaffen. Umfangreiche Motivations- und Fortbildungsmaßnahmen sollten den Wandel begleiten.

Die Qualität der Software-Produkte entsprach der "solider Handarbeit". Sie binden allerdings zunehmend Entwicklerkapazitäten, während die Freiräume für Neuentwicklungen schrumpfen. Die Systeme brauchen ca. zwei Jahre von der Initialisierung bis zur Einführung, verknüpft mit steigendem Wartungsaufwand und steigender Komplexität der Schnittstellen zu benachbarten Systemen.

Der Prozess der Softwareentwicklung befindet sich, gemessen an der Prozessreife-Skala nach Humphrey, auf der Stufe "initial" bzw. "repeatable". Es gibt eine rudimentäre Steuerung des Softwareentwicklungsprozesses mit Richtlinien zum Projektmanagement.

Die Produktionsmittel (Hardware, Software und Infrastruktur) sind einerseits gekennzeichnet durch die traditionelle Großrechnerwelt mit zentral ausgerichteter Verwaltung. Aus dem Rahmen hingegen fallen die Expertensystem-Entwicklungen des Hauses. Im Bereich der Mobilkommunikation befindet sich der Konzern an der Front der Entwicklung. Während der Innendienst bislang kaum über lokale Netze und nur über eine rudimentäre Arbeitsgruppenkommunikation verfügt, kommen im Außendienst reife Datex-J- und moderne ISDN-Verbindungen zum Einsatz.

Vor diesem Hintergrund wurden mehrere Alternativszenarien für die Umsetzung der Anforderungen entworfen, woraus schließlich die folgende Vision entstand - die Vision 1999 …

Aus eigener Kraft - aber grundlegend anders …

Sie besteht im wesentlichen aus einer Option: "aus eigener Kraft - aber grundlegend anders". Das Haus bewältigt den Schritt in die Welt der verteilten Anwendungen aus eigener Kraft. Der Softwareentwicklungsprozess wird an den Prinzipien IAA, Objektorientierte Technologie und Client-/Server-Architektur ausgerichtet. Der BT-Bereich wird personell aufgestockt und weiter qualifiziert. Diese mit hohem technischen und finanziellen Risiko belastete Entscheidung eröffnet allerdings wertvolle Vorteile: Das Know-how bleibt im Haus, das Mitarbeiterpotential wird mobilisiert, und es eröffnet sich die Chance auf optimal zugeschnittene Anwendungssysteme - eine unverzichtbare Voraussetzung für einen durchschlagenden Markterfolg. Eigenentwicklung bietet weiterhin die vielversprechende Möglichkeit, hohen Investitionsschutz durch die Stabilität der erzeugten Komponenten mit größtmöglicher Flexibilität angesichts des turbulenten Marktumfelds zu verbinden. Nur so kann Versicherungssoftware für das Kerngeschäft als strategische Waffe in einem immer schärfer werdenden Wettbewerb genutzt werden.

Outsourcing von Rechenzentrumsbetrieb und Netzwerkmanagement …

Outsourcing kommt nur in Teilen der Informationsverarbeitung zu Tragen, nämlich im Rechenzentrumsbetrieb und im Netzwerkmanagement. Mit dieser Entscheidung werden gleichzeitig Vorteile wie Kosten- und Entscheidungstransparenz durch die klare Schnittstelle zum Dienstleister und eine leichte Priorisierung von Projekten erzielt, während der mögliche Nachteil dieser Lösung, die Auslagerung von versicherungsfachlichem Know-how, durch die klare Abgrenzung dieser Bereiche umgangen werden.

Schritte der Umsetzung

Standard-Software einsetzen …

Auf Standard-Software wird, soweit möglich und vorhanden, zurückgegriffen. Die Vorhersehbarkeit von Grenzen, Möglichkeiten und Kosten der Anpassung wird leider durch die mangelnde Marktverfügbarkeit eingeschränkt. Allerdings bringt der Einsatz von Standard-Software für das Versicherungskerngeschäft die Notwendigkeit zur Integration und damit auch die Abhängigkeit von externen Dienstleistern mit sich. (Die Situation ist vergleichbar mit der Einführung von SAP-Software heute, vermutlich bilden sich im Vergleich noch stärkere Abhängigkeiten heraus.)

Daneben wird flankierend ein Software-Re-Engineering von Altsystemen durch externe Dienstleister (Stichwort: Indien) durchgeführt. Dadurch wird der eigenen Entwicklungsgruppe mehr Raum für den Übergang geschaffen. Während die Qualität der Altsysteme steigt, sind aber eigene Mitarbeiter nur in den Übergang zu hochflexiblen System involviert.

Die Ziele waren gesteckt, die Anforderungen herausgearbeitet und die "Karte" der neuen Welt gezeichnet. Der Schritt vom Reißbrett zum "Segelsetzen" kann also getan werden.

Schritte und Kosten für die Umsetzung …

Die Planung ist auf einen Zeithorizont von vier Jahren ausgelegt…

Drei weitere Projekte begleiten den Entwicklungsprozess: das Coaching der Mitarbeiter, der Aufbau der Betriebsumgebung sowie die Planung und Durchführung der Migration. Die Migration betrifft …

Variante A

Kosten …

Angegeben werden die Aufwendungen im Betrachtungszeitraum ohne externes Software-Re-Engineering und die Projektkosten ohne Berücksichtigung von Ersatzinvestitionen im Betrachtungszeitraum, z. B. Terminals.

Für die Umsetzung werden zwei Varianten betrachtet. Variante A sieht eine flächendeckende Ausstattung des Innendiensts mit PCs vor. Davon sind ca. 2.600 Arbeitsplätze betroffen. Variante B besteht in der minimalen Ausstattung des Innendiensts mit 200 Arbeitsplätzen.

Variante B

Zwei Risiken gilt es vor allem abzufangen: Da Experten nicht wie geplant zur Verfügung stehen, muss mit erhöhten Einführungskosten gerechnet werden, um den Gefahren eines zeitverzögerten Abschlusses und verspäteten Know-how-Transfers entgegenzuwirken. Weiterhin steht, ebenfalls entgegen der Planung, der Anwendungskern nicht käuflich zur Verfügung. Dabei ist noch zu entscheiden, ob Investitionen weiter erhöht oder begrenzte Kooperationen zur Gewinnung von Expertenwissen eingegangen werden sollen.

Es ist geplant, 50 neue Mitarbeiter in den Bereichen …

Kosten

Und die übrigen 20 Mitarbeiter … ?

Sie formieren gemeinsam mit weiteren 10 des vorhandenen Mitarbeiterstamms das Team "Neue Welt"! Mit dem Startschuss begann ihre Arbeit: autonom und eigenverantwortlich. Die Team-Mitglieder werden nur an ihrem Erfolg gemessen. Wenn die "Neue Welt" in Betrieb geht, könnten sie in die "klassische Linie" zurückkehren, doch - und sonst wäre es keine Renaissance - bei durchschlagendem Erfolg mag hier eine neue Organisationsform entstehen, die traditionelle Abteilungen ablöst… eine "neue Welt"!

[1] Dr. Horst Walther ist Geschäftsführer der SiG Software Inte­gration GmbH in Hamburg

[2] 'O saeculum! O litterae! Juvat vivere!': der Freudenschrei des Ulrich von Hutten:"Welche Zeiten! Welche Bildung! Es ist eine Lust zu Leben!"

Horst Walther, Hamburg