Projekt | Systemauswahl für Verlage

Wie Co-Intelligence Komplexität bezahlbar macht

Newsletter wirken am besten, wenn man konkrete Daten nennt: Unternehmen, Zahlen, Namen. Das ist dann glaub­haf­tes »Storytelling«. Aufgrund eines NDA muss jedoch der Deckmantel der Verschwiegenheit über die genauen Daten gelegt blei­ben. Nur so viel: Zehn Stunden Stakeholder-Interviews und über 1.000 Knoten in einer Mindmap.
Warum erzähle ich Ihnen das trotz­dem? Weil die Methodik über­trag­bar ist, und genau die macht den Unterschied. Die darge­stellte Vorgehensweise beschreibt unse­ren metho­di­schen Rahmen; ihre konkrete Ausprägung wird indi­vi­du­ell projekt- und kontext­ab­hän­gig ange­passt.

Symbolbild für Projekt Systemauswahl mit Co-Intelligenz

01 | Der Start

Sie stehen vor einer entschei­den­den Weichenstellung:

der Auswahl einer neuen Systemlandschaft, die Ihren Verlag fit für die digi­tale Zukunft macht. Doch Zeit – und perso­nelle Kapazitäten! – für umfas­sende Vorbereitungen fehlen. Selbst die ersten Schritte zur Vorbereitung einer Entscheidung sind ein komple­xes Mammutprojekt. Jedem graust vor schwie­ri­gen Diskussionen und der Ressourcenbindung.
Was macht man also: Man sucht sich quali­fi­zierte Berater. Erfreulicherweise wandte sich der Kunde an uns. Nicht nur aus unse­rer Sicht die rich­tige Entscheidung, der Folgeauftrag bestä­tigt das. (Noch eine rich­tige Entscheidung…)
Nun stan­den wir vor der dele­gier­ten Herausforderung: Diese zehn Stunden Material – Transkripte, Audiodateien, die live mitge­schrie­bene Mindmap mit ihren 1.000+ Knoten – muss­ten in belast­bare Erkenntnisse und konkrete Anforderungen trans­for­miert werden. Schnell zeich­nete sich ab, dass das Netz viel weiter gewor­fen werden muss, als es der Kunde selbst ahnte.
Wie wir das geschafft haben? Mit dem Ansatz der »Co-Intelligence«, wie ihn Ethan Mollick nennt – die intel­li­gente Verzahnung mensch­li­cher Erfahrung (unser Expertenwissen) mit moder­ner Technik (KI-Tools), um gemein­sam Lösungen zu schaf­fen, die alleine so zwar denk­bar, aber nicht bezahl­bar wären. 

02 | Gealterte Systeme

MHD und KI

Im Laufe der manch­mal durch­aus kontro­vers geführ­ten Bestandsaufnahme wurde schnell klar: zentrale tech­ni­sche Strukturen haben ihr MHD erreicht und sind nicht länger trag­fä­hig. Immer mehr Schnittstellen führ­ten z.B. zu einer nicht mehr durch­schau­ba­ren Architektur, die bereits erkenn­ba­ren Auswirkungen – und Chancen! — der KI auf das Geschäftsmodell müssen berück­sich­tigt werden. Die Liste der Systemdefizite über alle Abteilungen hinweg war schon am Ende der Interview-Reihe für jeden offen­sicht­lich. (Und die GL dachte sich wahr­schein­lich: Gut, dass wir einen DL damit beauf­tragt haben.)
Wir muss­ten nun die zahl­rei­chen Anforderungen und Erwartungen der Stakeholder aus acht Abteilungen mit teils sich wider­spre­chen­den Prioritäten greif­bar und die komplexe Systemlandschaft darstell­bar machen. Ohne KI ein Albtraum. Also setz­ten wir auf Co-Intelligence: KI an den Tisch, aber wir am Steuer.

03 | Die modu­lare Landkarte

Vom Komplexitätsgipfel zum Kompass

Es war Zeit, dass der KI-Assi (und wir am Steuer) Überstunden machte. Im Labor fütter­ten wir ihn mit den seiten­lan­gen, wenig struk­tu­rier­ten Transkripten und der Mindmap als Kontext. Damit konn­ten wir Kernpunkte, Spannungsfelder und wieder­keh­rende Themen heraus­schä­len und so der Komplexität ein erstes struk­tu­rier­tes Korsett geben. Im Dialog führ­ten wir das LLM so lange, bis wir aus der „Rohmasse“ eine wunder­bar modu­lare Systemlandschaft geformt hatten, die den Komplexitätsberg in etwa 20 klar abgrenz­bare Module zerlegte. Die über­führ­ten wir in eine modu­lare Landkarte.
Dieses sofort einleuch­tende Schaubild wurde zum Kompass für die folgen­den Gespräche. Der Kunde zeigte sich beein­druckt: „Wir wuss­ten, dass die Systemlandschaft komplex ist, aber dass sie sich über die Jahre so verschach­telt hat, damit hatten wir nicht gerech­net.“ Die Stakeholder erkann­ten ihre Probleme in den Modulen wieder, ergänz­ten Prioritäten und offen­bar­ten auch Sorgen: Welche bestehen­den Systeme sind über­haupt noch zuver­läs­sig? Wo brennt es am meis­ten?
Damit es nicht so abstrakt bleibt, hier ein Ausschnitt aus der modul­ba­sier­ten Systemlandschaft:

Asset Management als Herzstück für die wert­vollste Ressource
Schnittstellenmanagement als Bindeglied zu redak­tio­nel­len Systemen
KI-gestützte Metadatenanreicherung zur Automatisierung und Qualitätssteigerung

Diese modu­lare Orientierung ermög­lichte es, den enor­men Daten- und Informationsfluss hand­hab­bar zu machen.

04 | Bootstrapping mit KI

Wie 20 Module zu präzi­sen Kriterienkatalogen wurden

Jetzt lag eine Landschaft mit zwei Kernsystemen, einem Dutzend direkt verbun­de­nen Modulen und eini­gen eher am Rand auf dem virtu­el­len Tisch. Optisch eindrucks­voll, als Grundlage für das Einholen von Angeboten unbrauch­bar. Aufgrund der schie­ren Masse an Modulen war klar, dass wir KI einset­zen muss­ten, um für jedes einzelne Modul Kriterienkataloge aufzu­stel­len. Ohne KI wäre der Aufwand prohi­bi­tiv teuer – und die Story hier zu Ende.
Die Erstellung von belast­ba­ren Kriterienkatalogen für fast 20 Module erfor­derte ein akri­bi­sches Vorgehen. Wir entschlos­sen uns, wie in der klas­si­schen IT das Bootstrapping anzu­wen­den: Anfangs nehmen wir einen zu großen Stiefel bewusst in Kauf, um ihn Zug um Zug pass­ge­nau zu machen. Konkret: In grenz­wer­tig langen Chats lenk­ten wir ausge­hend von unse­rem Experten-Input die KI für jedes einzelne Modul im Ping-Pong so, dass sie weder wich­tige Details über­sah, noch in Belanglosigkeiten abdrif­tete, bis wir ein exzel­len­tes Ergebnis hatten. Der „human in the loop“ bleibt bei prak­ti­zier­ter Co-Intelligence unab­ding­bar!
Das Ergebnis beein­druckte ähnlich wie vorher die Landkarte. Bestach die Landkarte durch maxi­mal redu­zierte Visualisierung, so beein­druck­ten jetzt die ausfor­mu­lier­ten Kriterienlisten – granu­lar für jeden rele­van­ten Aspekt, ausge­ar­bei­tet in weni­gen Tagen. Wir konn­ten dem Kunden ein belast­ba­res Raster zur Anforderung von Angeboten präsen­tie­ren. Bei der inten­si­ven Prüfung durch die Fachleute der verschie­de­nen Abteilungen gab es nur mini­male Anpassungen.
Zur Verdeutlichung einige (verein­fachte) Kriterien zur „KI-gestützte Metadatenanreicherung“:

Automatische Erkennung von Bild- und Textinhalten
Unterstützung bran­chen­spe­zi­fi­scher Klassifikationen
Flexibilität zur Einbindung neues­ter KI-Technologien
Datenschutzkonformität und Nachvollziehbarkeit

 
Solche Kriterienlisten für jedes der 20 Module… Manuell hätte das Wochen gedau­ert. 
Natürlich kann man auch in KI-Antworten ertrin­ken, das lässt sich jedoch steu­ern. Der Mehrwert liegt nicht in der Menge der Optionen, sondern darin, früh zu entschei­den, welche Wege bewusst nicht weiter­ver­folgt werden, etwa wegen abseh­ba­rer Folgekosten oder klarer Kundenvorgaben. Diese Weggabelungen fest­zu­le­gen, bleibt eine mensch­li­che Aufgabe. Wieder: „human in the loop“!

05 | Von Kriterien zu User Stories

Wie Anforderungen greif­bar werden

Im nächs­ten Schritt setz­ten wir auf klas­si­sche User Stories, um den Anbietern eine konkrete Grundlage für ein Angebot zu geben. Wir entschie­den, das obige Bootstrapping auch in diesem Schritt anzu­wen­den: Aus den Kriterien entstan­den so KI-gestützt insge­samt hunderte ausfor­mu­lier­ter User Stories, die als Herzstück der Anforderungen dienen soll­ten. Jede wurde von uns geprüft und wo nötig verfei­nert, bevor sie dem Kunden zur Evaluation und Abnahme über­ge­ben wurden. Die Stakeholder fanden ihre Bedürfnisse abge­bil­det, konn­ten aktiv Wünsche für die Zukunft einbrin­gen und so die Anforderungen in den Ausschreibungsprozess wirk­sam mitge­stal­ten.
Das Feedback der Teams war durch­weg posi­tiv: „Wir haben jetzt etwas in der Hand, mit dem wir konkret arbei­ten und die Angebote steu­ern können.“ Gleichzeitig offen­bar­ten die User Stories auch Widersprüche: Sales möchte schnell mit Bundles auf Trends reagie­ren, doch das lässt sich (noch) nicht „mal eben” in der FiBu abbil­den. Solche Konflikte wurden durch die User Stories sicht­bar und damit entscheid­bar. Alle Abteilungen waren wieder eng und praxis­ori­en­tiert einge­bun­den — „client in the loop” sozu­sa­gen.

06 | Deep Research und mensch­li­che Expertise

Die Suche nach den besten Anbietern

Jetzt lagen drei Hierarchie-Ebenen ausfor­mu­liert vor: Module, Kriterienkataloge und User Stories. Doch wie soll­ten wir die besten Anbieter iden­ti­fi­zie­ren? Mit Deep Research, in der die KI manch­mal über eine Stunde ackerte, führ­ten wir modul­be­zo­gen eine tief­ge­hende Anbieterrecherche durch – und fanden sogar hidden cham­pi­ons. Aber: ohne mensch­li­che Expertise wären die Ergebnisse mittel­mä­ßig geblie­ben.
Die Einzelergebnisse wurden in Abstimmung mit dem Kunden gewich­tet und einem LLM über­ge­ben. Auftrag: Ranking erstel­len und jede Platzierung begrün­den. Es kris­tal­li­sierte sich eine Longlist von fünf Anbietern heraus. 
Da dieser Schritt von so heraus­ge­ho­be­ner Bedeutung war, haben wir ihn mit einem LLM eines ande­ren Anbieters ein zwei­tes Mal durch­lau­fen – und waren erleich­tert, als es nur geringe Abweichungen gab.
Die fünf Anbieter auf der Longlist erhiel­ten einen Fragebogen, der u.a. auf einem Subset der User Stories basierte. So konn­ten sie zeigen, wie konkret sie die Anforderungen erfül­len. Nach Auswertung der Antworten wurden drei Anbieter zu Workshops einge­la­den.

07 | Unser Fazit 

Co-Intelligence beherrscht Komplexität — und macht unsere Beratung bezahl­bar!

  • Praxisnahe, greif­bare Ergebnisse in jedem Schritt – vom ersten Workshop bis zur fina­len Anbieterauswahl. Mehr ‘hands-on’ geht kaum.
  • Die anfangs nicht abseh­bare Komplexität – ohne Co-Intelligence wäre sie nicht zu stem­men gewe­sen, schon gar nicht zu akzep­ta­blen Kosten. Der Kunde brachte es auf den Punkt: „So eine Tiefe und Qualität hätten wir ohne diese metho­di­sche Koppelung nie zu diesem Preis bekom­men.”
  • Mit Co-Intelligence arbei­ten wir effi­zi­en­ter als klas­si­sche Beratungen. Im Berater-Sprech: mehr Leistung bei weni­ger Aufwand ohne Verlust an Qualität — dafür stehen wir.

Stehen Sie vor einer ähnli­chen Herausforderung?

Sie wissen, dass Ihre Systemlandschaft moder­ni­siert werden muss, aber der Weg dort­hin erscheint über­wäl­ti­gend? Genau dafür setzen wir Co-Intelligence ein – und machen fundierte Beratung damit auch für mittel­stän­di­sche Verlage bezahl­bar.

Ein entschei­den­der Unterschied: Wir bera­ten nicht nur, wir setzen auch um. Wir baden aus, was wir empfeh­len. Das schafft Verbindlichkeit – und stellt sicher, dass unsere Konzepte in der Praxis funk­tio­nie­ren.

Unsere Einladung:

Lassen Sie uns in einem unver­bind­li­chen Gespräch klären, wie wir Sie unter­stüt­zen können – konkret, effi­zi­ent und auf Ihre Ressourcen abge­stimmt. Wir zeigen Ihnen, wie Sie zu einer fundier­ten Entscheidungsgrundlage kommen. Ohne Ihr Tagesgeschäft zu über­las­ten. Ohne Budgets zu spren­gen.

Kurz und knapp

Fehler- und Risikomanagement im Co-Intelligence-Ansatz

Grundannahme: KI-Ergebnisse sind Vorschläge, keine Wahrheiten.
Maßstab für Validität: ausrei­chend belast­bar für unsere Entscheidungs­vorbereitung (es ist kein wissen­schaft­li­ches Projekt).
LLM-Doppelprüfung: Einsatz zweier Modelle zur Plausibilisierung. Eine »sehr hohe Glaubhaftigkeit« reicht uns als Basis für unsere Entscheidung auf Basis unse­rer Expertise.
Abwägung des Aufwands: Mehr Validierung erhöht Kosten über­pro­por­tio­nal. Die Grenze ziehen wir dort, wo der zusätz­li­cher Erkenntnisgewinn gering ist.
Halluzinationskontrolle: Iteratives Ping-Pong mit geziel­ten Rückfragen.
Schutz vor Scheinsicherheit: Kontrolle durch Human-in-the-loop nach jedem (Teil-)Schritt, über­zeu­gende Formulierungen gelten nicht als Qualitätsmerkmal, keine unge­prüfte Übernahme von Rankings oder Begründungen.
Einsatzgrenze: KI berei­tet Entscheidungen vor. Bewertung, Gewichtung und Auswahl blei­ben dem Menschen (wir/Kunde) vorbe­hal­ten.
Transparenz: Modellauswahl, Annahmen und Abweichungen werden bewusst akzep­tiert und doku­men­tiert.

Co-Intelligence Arbeitsmodell

Ziel: Komplexität redu­zie­ren, ohne Entscheidungsverantwortung zu dele­gie­ren.
Rollen: KI = Strukturieren, Verdichten, Varianten erzeu­gen. Mensch = Priorisieren, Bewerten, Entscheiden, Haftung.
Input: Interviews, Transkripte, Mindmaps, plus expli­zi­ter Kontext (Ziele, Constraints, Definitionen).
Loop: KI-Vorschlag → mensch­li­che Prüfung → Korrektur/Schärfung → nächste Iteration (bis wir zufrie­den waren).
Kontrollen: Falsifikationsfragen, Gegencheck durch Experten (wir), Stichproben gegen Originalquellen.
Outputs: Module → Landkarte → Kriterienkataloge → User Stories → Angebotsvorbereitung
No-Gos: KI trifft keine fina­len Prioritäten, keine Anbieterentscheidung; keine »Wahrheits«-Behauptungen ohne Nachweis.



Nach oben scrollen