Projekt | Systemauswahl für Verlage
Wie Co-Intelligence Komplexität bezahlbar macht
Newsletter wirken am besten, wenn man konkrete Daten nennt: Unternehmen, Zahlen, Namen. Das ist dann glaubhaftes »Storytelling«. Aufgrund eines NDA muss jedoch der Deckmantel der Verschwiegenheit über die genauen Daten gelegt bleiben. Nur so viel: Zehn Stunden Stakeholder-Interviews und über 1.000 Knoten in einer Mindmap.
Warum erzähle ich Ihnen das trotzdem? Weil die Methodik übertragbar ist, und genau die macht den Unterschied. Die dargestellte Vorgehensweise beschreibt unseren methodischen Rahmen; ihre konkrete Ausprägung wird individuell projekt- und kontextabhängig angepasst.

01 | Der Start
Sie stehen vor einer entscheidenden Weichenstellung:
der Auswahl einer neuen Systemlandschaft, die Ihren Verlag fit für die digitale Zukunft macht. Doch Zeit – und personelle Kapazitäten! – für umfassende Vorbereitungen fehlen. Selbst die ersten Schritte zur Vorbereitung einer Entscheidung sind ein komplexes Mammutprojekt. Jedem graust vor schwierigen Diskussionen und der Ressourcenbindung.
Was macht man also: Man sucht sich qualifizierte Berater. Erfreulicherweise wandte sich der Kunde an uns. Nicht nur aus unserer Sicht die richtige Entscheidung, der Folgeauftrag bestätigt das. (Noch eine richtige Entscheidung…)
Nun standen wir vor der delegierten Herausforderung: Diese zehn Stunden Material – Transkripte, Audiodateien, die live mitgeschriebene Mindmap mit ihren 1.000+ Knoten – mussten in belastbare Erkenntnisse und konkrete Anforderungen transformiert werden. Schnell zeichnete sich ab, dass das Netz viel weiter geworfen werden muss, als es der Kunde selbst ahnte.
Wie wir das geschafft haben? Mit dem Ansatz der »Co-Intelligence«, wie ihn Ethan Mollick nennt – die intelligente Verzahnung menschlicher Erfahrung (unser Expertenwissen) mit moderner Technik (KI-Tools), um gemeinsam Lösungen zu schaffen, die alleine so zwar denkbar, aber nicht bezahlbar wären.
MHD und KI
Im Laufe der manchmal durchaus kontrovers geführten Bestandsaufnahme wurde schnell klar: zentrale technische Strukturen haben ihr MHD erreicht und sind nicht länger tragfähig. Immer mehr Schnittstellen führten z.B. zu einer nicht mehr durchschaubaren Architektur, die bereits erkennbaren Auswirkungen – und Chancen! — der KI auf das Geschäftsmodell müssen berücksichtigt werden. Die Liste der Systemdefizite über alle Abteilungen hinweg war schon am Ende der Interview-Reihe für jeden offensichtlich. (Und die GL dachte sich wahrscheinlich: Gut, dass wir einen DL damit beauftragt haben.)
Wir mussten nun die zahlreichen Anforderungen und Erwartungen der Stakeholder aus acht Abteilungen mit teils sich widersprechenden Prioritäten greifbar und die komplexe Systemlandschaft darstellbar machen. Ohne KI ein Albtraum. Also setzten wir auf Co-Intelligence: KI an den Tisch, aber wir am Steuer.
Vom Komplexitätsgipfel zum Kompass
Es war Zeit, dass der KI-Assi (und wir am Steuer) Überstunden machte. Im Labor fütterten wir ihn mit den seitenlangen, wenig strukturierten Transkripten und der Mindmap als Kontext. Damit konnten wir Kernpunkte, Spannungsfelder und wiederkehrende Themen herausschälen und so der Komplexität ein erstes strukturiertes Korsett geben. Im Dialog führten wir das LLM so lange, bis wir aus der „Rohmasse“ eine wunderbar modulare Systemlandschaft geformt hatten, die den Komplexitätsberg in etwa 20 klar abgrenzbare Module zerlegte. Die überführten wir in eine modulare Landkarte.
Dieses sofort einleuchtende Schaubild wurde zum Kompass für die folgenden Gespräche. Der Kunde zeigte sich beeindruckt: „Wir wussten, dass die Systemlandschaft komplex ist, aber dass sie sich über die Jahre so verschachtelt hat, damit hatten wir nicht gerechnet.“ Die Stakeholder erkannten ihre Probleme in den Modulen wieder, ergänzten Prioritäten und offenbarten auch Sorgen: Welche bestehenden Systeme sind überhaupt noch zuverlässig? Wo brennt es am meisten?
Damit es nicht so abstrakt bleibt, hier ein Ausschnitt aus der modulbasierten Systemlandschaft:
Asset Management als Herzstück für die wertvollste Ressource
Schnittstellenmanagement als Bindeglied zu redaktionellen Systemen
KI-gestützte Metadatenanreicherung zur Automatisierung und Qualitätssteigerung
Diese modulare Orientierung ermöglichte es, den enormen Daten- und Informationsfluss handhabbar zu machen.
Wie 20 Module zu präzisen Kriterienkatalogen wurden
Jetzt lag eine Landschaft mit zwei Kernsystemen, einem Dutzend direkt verbundenen Modulen und einigen eher am Rand auf dem virtuellen Tisch. Optisch eindrucksvoll, als Grundlage für das Einholen von Angeboten unbrauchbar. Aufgrund der schieren Masse an Modulen war klar, dass wir KI einsetzen mussten, um für jedes einzelne Modul Kriterienkataloge aufzustellen. Ohne KI wäre der Aufwand prohibitiv teuer – und die Story hier zu Ende.
Die Erstellung von belastbaren Kriterienkatalogen für fast 20 Module erforderte ein akribisches Vorgehen. Wir entschlossen uns, wie in der klassischen IT das Bootstrapping anzuwenden: Anfangs nehmen wir einen zu großen Stiefel bewusst in Kauf, um ihn Zug um Zug passgenau zu machen. Konkret: In grenzwertig langen Chats lenkten wir ausgehend von unserem Experten-Input die KI für jedes einzelne Modul im Ping-Pong so, dass sie weder wichtige Details übersah, noch in Belanglosigkeiten abdriftete, bis wir ein exzellentes Ergebnis hatten. Der „human in the loop“ bleibt bei praktizierter Co-Intelligence unabdingbar!
Das Ergebnis beeindruckte ähnlich wie vorher die Landkarte. Bestach die Landkarte durch maximal reduzierte Visualisierung, so beeindruckten jetzt die ausformulierten Kriterienlisten – granular für jeden relevanten Aspekt, ausgearbeitet in wenigen Tagen. Wir konnten dem Kunden ein belastbares Raster zur Anforderung von Angeboten präsentieren. Bei der intensiven Prüfung durch die Fachleute der verschiedenen Abteilungen gab es nur minimale Anpassungen.
Zur Verdeutlichung einige (vereinfachte) Kriterien zur „KI-gestützte Metadatenanreicherung“:
Automatische Erkennung von Bild- und Textinhalten
Unterstützung branchenspezifischer Klassifikationen
Flexibilität zur Einbindung neuester KI-Technologien
Datenschutzkonformität und Nachvollziehbarkeit
Solche Kriterienlisten für jedes der 20 Module… Manuell hätte das Wochen gedauert.
Natürlich kann man auch in KI-Antworten ertrinken, das lässt sich jedoch steuern. Der Mehrwert liegt nicht in der Menge der Optionen, sondern darin, früh zu entscheiden, welche Wege bewusst nicht weiterverfolgt werden, etwa wegen absehbarer Folgekosten oder klarer Kundenvorgaben. Diese Weggabelungen festzulegen, bleibt eine menschliche Aufgabe. Wieder: „human in the loop“!
Wie Anforderungen greifbar werden
Im nächsten Schritt setzten wir auf klassische User Stories, um den Anbietern eine konkrete Grundlage für ein Angebot zu geben. Wir entschieden, das obige Bootstrapping auch in diesem Schritt anzuwenden: Aus den Kriterien entstanden so KI-gestützt insgesamt hunderte ausformulierter User Stories, die als Herzstück der Anforderungen dienen sollten. Jede wurde von uns geprüft und wo nötig verfeinert, bevor sie dem Kunden zur Evaluation und Abnahme übergeben wurden. Die Stakeholder fanden ihre Bedürfnisse abgebildet, konnten aktiv Wünsche für die Zukunft einbringen und so die Anforderungen in den Ausschreibungsprozess wirksam mitgestalten.
Das Feedback der Teams war durchweg positiv: „Wir haben jetzt etwas in der Hand, mit dem wir konkret arbeiten und die Angebote steuern können.“ Gleichzeitig offenbarten die User Stories auch Widersprüche: Sales möchte schnell mit Bundles auf Trends reagieren, doch das lässt sich (noch) nicht „mal eben” in der FiBu abbilden. Solche Konflikte wurden durch die User Stories sichtbar und damit entscheidbar. Alle Abteilungen waren wieder eng und praxisorientiert eingebunden — „client in the loop” sozusagen.
Die Suche nach den besten Anbietern
Jetzt lagen drei Hierarchie-Ebenen ausformuliert vor: Module, Kriterienkataloge und User Stories. Doch wie sollten wir die besten Anbieter identifizieren? Mit Deep Research, in der die KI manchmal über eine Stunde ackerte, führten wir modulbezogen eine tiefgehende Anbieterrecherche durch – und fanden sogar hidden champions. Aber: ohne menschliche Expertise wären die Ergebnisse mittelmäßig geblieben.
Die Einzelergebnisse wurden in Abstimmung mit dem Kunden gewichtet und einem LLM übergeben. Auftrag: Ranking erstellen und jede Platzierung begründen. Es kristallisierte sich eine Longlist von fünf Anbietern heraus.
Da dieser Schritt von so herausgehobener Bedeutung war, haben wir ihn mit einem LLM eines anderen Anbieters ein zweites Mal durchlaufen – und waren erleichtert, als es nur geringe Abweichungen gab.
Die fünf Anbieter auf der Longlist erhielten einen Fragebogen, der u.a. auf einem Subset der User Stories basierte. So konnten sie zeigen, wie konkret sie die Anforderungen erfüllen. Nach Auswertung der Antworten wurden drei Anbieter zu Workshops eingeladen.
Co-Intelligence beherrscht Komplexität — und macht unsere Beratung bezahlbar!
- Praxisnahe, greifbare Ergebnisse in jedem Schritt – vom ersten Workshop bis zur finalen Anbieterauswahl. Mehr ‘hands-on’ geht kaum.
- Die anfangs nicht absehbare Komplexität – ohne Co-Intelligence wäre sie nicht zu stemmen gewesen, schon gar nicht zu akzeptablen Kosten. Der Kunde brachte es auf den Punkt: „So eine Tiefe und Qualität hätten wir ohne diese methodische Koppelung nie zu diesem Preis bekommen.”
- Mit Co-Intelligence arbeiten wir effizienter als klassische Beratungen. Im Berater-Sprech: mehr Leistung bei weniger Aufwand ohne Verlust an Qualität — dafür stehen wir.
Stehen Sie vor einer ähnlichen Herausforderung?
Sie wissen, dass Ihre Systemlandschaft modernisiert werden muss, aber der Weg dorthin erscheint überwältigend? Genau dafür setzen wir Co-Intelligence ein – und machen fundierte Beratung damit auch für mittelständische Verlage bezahlbar.
Ein entscheidender Unterschied: Wir beraten nicht nur, wir setzen auch um. Wir baden aus, was wir empfehlen. Das schafft Verbindlichkeit – und stellt sicher, dass unsere Konzepte in der Praxis funktionieren.
Unsere Einladung:
Lassen Sie uns in einem unverbindlichen Gespräch klären, wie wir Sie unterstützen können – konkret, effizient und auf Ihre Ressourcen abgestimmt. Wir zeigen Ihnen, wie Sie zu einer fundierten Entscheidungsgrundlage kommen. Ohne Ihr Tagesgeschäft zu überlasten. Ohne Budgets zu sprengen.
Kurz und knapp
Fehler- und Risikomanagement im Co-Intelligence-Ansatz
Grundannahme: KI-Ergebnisse sind Vorschläge, keine Wahrheiten.
Maßstab für Validität: ausreichend belastbar für unsere Entscheidungsvorbereitung (es ist kein wissenschaftliches Projekt).
LLM-Doppelprüfung: Einsatz zweier Modelle zur Plausibilisierung. Eine »sehr hohe Glaubhaftigkeit« reicht uns als Basis für unsere Entscheidung auf Basis unserer Expertise.
Abwägung des Aufwands: Mehr Validierung erhöht Kosten überproportional. Die Grenze ziehen wir dort, wo der zusätzlicher Erkenntnisgewinn gering ist.
Halluzinationskontrolle: Iteratives Ping-Pong mit gezielten Rückfragen.
Schutz vor Scheinsicherheit: Kontrolle durch Human-in-the-loop nach jedem (Teil-)Schritt, überzeugende Formulierungen gelten nicht als Qualitätsmerkmal, keine ungeprüfte Übernahme von Rankings oder Begründungen.
Einsatzgrenze: KI bereitet Entscheidungen vor. Bewertung, Gewichtung und Auswahl bleiben dem Menschen (wir/Kunde) vorbehalten.
Transparenz: Modellauswahl, Annahmen und Abweichungen werden bewusst akzeptiert und dokumentiert.
Co-Intelligence Arbeitsmodell
Ziel: Komplexität reduzieren, ohne Entscheidungsverantwortung zu delegieren.
Rollen: KI = Strukturieren, Verdichten, Varianten erzeugen. Mensch = Priorisieren, Bewerten, Entscheiden, Haftung.
Input: Interviews, Transkripte, Mindmaps, plus expliziter Kontext (Ziele, Constraints, Definitionen).
Loop: KI-Vorschlag → menschliche Prüfung → Korrektur/Schärfung → nächste Iteration (bis wir zufrieden waren).
Kontrollen: Falsifikationsfragen, Gegencheck durch Experten (wir), Stichproben gegen Originalquellen.
Outputs: Module → Landkarte → Kriterienkataloge → User Stories → Angebotsvorbereitung
No-Gos: KI trifft keine finalen Prioritäten, keine Anbieterentscheidung; keine »Wahrheits«-Behauptungen ohne Nachweis.