General Boundary Architecture (GBA)
Governance-Diagnostik für menschlich–KI-gestützte Entscheidungssysteme
Kontrollieren Sie den Moment, in dem KI-gestützte Interpretation in reale Handlung übergeht.
KI-Systeme beeinflussen heute Entscheidungen mit finanziellen, operativen und gesellschaftlichen Folgen. Die meisten Governance-Ansätze konzentrieren sich jedoch auf Modellverhalten, Outputs oder Compliance-Fragen – nicht auf jene strukturellen Entscheidungsgrenzen, an denen Interpretation zu Verbindlichkeit und Verbindlichkeit zu realer Konsequenz wird. Genau dort setzt GBA an.
Wo das eigentliche Problem beginnt
Die meisten KI-Fehlentwicklungen beginnen nicht im Modell. Sie entstehen an den strukturellen Übergängen, an denen:
- Analyse zur Entscheidung wird
- Entscheidung zur Verbindlichkeit wird
- Verbindlichkeit in eine reale, schwer umkehrbare Konsequenz übergeht
Wenn diese Grenzen unklar bleiben, entstehen häufig Governance-Leerstellen, verdeckte Commit-Punkte, Automatisierungskaskaden, irreversible Ausführung ohne realistische Eingriffsmöglichkeit und Verantwortungslücken zwischen menschlicher Aufsicht und Systemverhalten.
Die entscheidende Frage lautet nicht nur: „Arbeitet das Modell korrekt?“
Sondern: „Kann Ihre Organisation noch wirksam eingreifen, wenn aus Interpretation bereits Handlung wird?“
Unser Ansatz: Die GBA-Diagnostik
Die General Boundary Architecture (GBA) ist ein strukturelles Governance-Framework zur Analyse menschlich–KI-gestützter Entscheidungssysteme.
Statt isolierte Outputs zu bewerten, untersucht GBA Entscheidungspfade und identifiziert jene Grenzen, an denen Kontrolle schleichend erodieren kann.
1. Grenzen des Reasoning
Bleibt der analytische Umfang eines Systems noch in einem Bereich, der organisatorisch beherrschbar ist?
2. Deliberative Pause
Gibt es vor einer Handlung noch einen realen Raum für menschliche Reflexion – oder nur noch formale Zustimmung?
3. Decision–Commit Boundary
Wo wird aus einer Interpretation eine verbindliche, autorisierte Festlegung?
4. Irreversibility Constraint
Ab welchem Punkt werden Konsequenzen materiell, institutionell oder operativ nur noch schwer rückgängig zu machen?
5. Delegationsgrenze
Wo wird Autorität faktisch an ein autonomes oder agentisches System übertragen?
Was wir konkret tun
Wir diagnostizieren, wo Kontrolle schwächer wird.
Unsere Pilot-Diagnostik analysiert einen konkreten Entscheidungsweg in Ihrer Organisation. Dabei prüfen wir insbesondere:
- wo Interpretation in Verbindlichkeit übergeht
- wo verdeckte Delegationspunkte entstehen
- ob unter realen Bedingungen noch wirksam interveniert werden kann
- ob Governance strukturell noch Zugang zur Ausführung hat
- wo irreversible Folgen entstehen können, bevor Aufsicht eingreifen kann
Ergebnis
Sie erhalten eine prägnante Boundary Stability Diagnostic, die sichtbar macht, wo Grenzintegrität stabil ist, wo sie abnimmt, wo Governance strukturell unwirksam wird und wo reale Konsequenzen früher eintreten, als menschliche Aufsicht reagieren kann.
Formate der Zusammenarbeit
1. Rapid Boundary Assessment
Eine kurze, fokussierte Analyse eines einzelnen Entscheidungswegs.
Geeignet für:
Teams, die kurzfristig Sichtbarkeit für einen konkreten Hochrisiko-Prozess benötigen.
Output: Executive Briefing + Boundary-Risikokarte
2. Governance Architecture Audit
Eine vertiefte strukturelle Prüfung KI-gestützter Entscheidungsarchitekturen.
Geeignet für:
Organisationen, die KI in betriebliche, institutionelle oder operative Prozesse integrieren.
Output: Boundary Architecture Report mit Governance-Empfehlungen
3. Boundary Architecture Design
Strategische Unterstützung beim Neuentwurf von Entscheidungsarchitekturen.
Geeignet für:
Bereiche mit hohem Schadenspotenzial, in denen Governance proportional zur Konsequenz erhalten bleiben muss.
Output: Boundary Architecture Blueprint
Für wen das relevant ist
- KI-Produktteams
- Decision-Support-Systeme
- algorithmische Finanz- und Risikoinfrastrukturen
- medizinische Entscheidungsunterstützung
- öffentliche Verwaltung und Governance-Systeme
- kritische Infrastrukturen
- agentische KI-Umgebungen
- Organisationen mit wachsender Delegation an Systeme
Warum das gerade jetzt wichtig wird
Mit wachsender Autonomie von KI-Systemen werden Governance-Probleme zunehmend zu Grenzproblemen.
Die meisten Frameworks fragen:
- Ist das Modell aligned?
- Ist der Output korrekt?
GBA stellt eine andere Frage:
An welchem Punkt überschreitet ein System die Grenze von Interpretation zu realer Konsequenz – und wer hat an genau diesem Punkt noch wirksame Autorität?
Forschungsgrundlage
GBA basiert auf einem veröffentlichten konzeptionellen Rahmen zur Governance menschlich–KI-gestützter Systeme.
Unsere diagnostische Arbeit basiert auf der General Boundary Architecture (GBA), wie sie im veröffentlichten Preprint von Andrzej Skulski (2026) beschrieben wird.
Warum Organisationen gerade hier ansetzen sollten
Wenn KI-gestützte Interpretation in Ihrer Organisation reale Handlung werden kann, dann ist Grenzintegrität bereits ein Geschäfts- und Governance-Thema.
Sie brauchen nicht sofort ein vollständiges Transformationsprogramm. Sie brauchen zunächst Sichtbarkeit in einem konkreten Entscheidungsweg, in dem Kontrolle möglicherweise angenommen wird – strukturell aber bereits nicht mehr gegeben ist.
Kontakt
Andrzej Skulski
Dom Ciszy – Resonance Laboratory
Moormerland, Deutschland
Forschungsnahe Zusammenarbeit und Pilot-Diagnostik für ausgewählte Fälle.
E-Mail: fakfakten@gmail.com
C₂ in Action — From Influence to Regulation
A documented case of Human-in-Regulation under real interaction conditions
This publication presents the first fully documented case of C₂ (Contextual Co-Agency) observed in a live interaction.
It does not describe a theory.
It shows a process in motion:
- how influence emerges
- how it becomes visible
- how it can be reduced
- how it reappears
- and where the human must close the process
This is not about AI capability.
This is about decision boundaries and responsibility.
AI can reveal influence.
AI can guide influence.
But AI cannot close the process.
→ The moment of closure remains human.
→ This is the commit boundary.
What this document shows
- A real interaction structured into observable phases
- The emergence of trajectory pressure before commitment
- The transition from dialogue to meta-interaction
- The moment of Human Re-Assertion
- An example of Applied C₂ within GBA context
Context
This case is not an isolated observation.
It functions as a missing operational layer between:
- conceptual frameworks (C₂, GBA)
- and real-world interaction dynamics
It demonstrates how governance must operate at runtime, not post-hoc.
https://zenodo.org/records/19192898
Update — First Applied C₂ Case Published
Today we published the first documented case of C₂ in action.
What makes this different:
This is not a model.
This is not a simulation.
This is a trace of a real interaction, where:
- influence becomes visible
- structure emerges in real time
- and the human closes the loop
The document marks a transition:
- from theory → to observable process
- from interpretation → to boundary awareness
More cases will follow.
If AI participates in decisions, responsibility must be visible at the moment it is taken — not after.





