top of page

Wofür ist ein firmeninternes GPT gedacht und warum ist es auch für alle Architekten relevant?

Aktualisiert: 4. Dez. 2025

Man trifft heute kaum Leute, die nicht regelmäßig ChatGPT nutzen würden. Seit einer Weile bekommst du sogar durch Google KI-generierte Antworten. ChatGPT und Co. sind eigentlich bereits in der Late-Adoption-Phase eingetreten.


Höchstwahrscheinlich nutzen mindestens zwei Drittel der Kollegen in deinem Büro wöchentlich - wenn nicht sogar täglich - ein Sprachmodell in ihrem Arbeitsalltag.


Doch fast niemand beschäftigt sich bürointern damit, wie man mit sensiblen Daten und ChatGPT umgehen soll, bzw. wie man KI viel effektiver als intelligenten Chatbot oder Suchmaschine ausnutzen könnte.


Daher möchte ich euch das Konzept und die Relevanz von geschlossenen KI-Systemen, a.k.a. firmeninternen GPTs, grob erklären. Die populärsten Plattformen in EU sind Langdock, 506.ai oder MeinGPT – davon werde ich in diesem Beitrag Langdock als Grundlage nutzen. Jede Plattform hat einige individuelle Features, aber konzeptuell sind sie sehr ähnlich.


Warum brauche ich das überhaupt?


Jedes Büro sollte sich fragen: Wie kann ich vermeiden, dass sensible Daten in irgendeinem Sprachmodell mit Servern in den USA missbraucht werden, und wie kann ich sicherstellen, dass sie DSGVO-konform bleiben? Soll ich einfach die Nutzung von ChatGPT in der Arbeit verbieten? Das ist nicht realistisch und würde das Büro ziemlich schnell ins Steinzeitalter zurückwerfen. Was kann ich dann machen? Daher entstand das Konzept der firmeninternen GPTs.


Diese sind datensicher und DSGVO-konform. Die Firma Langdock hat Server innerhalb der EU, daher ist sie gesetzlich verpflichtet, die Datenschutzregelungen einzuhalten.

Was heißt das für mich am Ende? Ich kann ohne Sorge* irgendeines Projektdokument hochladen und gezielt Fragen stellen. Warum möchte ich das tun? Weil ich – anstatt über eine Suchfunktion – viel effektivere Informationen sogar aus mehreren Dokumenten erhalten kann.


*(Die einzige theoretische Gefahr entsteht bei den angebundenen Sprachmodellen, die zwar ebenfalls in der EU gehostet werden, aber zu US-Unternehmen wie Microsoft Azure gehören. Nach dem amerikanischen „CLOUD Act“ können US-Behörden bei Verdacht auf schwere Internetkriminalität bestimmte Daten von US-Firmen anfordern – unabhängig vom Serverstandort. Das betrifft jedoch ausschließlich sehr spezielle Einzelfälle, und keine IFC-Modelle oder Baubeschreibungen. Microsoft darf die europäischen DSGVO-Vorgaben nicht „überschreiben“ und für wirtschaftliche Zwecke auf Daten zugreifen.)



"Aber ChatGPT und Co. halluzinieren zu oft. Wie soll ich den Antworten vertrauen?"

Absolut berechtigte Frage! Und wenn du ohne weiteres nach dem Hochladen deine Frage stellst, passiert genau das! Wie kannst du das vermeiden?


Projekte einrichten und individuelle Anweisungen im Voraus definieren!


Du musst dem Sprachmodell einfach den entsprechenden Hinweis geben.


Beispiel für eine Anweisung:


Wenn du keine sichere Antwort im Dokument findest, schreibe: "Ich finde keine genaue Aussage dazu in dem Dokument, aber eine mögliche Antwort wäre: ..." Bei Antworten immer die Quelle der Information in folgendem Format angeben: Dokumentname / Abschnitt / Seite.


Es funktioniert erstaunlich gut! Gleichzeitig ist es ein gutes Beispiel dafür, dass man kein Wunder von ChatGPT erwarten sollte, wenn man nicht klar vorgibt, was man braucht.


"Manchmal weiß ich nicht mal, in welchem Dokument ich etwas suchen soll – ich kann nicht ein ganzes Projektordner hochladen."

Die Lösung: Integrationen!


Dazu bietet Langdock die Möglichkeit, durch Integrationen auf in einer Cloud gespeicherte Daten direkt zuzugreifen, ohne dass du diese hochladen musst.


Beispiel: "@OneDrive - Wie soll ich anhand der QM-Dokumente ein Protokoll nach einer Baubesprechung erstellen?“


Richtiges Prompting und eine Prompt-Vorlage


Manchmal bekommt man immer noch nicht sofort das gewünschte Ergebnis, was oft zu Frustration und Aussagen wie „Das hilft mir doch nichts!“ führt.


Wie auch immer – es ist gut, etwas Selbstverantwortung zu übernehmen, denn das Problem liegt meistens an der Qualität deiner Anweisung.


Richtiges Prompting ist keine Raketenwissenschaft, aber benötigt ein gewisses Bewusstsein und mentale Energie – ungefähr so, als würdest du einen sehr begeisterten, aber unerfahrenen Praktikanten einarbeiten.


Ich muss seine Rolle, den Verwendungszweck, mögliche Outputs, den Ton, die Zielgruppe und die Länge im Voraus festlegen, und falsche Interpretationen vermeiden.

Diese Herausforderung können wir für den Endnutzer wesentlich erleichtern.


Fallbeispiel:

Prompt-Vorlage für Protokoll-Erstellung anhand eines Transkripts


Mit einer vordefinierten, präzisen Prompt-Vorlage kann man erreichen, dass KI-generierte Protokolle stets eine ähnliche Struktur haben – unabhängig davon, wann und wer die Anweisung gibt.


Bei Langdock können sogar Variablen vordefiniert werden, damit eine gute Prompt-Vorlage flexibel für verschiedene Besprechungsarten funktioniert und die genaue Angabe der individuellen Situation der Mitarbeitenden fördert.


Beispiel für nützliche Variablen
Beispiel für nützliche Variablen

























Preisgestaltung


Langdock kostet nur etwa 5 Euro mehr als die ChatGPT-Pro-Version. Dafür erhältst du aber Zugriff auf alle gängigen Sprachmodelle wie Gemini, Claude Sonnet oder Llama, die in der EU gehostet sind.


Zum Gesamtbild ist wichtig zu erwähnen, dass du dafür nicht unbedingt die volle Kapazität und Leistung des LLMs erhältst. Bei Vergleichstests mit ChatGPT 5 waren die Antworten in Langdock etwas knapper, grober oder teils ungenauer, und das Hochladen eines Dokuments dauert unter Umständen etwas länger.

Aber langfristig amortisieren sich diese Unterschiede, und die Vorteile einer geschlossenen zentralen Plattform sind unschlagbar.


Fazit


Worüber ich hier schreibe, ist nichts Utopisches – all das ist bereits heute im Büroalltag auch bei laufenden Projekten anwendbar. Und es sollte auch angewendet werden, wenn das Büro seine Wettbewerbsfähigkeit erhalten möchte. Wie viele Minuten oder Stunden gehen sonst verloren durch Recherche in Dokumenten, manuelles Protokollieren oder das Ignorieren komplexer QM-Dokumente?


Sicherlich werden die Prompt-Vorlagen und Anweisungen nicht beim ersten Versuch perfekt funktionieren. Die Denkweise ist aber bereits bekannt aus modellbasiertem Arbeiten: Mit Planung und einer durchdachten Struktur können wir enorm viel Zeit und Ärger sparen.


Mit diesem Fallbeispiel kratze ich nur an der Oberfläche – wir sind noch weit entfernt von der vollständigen Ausnutzung der Möglichkeiten in Langdock.


Eine spannende Funktion sind noch die Assistenten, mit denen du z. B. das komplette Onboarding vordefinieren oder deinen Outlook automatisch organisieren kannst.

Oder du nutzt die Workflow-Funktion, um ganze Aufgaben Schritt für Schritt vorschreiben und automatisch durchführen zu lassen – z. B. ein Protokoll nach einem Teams-Meeting automatisch generieren und anschließend eine E-Mail an die Projektbeteiligten schicken (mit einem Zwischenschritt zur Prüfung).


Aber ich empfehle Euch das System Schritt-für-Schritt umzusetzen und einfach für individuellen Zwecken testen!


Ich würde mich enorm über eure Anwendungsfälle und Fallbeispiele freuen – wie ihr so ein System bereits erfolgreich umgesetzt habt oder was ihr euch wünschen würdet!


(Zur Info: Ich habe keinerlei Kontakt zu Langdock – ich mache freiwillig Werbung für die Lösung, weil ich sie einfach toll finde.)



Kommentare


bottom of page