Anzeige - Sämtliche Inhalte dieser Seite sind ein Angebot des Anzeigenpartners. Für den Inhalt ist der Anzeigenpartner verantwortlich.

Künstliche Intelligenz verstehen und skalieren: Bernd Maurer von der CONVENTIC GmbH über den praxisnahen Einstieg

Conventic GmbH

  • 27.10.2025
CONVENTIC GmbH
Bernd Maurer, Geschäftsführer der CONVENTIC GmbH: „Niederschwelliger Einstieg heißt auch: Mal anfangen, sich rantrauen und verstehen, wie die KI funktioniert.“

In diesem Interview spricht Bernd Maurer, Geschäftsführer der CONVENTIC GmbH, über die aktuellen Herausforderungen rund um das Thema Künstliche Intelligenz (KI). Er zeigt, welche Schritte sich für erste KI-Projekte anbieten – und wie CONVENTIC mit praxisnahen Lösungen den Weg zur produktiven KI-Nutzung ebnet.

Herr Maurer, die CONVENTIC GmbH bietet einen – wie sie es nennen – niedrigschwelligen Einstieg in das Thema KI. Was bedeutet das konkret?

Aktuell hören wir unglaublich viel von KI, so wie um die Jahrtausendwende von Cloud. Das sind einzelne Begrifflichkeiten, die jeder anders für sich deutet. Die Verantwortlichen in den Unternehmen sind in der Regel keine Fachleute für Künstliche Intelligenz und von der Informationsflut und verschiedenen Deutungshoheiten oft überfordert. Unser Ansatz ist es, vor allem die Verantwortlichen abzuholen – mit Ideen und einfachen, verständlichen Anwendungsfällen. Entsprechend haben wir uns ein Instrumentarium gebaut, das auf der einen Seite die Basics generativer KI umfasst, beispielsweise unsere Chatbots für Webseiten und firmeninternes Wissensmanagement. Diese Ansätze sind weitestgehend standardisiert, um schnell einsteigen zu können.

„Weitestgehend“ soll heißen: Wir haben hier auch noch genügend Freiheitsgrade für spezifische Kundenanforderungen. Die Standardisierung sorgt aber dafür, dass Interessierte einfach schnell mal testen können. Wir haben unseren Chatbot THE BOT so gebaut, dass er tatsächlich in fünf Minuten auf der eigenen Webseite veröffentlicht werden kann. Und dann sind Logos, Farben etc. schon angepasst. Das geht wirklich sehr schnell. Das meinen wir mit niederschwellig: mal anfangen, sich herantrauen und verstehen, wie die KI funktioniert – dass es manchmal ist wie einem bockigen Teenager gut zuzureden, damit man das gewünschte Ergebnis erhält. Das ist ein Lernprozess, den wir von ganz vorne begleiten wollen und können.

Womit starten Unternehmen sinnvollerweise, um kurzfristig spürbaren Nutzen aus Generativer KI zu ziehen?

Wie gesagt, eigene Standards helfen da. Um auf das Thema ChatBot zurückzukommen, zwei einfache Beispiele:

1. Wissensmanagement: Wir alle suchen heute im normalen Arbeitsalltag kontinuierlich Dateien und Informationen. Meist auf Basis der Indizierung von Dateien. In jedem nicht mehr ganz kleinen Unternehmen geht hier wichtige Information verloren respektive wird nicht gefunden, weil Dateien mal versehentlich eingeordnet wurden oder Kategorien meist nicht richtig passen. Dem ChatBot sind Kategorien egal, er liest sich sozusagen ALLES durch und weiß dann auch alles, egal, wo es liegt.

2. Webseiten-Bot: Wir sind es von den großen Plattformanbietern gewohnt, unsere Ansinnen in ein einfaches Formularfeld einzugeben. Zuerst waren da die Suchmaschinen, dann auch Amazon und jetzt die KI-Anbieter. Die Welt ist schnelllebig und große Websites haben mitunter viele tausend einzelne Webseiten. Wenn ich da etwas suche, beispielsweise ein bestimmtes Formular, muss ich oft lange suchen. Wer hat da noch die Geduld?

Beide Beispiele sind schnell und einfach umzusetzen. Das Sammeln und Kuratieren der relevanten Daten dauert in Fall 1 deutlich länger als die Zurverfügungstellung der KI-Systeme. In Fall 2 kann es auch sehr schnell gehen, vorausgesetzt, wir sprechen über eines der drei größten Shopsysteme am Markt. Bei kleineren und nicht so verbreiteten Shopsystemen muss man gegebenenfalls spezifischer in die Anpassung gehen, aber auch keine Raketenwissenschaften betreiben.

Was sehen Sie als die wichtigsten Punkte in Bezug auf einen erfolgreichen Einstieg in das Thema KI aus Sicht der Unternehmen, was sind Erfolgsfaktoren- und Risiken von Erstprojekten?

Unbenommen der wichtigste Erfolgsfaktor ist echter, messbarer Nutzen. Einfachheit, Schnelligkeit und Bequemlichkeit wie im Beispiel des Wissensmanagements lassen sich durchaus messen. Damit ist Nutzen nachweisbar. Bei Shopsystemen lässt sich messen, wie hoch Click-Through-Rate, Absprungrate oder Conversion sind. Erwartungen sollte man also an messbare Ziele knüpfen. „Wir erwarten eine zehn Prozent höhere Conversion bei Kunden, die mit dem Bot bestellen“, wäre eine adäquate Erwartung.

Dann geht es im Kern um Change Management – Änderungen nicht nur eines Prozesses, sondern vielleicht aller Bereiche im Unternehmen. Da sollte man klar sagen, was man vorhat und wo die Reise für die Mitarbeitenden hingeht. Tut man das nicht, machen sich die Leute eigene Gedanken, die nicht immer stimmen müssen. Die Belegschaft sollte also möglichst früh integriert werden und auch mitgestalten. So entgeht man der Angst, dass die KI irgendwann den eigenen Job macht, und gibt Gelegenheit, sich faktisch mit dem Thema zu befassen, statt gegen irrationale Ängste und damit einhergehend Beharrungsvermögen zu kämpfen. Zusätzlich kommen die besten Ideen aus der Belegschaft, wenn man Gelegenheit zur Kreativität schafft.

Das Wichtigste zum Schluss: Datenqualität. Eine KI auf schlechten Daten aufzusetzen, ergibt unglaublich wenig Sinn. Wenn Daten alt, schlecht kuratiert, divergent oder nicht widerspruchsfrei sind, kann die KI auch nicht helfen. Zum KI-Projekt gehört dann halt auch mal, den Keller aufzuräumen – macht keiner gerne, aber wenn’s gemacht ist, sind alle froh, dass man wieder was findet.

„Klein anfangen“ klingt gut – wie skaliert man das professionell?

Die Nutzung einer KI erfordert grundsätzlich komplexe Infrastrukturen. Wir meinen mit „klein“ erst mal Pilotprojekte, die dazu, wie gesagt, dienen, Erfahrungen im Umgang mit der KI zu sammeln und Ideen zu entwickeln, wie man KI sinnvoll und effizient im Tagesgeschäft einsetzen kann. Da ist die Kapazität der Systeme meist noch kein großes Thema. Wenn dann in den nächsten Schritten die Bedarfe steigen, etwa in Bezug auf Rechenleistung oder auch Sicherheit, gibt es verschiedene Ansätze. Der einfachste Ansatz liegt in der Cloud. Deswegen sind unsere KI-Systeme auch auf allen gängigen Cloud-Systemen installierbar. Spielen Sicherheit oder Datenschutz eine größere Rolle, sollte die Cloud in Deutschland stehen oder zumindest in Europa. Denkbar sind auch sogenannte hybride Ansätze, wo sensible Daten gegebenenfalls im Rechenzentrum des Kunden liegen und andere Daten auf einer öffentlichen Cloud. In allen Fällen sorgen wir mit modernen Lösungen zur Infrastruktur-Automatisierung für systemische Skalierbarkeit. Zur Skalierung gehört dann natürlich auch noch das Umfeld im eigenen Unternehmen. Wir brauchen Leute, die sich mit dem Thema beschäftigen – auf fachlicher Ebene. Es sollten Weiterbildungen angeboten werden, die auch Bezug nehmen auf eine sich ändernde Arbeitsweise und Arbeitskultur. Meine These wäre hier: Wenn das Wissen über KI im Unternehmen skaliert, skaliert die KI im Unternehmen automatisch.

Wo liegen Grenzen von LLMs (Large Language Models)?

CONVENTIC GmbH
Im Bild: Bernd Maurer, Geschäftsführer der CONVENTIC GmbH

Gute Frage (lacht). Offen gesprochen kann man das nur mutmaßen. Wir sehen aktuell einen Verdrängungswettkampf der großen Anbieter wie OpenAI, Google oder X. Daneben stehen die Open-Source-Sprachmodelle. Es kommt ja auch noch das Thema Quantencomputing hinzu. Was diese Systeme in Zukunft alles können, liegt wahrscheinlich oberhalb unserer Vorstellungen. Wie weit man sich hier noch gegenseitig pusht, bleibt abzuwarten. Eines ist klar: Die Ergebnisse werden immer schwerer als KI erkennbar. Meines Erachtens haben die großen Sprachmodelle einen Stand erreicht, der sie die allermeisten Aufgaben außerhalb sehr spezifischer wissenschaftlicher Aufgaben erledigen lässt. Grenzen sehe ich also mit Blick auf Ihre Frage im Grunde keine! Mein Ansatz hier wäre mit Blick auf Kosten und Ressourcen eher die Frage, wie klein ein LLM sein kann, um gerade noch dem gewünschten Use Case gerecht zu werden. Wenn wir hier mit Blick auf Kosten und Nachhaltigkeit agieren, muss man auch nicht jedem neuen LLM nachrennen. Aber auch hier gilt: Die Technik entwickelt sich rasend schnell. Es sollte also sichergestellt werden, dass die KI-Systeme noch zeitgemäß und sicher sind.

Wie vermeiden Sie Tool-Hypes bei einer riesigen Zahl von KI-Start-ups?

In der Tat ist die Vermeidung von Tool-Hypes bei der Vielzahl an KI-Start-ups eine große Herausforderung. Intern verfolgen wir seit Langem die Strategie, Technologien sorgfältig zu prüfen und bewährte Lösungen in unser Standardportfolio aufzunehmen. Dies ermöglicht uns, den Fokus zu behalten. Wir betreiben bewusst Technologie-Scouting und verfügen über umfassende Erfahrung sowie etablierte Prozesse. So müssen wir nicht jedem Hype hinterherlaufen. Die wirklich guten Lösungen setzen sich erfahrungsgemäß mittel- bis langfristig durch. Das unterscheidet uns von den sogenannten Tool-Päpsten. Angesichts von rund 4.000 KI-Start-ups allein in den USA haben KI-Tools statistisch gesehen eine begrenzte Lebensdauer. Daher beteiligen wir uns in der Regel nicht an Tool-Hypes, da dies uns nur ablenken würde. Stattdessen konzentrieren wir uns auf die Substanz einer Technologie oder eines Anbieters – und darauf, wie mit Daten im Hinblick auf Compliance und Datenschutz umgegangen wird und wo diese Daten verarbeitet werden.

Wie sichern Sie Datenhoheit und Compliance – EU AI Act, DSGVO, Betriebsrat?

Ein Thema, das nun endlich in aller Munde ist. Deutschland scheint hier gerade aufzuwachen. Datenhoheit und Compliance sichern am Ende Handlungsfähigkeit und Resilienz eines Unternehmens in Ausnahmesituationen. So gehen wir das auch an. Es sollte aus unserer Sicht mindestens einen Plan B geben. Das heißt im Allgemeinen, dass es keine singulären Abhängigkeiten geben sollte. Man sollte unbedingt sicherstellen, dass man im Zweifelsfall nicht von seinen eigenen Daten und Systemen ausgesperrt werden kann. Da helfen schon klassische Backups und Datensynchronisation. In Szenarien denken, hilft da ebenso: Was kann im schlimmsten Fall passieren, und kann man darauf reagieren?

Im Kontext der US-Cloud-Anbieter sind da viele Unternehmen wohl etwas träge geworden und wurden gegebenenfalls etwas einseitig beraten, weil beratende Systemhäuser hier und da auch Lizenzziele zu erfüllen haben. Wir versuchen, eine gewisse Sensibilität für das Thema bei unseren Kunden zu wecken und auch die unangenehmen Themen wie DSGVO und AI Act anzusprechen. Wir steigen oft auch bei Kunden ein, indem wir eben gerade den Compliance-Rahmen abstecken, zusammen mit dem Kunden. Das ist dann so etwas wie eine KI-Richtlinie, die in erster Instanz Ziele, Do’s und Don’ts formuliert. Das muss natürlich mit offiziellen Regelwerken wie ISO, DSGVO und AI Act korrespondieren. Und man kann auch den Betriebsrat involvieren. Die Ziele und Anforderungen des Betriebsrats sollten sich im gesteckten Rahmen dann auch ebenfalls finden. Wie gesagt, geht es um Change Management – da wäre es nicht hilfreich, gegen den Betriebsrat zu arbeiten. Unsere Erfahrungen hier sind keinesfalls negativ. Zum Beispiel sind die Ziele von HR und Betriebsrat an vielen Stellen gleich oder zumindest ähnlich.

US CLOUD Act, Vendor-Lock-in und Resilienz: Was raten Sie?

CONVENTIC GmbH

Hinsichtlich Resilienz als Fähigkeit, unter widrigen Bedingungen weiter agieren zu können, muss mit Blick auf den Datenschutz grundsätzlich geprüft werden, ob man im Kontext des US CLOUD Acts tatsächlich bei den US-Hyperscalern alle seine Daten haben möchte. Das muss als Einzelfallentscheidung jeder mit sich selbst ausmachen. Sollte man zur Erkenntnis kommen, dass es sensible Daten gibt, rate ich zu einer deutschen oder europäischen oder zumindest zu einer hybriden Lösung. Noch mal zum Verständnis: Der CLOUD Act sagt, dass die US-Administration selbst dann auf von US-Unternehmen gehostete Daten zugreifen darf, wenn diese physikalisch in Europa liegen. Mir macht das kein gutes Gefühl. Daraus entsteht aus meiner Sicht logisch die Anforderung zumindest der Diversifizierung, also sensible Daten strukturell und physikalisch in europäisches Hoheitsgebiet zu holen und einen praktikablen und regelmäßig geübten Plan B zu definieren.

Welche Kennzahlen überzeugen CFO/CIO?

Erst einmal benötigen wir belastbare Kennzahlen. Sie helfen dabei, eine Entscheidung zu bewerten und den Zielkorridor für ein Projekt festzulegen. KI wird leider oft durch den Ansatz „Das brauchen wir auch!“ getriggert, ohne klare Vorstellungen zu haben, was das konkret bedeutet und wo die wahren Potenziale liegen. Das hat sicherlich auch mit der Überflutung durch Tools und nur teilweise relevante Informationen unter dem Label KI zu tun. Ein Nutzen ist nur ernsthaft nachvollziehbar, wenn er auch messbar ist. Kennzahlen können nach Einsatzgebiet stark variieren, aber es hilft sicher sehr, wenn man zu Beginn eines Projekts klar festlegt, was man erreichen will. Das war auch schon vor KI so. Mit KI könnte beim Einsatz eines Chatbots, der auf einem Shop-System aufsetzt, so etwas sein wie: „Wir wollen die Conversion Rate um zehn Prozent steigern“ oder „Wir wollen den Prozess um 15 Prozent schneller machen und dabei 35 Prozent weniger Nachbearbeitungen haben!“ Wenn man diese Zahlen erhebt, kann man damit recht schnell die Amortisation eines KI-Projekts errechnen. Dann relativieren sich oft auch die Kosten. Deswegen ist es wichtig, die Messbarkeit der Kennzahlen früh im Projekt sicherzustellen – am besten in einem Vorprojekt. Ist diese nicht gegeben, würde ich auch vom Projekt allgemein abraten.

Jetzt Kontakt aufnehmen!
Mehr zum Thema erfahren Interessierte auf der Website der CONVENTIC GmbH.
Impressum
CONVENTIC GmbH

Am Hauptbahnhof 6

53111 Bonn

Web: www.conventic.com

E-Mail: hello@conventic.com