Eine „Denkmaschine“ aus KI-Modellen: Ist das die Zukunft der KI-Nutzung?
44m 27s
mit Christian Gilcher, Gründer Embraceableai
Christian Gilcher ist Gründer von Embraceable AI. Mit seinem Unternehmen will er den Umgang mit Künstlicher Intelligenz in Unternehmen verändern. Embraceable AI hat die KI E1 programmiert. Vereinfacht gesagt greift das System auf verschiedene KI-Modelle zu, um Aufgaben zu lösen. Dabei werden mit den unterschiedlichen Modelle verschiedene Hypothesen generiert. Diese werden dann – basierend auf den individuellen Angaben der Nutzer:innen – geprüft.
Gilcher beschreibt den Vorgang als Denkprozess, die KI bezeichnet er dabei als „Denkmaschine“. Im Gespräch mit Wolfgang Stieler, Redakteur bei der MIT Technology Review, und Podcast-Hos...
Transcription
7192 Words, 46997 Characters
T3N Interview. Spannende Gäste aus dem digitalen Kosmos. Schön, dass ihr wieder eingeschaltet habt zu einer neuen Folge von T3N Interview. Wir sind heute zu dritt, aber bevor ich euch sage, wer hier eigentlich sitzt, gucken wir erstmal auf das aktuelle Thema. Wir haben nämlich einen Gründer eines Startups bei uns zu Gast, der sich mal mit dem Thema künstliche Intelligenz hier in Deutschland beschäftigt. Wir gucken immer rüber in die USA und heute schauen wir mal, was passiert eigentlich hier in der Branche. Gerade bei dem Thema Halluzination möchte nämlich Embraceable AI dafür sorgen, dass dieses Problem zumindest deutlich vermindert wird, unter anderem. Zielgruppe sind Unternehmen, aber da gucken wir jetzt natürlich erstmal im Detail drauf. Und jetzt, wer sitzt hier eigentlich? Christian Gilcher ist bei mir zu Gast, Gründer und CEO von Embraceable AI. Moin Christian, schön, dass du hier bist. Ja, danke für die Anleitung. Und zu meiner Linken, falls ihr den Videopodcast seht, sitzt Wolfgang Stieler. Er ist mein Kollege von der MIT Technology Review. Ja, hallo Wolfgang, schön, dass du da warst. Hallo Stella, ich freue mich auch hier zu sein. Der Form halt halber. Du hast ja netterweise schon gesagt, Stella. Ich bin Stella-Sophie Wolzer, Host von T3N Interview. Und genug der langen Vorrede. Wir wollen jetzt nämlich mal wissen, was kann eigentlich Embraceable AI, was steckt da auch technologisch dahinter? Und keine Sorge, ihr werdet keinen Knoten im Kopf bekommen. Wir machen das hier alles Schritt für Schritt und gehen es zusammen durch. Also Christian, jetzt mal die erste Frage an dich. Führ uns doch einmal in die Welt von Embraceable AI ein. Was bietet ihr eigentlich an? Was sind denn eure Softwarelösungen für Unternehmen? Ja, also wir beschäftigen uns mit der Frage, wie wir KI auf der Ebene von Grundlagentechnologie zuverlässiger machen können und gleichzeitig leistungsfähiger. Und sozusagen auf dieser Grundlagentechnologie on top beschäftigen wir uns mit der Frage, wie können wir einfach und zuverlässig KI-Workflows abbilden. Wir sind also kein klassischer Anwendungsentwickler in dem Sinne, dass wir sagen, wir haben eine bestimmte Anzahl von Lösungen, vordefinierten Lösungen, sondern wir sind einmal Grundlagentechnologie und einmal Workflow-Bilder. Wir sind ein Baukasten. Und kannst du uns noch einmal ganz konkret sagen, was bietet ihr denn beispielsweise Unternehmen an? Also wofür können sie eure Entwicklung nutzen? Also du kannst dir vorstellen, du kannst im Grunde unsere Technologie benutzen als ein Drop-in-Replacement für Basis-KI, die du von anderen Modellanbietern beziehst. Also technisch gesprochen, wenn du API-basierte KI nutzt von den großen Modellanbietern, kannst du quasi diese API austauschen und kannst dafür unsere nutzen. Oder alternativ projektbasiert gehen wir mit Unternehmen rein, definieren Anwendungsfälle und modellieren eben diese KI-basierten Workflows, ich sage mal so salopp formuliert nach Bedarf. Und da ist natürlich jetzt die naheliegende Frage, was habe ich davon? Also warum sollte ich jetzt zum Beispiel ein Modell von OpenAI gegen euer Modell austauschen? Also wir sehen bei Unternehmen, dass im Grunde der Business-Value, also praktisch der Nutzen durch den Einsatz von KI-Technologie erst dann entsteht, wenn KI über mehrere Schritte hinweg eigenständig Dinge tun kann. Was wir mit Chatbots sehen oder mit Co-Piloten, ich sage mal salopp formuliert, ist einigermaßen nice to have, also unterstützt Menschen punktuell. Ich kann schnell ein E-Mail formulieren oder ich kann einen Text, für den ich sonst zwei Stunden brauche, eine Zusammenfassung oder ein Memo schreiben, kann ich mir vorformulieren lassen. Aber der wirklich große Nutzen entsteht erst dann, wenn ich sozusagen Mehrstufigkeit abbilden kann. Und was wir halt sehen ist im Grunde, dass diese Mehrstufigkeit in Modellen nicht gut funktioniert, aus verschiedenen Gründen. Und im Grunde, warum sollen Kunden mit uns zusammenarbeiten, ist, dass wir eben Technologie entwickelt haben, die eben über mehrere Stufen hinweg diese Zuverlässigkeit und diese, ich nenne es mal Ergebnisqualität abbilden kann. Das heißt also, mit Technologie von Embraceable bist du als Unternehmen eben in der Lage, Prozessketten, wenn man das so will, quasi abzubilden auf einem Level, die du quasi modellbasiert alleine eben nicht darstellen kannst. Ich habe auch noch gleich ein paar Anwendungsbeispiele dafür. Danach wollte ich nämlich fragen, ich glaube, wir brauchen das mal ein bisschen handfester, was genau damit gemacht werden kann. Vielleicht im Bereich Bankenwesen, ich weiß, da hast du auch einen Hintergrund in deiner vorherigen Laufbahn quasi. Also es gibt beispielsweise einen Einsatz, den wir gerade verproben, der ist im Bereich Kontoeröffnung. Das ist quasi ein Bestandteil für Kontoeröffnung, das ist die sogenannte Geldwäscheprüfung. Man muss also im Grunde prüfen als Bank, wer ist der Kunde, also man muss eine Identitätsprüfung durchführen. Man muss im Grunde vereinfacht gesagt analysieren, woher stammt das Geld. Und das ist ein mehrstufiger Prozess, der, ich sag mal, aus BaFin-Sicht, also aus Sicht des Regulators, sehr eng reglementiert ist, wie dieser Prozess ablaufen muss. Und wenn du im Grunde diese einzelnen Prüfschritte durchführen möchtest, dann hast du als Mensch eben, also ich sag mal, das ist ein Prozess, der besteht vielleicht aus 10 Schritten oder aus 20. Und du musst eben als Mensch sozusagen erst recherchieren, musst dann im Grunde die recherchierten Ergebnisse interpretieren und musst auf Basis dieser Interpretation den nächsten Schritt einleiten. Und wenn du das im Prinzip mit einem reinen Co-Piloten durchführst, vereinfacht gesagt, du steckst quasi alle Info-Informationen in ein KI-Modell und sagst hier, analysieren wir diesen Prozess, dann kriegst du zwar ein Ergebnis, das musst du als Mensch aber Schritt für Schritt erst nachvollziehen und nachprüfen und es ist mit sehr sehr hoher Wahrscheinlichkeit zwischendrin irgendwo falsch. Weil nämlich Modelle immer nur sozusagen statistische Repräsentationen ihrer Trainingsdaten abliefern können und wenn sie natürlich diesen spezifischen Fall nicht gesehen haben im Training, wovon eigentlich auszugehen ist, ist die Wahrscheinlichkeit sehr sehr hoch, dass das Ergebnis falsch ist. Und wenn du als Mensch, ich sag mal salopp eine Stunde Spaß dadurch, brauchst aber wieder 40 Minuten, um diesen Prozess nachzuvollziehen und zu korrigieren, dann hast du am Ende des Tages einfach nicht mehr diesen großen Business-Value. Wenn du eben eine Möglichkeit hast quasi ein System einzusetzen, eine Technologie einzusetzen, die dir im Grunde diese Fallaufarbeitung über diesen mehrstufigen Prozess hinweg so aufbereitet, dass du als Mensch sehr schnell, einfach und intuitiv diese Schritte nachvollziehen kannst, also die Denkschritte des Systems nachvollziehen kannst. Und gleichzeitig das Ergebnis signifikant zuverlässiger ist, also sprich die falls positives, also die sogenannten Halluzinationen signifikant geringer bis null sind, dann hast du eben in Summe eine deutlichere Entlastung des Menschen und du sparst eben in Summe tatsächlich signifikant mehr Zeit als durch den punktuellen Einsatz von KI. Also man muss sich das quasi Ende zu Ende vorstellen. Ich sag, ich kriege diese Fallverarbeitung quasi so mundgerecht zugereicht als Mensch, dass ich sie im Grunde schneller und einfacher nachvollziehen kann. Das ist auf so einer technischen Ebene eine starke Ansage. Du hast ja selber gesagt, herkömmliche Sprachmodelle sind dafür nicht wirklich geeignet. Halluzinationen, größerer, längerer Kontext, die laufen immer wieder aus dem Ruder. Sie können im Grunde genommen auch nicht wirklich Logik verarbeiten. Also so wenn, dann Bedingungen. Also wenn das Resultat deiner Recherche ist, der Kontoinhaber sitzt auf den Cayman Islands, da hat er schon drei andere Konten, dann mache folgendes, sage mir Bescheid. In der Regel wird das Sprachmodell nicht wirklich gut, also es kann funktionieren, muss aber nicht. Nun habe ich das so verstanden, dass der Kern eurer Technologie nach wie vor auch Sprachmodelle sind. Da kriege ich dann an dieser Stelle immer einen Knoten im Kopf. Wie macht ihr das? Wie kriegt ihr die Software dazu, die Schwächen, die normale Sprachmodelle haben, nicht zu zeigen? Das ist einmal das sogenannte Steuerwerk, das Rechenwerk und der Arbeitssprecher. Da gibt es auch noch ein Bus und ein I.O., aber erstmal bleiben wir bei diesen drei Kernfunktionsblöcken. Im Prinzip unsere Hypothese ist oder unsere Arbeitsgrundlage ist zu sagen, wir nutzen Sprachmodelle, aber nicht mehr für die Entscheidungsfindung, sondern für die Generierung von Hypothesen und für die Verarbeitung der Prüfschritte. Das heißt also, die logischen Constraints oder die logischen Operatoren, wenn dann dann das, sind sozusagen als Text außerhalb des Systems formuliert. Das sind ja im Grunde universelle Regeln sozusagen, die nicht viable sind. Und das sogenannte Steuerwerk, also die Steuerungseinheit lässt sich sozusagen vom Sprachmodell Hypothesen generieren, greift sich zu der passenden Hypothese quasi dieses Axiom, also diesen textuell formulierten logischen Operator und gibt dann diese Kombination wieder auf Sprachmodell und sagt hier, das ist eine Hypothese und hier sind bestimmte einzuhaltende Bedingungen und prüfe jetzt bitte, ob das erfüllt ist oder nicht. Aber wir zwingen das Sprachmodell nur mit Ja oder Nein zu antworten. Und dadurch, dass du halt sozusagen diesem Sprachmodell eine sehr eng definierte Aufgabe gibst, also sprich dieser mögliche statistische Fehler im Sprachmodell, was sehr sehr klein ist, ist die Zuverlässigkeit dieser Antwort signifikant höher, als wenn du eben quasi dem Sprachmodell die komplette Lösungsfindung alleine überlässt. Also man muss sich das vorstellen, das Sprachmodell wird durch diese Kombination aus dieser Steuerungseinheit und dem Arbeitsspeicher immer nur punktuell von uns genutzt. Und der Rest des Systems, nämlich diese Steuerungseinheit und der Memory, die agieren eben, ich sag mal abstrakt formuliert in der ähnlichen Weise, wie es eben Prozessoren hier bei uns in den Laptops eben auch tun. Du hast jetzt mehrmals gesagt das Sprachmodell, aber benenn doch einmal ganz konkret, mit welchen Modellen arbeitet ihr da? Also wir sind modellagnostisch, wir arbeiten relativ viel mit Openweight-Modellen, also einem aktuellen Lama 3.3 mit 70 Milliarden Parametern. Das System funktioniert prinzipiell auch mit Cloud-Source-Modellen, also GPT-4.1. Es gibt Kunden von uns, die sind quasi auf Hyperscaler unterwegs, die möchten aus bestimmten Gründen OpenAI-Modelle nutzen. Und wir experimentieren tatsächlich gerade, also vor wenigen Tagen haben wir den ersten Durchstich gehabt, das auch mit sogenannten Small-Language-Models zu betreiben. Also da gibt es zum Beispiel so ein 5.4, das hat 14 Milliarden Parameter. Und dadurch, dass wir halt eben, ich sag mal, diese Sprachmodelle nur für bestimmte Spitzeaufgaben einsetzen, können wir tatsächlich eben auch kleine Modelle nutzen, die dann wiederum auch in der Lage sind auf, ich sag mal, High-End-Consumer-Grafikkarten zu laufen. Also das heißt, wir durchbrechen auch so ein Stück weit diese Notwendigkeit für diese High-End-Grafikkarten und lösen uns damit von der Hardware-Seite auch ein Stück weit von den Anbieter-Monopolen, wenn man das so nennen will. Ich denke, zu den Modellen kommen wir noch und auch zu den Problemen, die da dranhängen. Also sprich regulatorische Probleme, auch möglicherweise Probleme von Abhängigkeit von einem Anbieter, von einem Hyperscaler oder was auch immer. Aber ich würde gerne noch kurz bei dem Beispiel bleiben, was du genannt hast, also sprich Prüfung von Geldwäsche. Und du hast gesagt, ihr sperrt das Sprachmodell sozusagen in eine Art Korsett und da draußen rum ist ein Steuerwerk und da sind logische Regeln, die sagen, das ist eine Hypothese und diese Hypothese werfe ich dann in die Maschine mit den logischen Regeln und da kommen Folgerungen raus. Die müsst ihr ja dann von Hand stricken für einzelne Anwendungsfälle, oder? Habe ich das richtig verstanden? Also das ist dann wieder relativ aufwendig, das ist dann wieder relativ unflexibel. Also der große Vorteil von Sprachmodellen war ja gerade, dass ich sagen kann, das Ding kann alles Mögliche. Wird dieser Vorteil dadurch nicht wieder zunichte gemacht? Also wir haben ein Retrieval-System angebunden, bei dem du also zum Beispiel diese BaFin-Regeln, von denen ich gesprochen habe, also diese Vorschriften des Regulators, im Grunde in eine Art erweiterten Vector-Store ablegen kannst. Und im Grunde aus dem Prozess heraus, also aus diesem Steuerwerk ist man in der Lage auch Retrievals quasi, also hat Kenntnis darüber, welche Knowledge-Stores angebunden sind und kann dann eben zielgerichtet in der Abarbeitung des Prozesses ein Retrieval machen im Sinne von, und jetzt haben wir eine Situation hier, dreimal Cayman Island, was du gesagt hast, welche Arten von Vorschriften sind denn dabei zu beachten? Dann kommt im Grunde von dem Knowledge-Store ein Retrieval zurück. Das ist so, ich sag mal, diesen Retrieval-Teil ist das, was man von RAK kennt. Also von diesem Retrieval. Ich glaube, das musst du noch einmal quasi sehr, stell dir mal vor, erklär das mal jemandem, der keine Ahnung hat, was ein Retrieval ist. Also Retrieval musst du dir vorstellen, wie in der Bibliothek steht vorne jemand, dem du sagst, was du suchst. Und dann rennt ein Mensch und der weiß in der Bibliothek, wo genau welches Buch steht. Und dann rennt dieser Mensch los, der kennt sozusagen den Grundriss der Bibliothek und die inhaltliche Aufteilung, rennt los und präsentiert dir dann quasi zu dieser Frage, die du gestellt hast, die relevanten Ausschnitte aus Büchern. Lesen musst du das dann selbst und interpretieren, aber du kriegst sozusagen die relevanten Passagen zugereicht. Das ist Retrieval quasi. Also das ist quasi der Sortierer, der Zuordner, so ein bisschen. Ja, so ein bisschen dieser inhaltliche, also der Anreicher von Informationen, die du bei diesen Denkschritten quasi verarbeiten musst. Also das ist zusätzliche Spezialinformation sozusagen, die dann auch wieder dem großen Sprachmodell vorgeworfen wird als zusätzlicher Kontext. Aber das Ding ist halt, und das kommt aus meiner Datenbank oder aus meinem Firmenwissen oder aus einer Spezialdatenbank, in dem Fall halt Regulatorik zum Beispiel. Aber das Problem ist, der Bibliothekar versteht im günstigsten Fall tatsächlich das, was ich suche. Das Retrieval-System kann nur anhand von mathematischen Ähnlichkeiten sagen, das ist wahrscheinlich ungefähr das, was du haben willst. Das ist so ein bisschen die Schwäche davon. Aber du kannst halt im Grunde, also dieses Suchquery quasi, die das System an diese Datenbank stellt, die wird im Grunde auch dynamisch aus dem Informationsfluss heraus erzeugt. Das heißt, du hast also Kontext basiert, also das heißt, die Suchab-, die Suchquery ist eben schon relativ spitz, sag ich mal, also relativ eng formuliert, sodass also die Wahrscheinlichkeit, du musst natürlich immer noch dieses Wissen ein Stück weit modellieren, also da fließt ein Stück weit manueller Aufwand auch rein, je nach Umfang und Tiefe quasi dieser Regulatorik. Aber du kannst quasi, ich sag mal, über dieses sehr enge definierende Suchparameter auch diese Suche sehr genau eingrenzen, sodass also diese Information, die dir der Bibliothekar quasi anliefert, im Grunde diejenigen sind, die du für die Interpretation dieses Sachverhaltes eben auch brauchst. Die Praxis zeigt, also wir erheben nicht den Anspruch sozusagen, dass wir in 100 Prozent aller möglichen Fälle damit sozusagen, also was Berechenbarkeit und sozusagen den Lösungsraum angeht, abbilden können. Aber die praktischen Fälle, in denen wir das einsetzen, zeigen, dass es zumindest mit den Fällen, die wir bislang abbilden, halt relativ gut funktioniert. Nur um da mal so ein Gefühl zu kriegen, du hast vorhin was von Forbes Positives gesagt. Wie gut seid ihr dann in solchen Fällen? Also zum Beispiel bei so einer Bankkontoeröffnungsgeldwäscheprüfung. Ja, also da sind wir gerade im Aufbau. In der Prüfung nehmen wir ein Beispiel, das wir schon durchgeführt haben. Da geht es um, also das ist ein DAX-Konzern, ist die interne Steuerabteilung. Und da geht es darum, dass man komplexe Sachverhalte bewerten muss. Also da geht es um Einkommenssteuer über verschiedene Länder hinweg. Und es geht darum, dass man, im Grunde man kriegt von der Personalabteilung eben einen bestimmten Fall. Also ein Mitarbeiter soll jetzt irgendwie ins Ausland delegiert werden mit folgender Konstellation. Und die Steuerabteilung muss im Grunde eine Aussage darüber treffen, in welchen Ländern, in welcher Höhe Einkommenssteuer für diesen Mitarbeiter zu zahlen wäre. Relativ komplexe Materie, können ganz wenig Leute überhaupt beantworten. Und wir haben im Grunde jetzt, ich sag mal in diesem Fall quasi mehrere hundert Fälle quasi durchlaufen, testweise. Und wir hatten bislang zumindest, man muss immer vorsichtig sein, bislang keinen Falschpositiv. Also keine Falschaussage. Das heißt nicht, dass nicht morgen irgendwie theoretisch einer auftreten kann, aber zumindest mal eine Indikation dafür zu geben, dass wir bislang damit sehr zuverlässig unterwegs sind. Und das ist jetzt nicht nur ein Fall, sondern das bestätigt sich im Grunde auch in anderen Anwendungsfällen. Wir sind nicht in der Lage formal, das ist auch nicht unsere Absicht, formal eine hundertprozentige Garantie zu geben. Also wir wenden sozusagen keine symbolische, formale Logik an. Wir sind darüber im Klaren, dass wir sozusagen einen stochastischen Restfehler in diesen Denkketten quasi drin haben. Das hängt am Ende des Tages einfach damit zusammen, wie das Sprachmodell diese Validierung durchführt. Und ein Stück weit auch mit einer stochastischen Unschärfe wie die logischen Operatoren, die sind ja auch im Text formuliert. Aber sozusagen über diese Denkketten hinweg, dadurch, dass wir diesen Prozess eben zerteilen und immer wieder neu zusammensetzen, ist eben diese Gefahr einer Falschaussage eben signifikant geringer. Das liegt einfach an der Arbeitsweise des Systems, wenn man so will. Ich habe am Anfang versprochen, dass keiner der Zuhörer in Knoten im Kopf bekommt. Dem muss ich gerecht werden. Deshalb einmal nochmal die Zusammenfassung. Heißt, wenn ich als Unternehmen euer Angebot von Embraceable AI nutzen will, brauche ich vernünftig aufbereitete Daten, beispielsweise für Regulatorik etc., weil das ist ja die Grundeinspeisung, vereinfacht gesagt, die in das System reinkommt. Und ihr bietet dann quasi an, auch auf Basis von bestehenden Modellen quasi den Perfect Fit herzustellen, da wo ich meine Daten einfließe, um bestimmte Aufgaben, Prozesse zu durchlaufen und ich kann das dann Schritt für Schritt nachvollziehen. So wäre jetzt meine sehr vereinfachte, kurze Erklärung. Also es gibt mehrere Stufen. Quasi in der einfachsten Stufe kannst du unsere Technologien nutzen stand-alone. Das ist quasi ein Drop-in-Replacement für ein Reasoning-Modell oder ein Sprachmodell. In der zweiten Stufe kannst du eine Wissensquellen anbinden, wenn du sozusagen diesen Prozess erweitern und anreichern möchtest. Das musst du aber nicht zwingend, kannst es tun. Und in der dritten Stufe kannst du im Grunde zum Beispiel Systeme anbinden, also sowohl sozusagen von der lesenden Seite, das haben wir gerade besprochen, als dann auch potenziell auf der schreibenden Seite. Da bewegen wir uns dann in Richtung Agentik, aber eben nicht diese Agents, wie man sie heute kennt, wo man im Grunde die Geschäftslogik mit so einer grafischen Oberfläche abbildet und das Sprachmodell trifft die Entscheidung, sondern eben so, dass es in diesen Denkketten abgebildet ist. Also wir bieten faktisch drei Stufen, um es nochmal klar zu sagen. Erste Stufe, Technologienutzung stand-alone. Als Ersatz sozusagen von Reasoning-Modellen kannst du dir vorstellen, wie im Grunde eine Denkmaschine in Anführungszeichen. Zweite Stufe, du bindest dein eigenes Wissen an, kannst damit sozusagen diese Denkschritte quasi anreichern und individualisieren auf deinen eigenen Prozess. Dritter Schritt, aber nur wenn du es möchtest, gibst du dem System Zugriff auf Drittsysteme und lässt das System beispielsweise E-Mail schreiben oder deine Kundendatenbank aktualisieren. Ich würde sagen, jetzt haben wir es eindeutig. Das war nochmal eine logische Zusammenfassung, oder Wolfgang? Wobei bei dem zweiten Schritt, generell die Frage natürlich für mich nochmal ist, ich kann das nachvollziehen, was das Modell dann macht. Also an welcher Stelle sehe ich dann, wie das Modell zu welchen Entscheidungen gekommen ist? Also das System arbeitet schrittweise. Im Grunde wie die Taktung von einem Prozessor, kann man sich das vorstellen. Und dadurch, dass wir im Grunde diese Lösung oder diese Aufgabe in diese vielen einzelnen Teile zerschneiden und dadurch, dass wir im Prinzip für jeden einzelnen Teilschritt Logik und Kausalität anwenden, also logische Schlussfolgerung, Kausalität heißt, was ist Ursache, was ist Wirkung, sind wir in der Lage zu sagen, hier ist ein Sprachmodell, hier ist eine Hypothese und hier ist ein Set von Einschränkungen und prüfe bitte, ob A auf B passt. Und wenn ja, liefere die zulässigen Hypothesen zurück. Dann merken wir uns die im Arbeitsspeicher. Das machen wir im Prinzip für jede der Hypothesen, haben am Schluss sozusagen die Anzahl der Hypothesen reduziert. Dann können wir die verbliebenen Hypothesen wieder aufs Sprachmodell geben und sagen, erzeuge daraus bitte jetzt eine Schlussfolgerung. Und zwar in der Art, wie wir Menschen das auch tun. Und das wird auch dokumentiert, also im 2 für 2 kann ich das nachlesen? Genau, das wird sozusagen in den Arbeitsspeicher wieder reingeschrieben und das hast du dann quasi hinterher in der Ergebniskette quasi explizit als Mensch kannst du sie einfach durchlesen. Wie lange dauert denn das Ganze, worüber wir gerade sprechen? Wir haben ja darüber gesprochen, wie komplex das Ganze ist, wie schwer teilweise jetzt auch in dem Beispiel das Ganze für Mitarbeitende zu beantworten ist. Wie lange braucht es, wenn es durchgelaufen ist? Also wir haben einen Benchmark gemacht mit dem DAX Kunden. Die haben das O3 Modell von OpenAI benutzt, O3 Pro glaube ich das so, also dieses Deep Thinking. Das hat für die Überarbeitung knapp 20 Minuten gebraucht mit einem falschen Ergebnis. Und wir liegen, ich sag mal je nach Speed, also je nach Geschwindigkeit des Sprachmodells irgendwas zwischen drei, fünf, manchmal auch mal sieben oder acht Minuten, aber so roundabout kann man sich das vorstellen. Also es hängt natürlich ein Stück weit von der Komplexität des Files ab. Es hängt halt ganz stark davon ab, wie oft das System salopp gesagt nachgucken muss. Einmal, fünfmal, zehnmal. Aber so ich sag mal roundabout in diesen Dimensionen bewegt sich das. Und kann ich dieses Nachgucken auch zum Beispiel in Echtzeit dann sehen und da irgendwie einschreiten oder kriege ich quasi, es rattert acht Minuten jetzt sehr vereinfacht gesprochen und dann kriege ich das Ergebnis ausgespuckt und kann es dann im Nachgang nachvollziehen? Es geht prinzipiell beides. Unsere Kunden bevorzugen, also man geht immer rein und sagt, ja ja da will ich aber jeden Schritt sehen, weil du einfach als Mensch sozusagen dieses Bedürfnis nach Kontrolle hast und dich dem System nicht ausliefern willst. In Realität genutzt wird es aber, dass man sagt, okay wir lassen es einmal durchlaufen und gucken uns dann das Ergebnis an und wenn es dann falsch sein sollte, dann wäre ich das Ding wieder von vorne an. Also wir haben die Möglichkeit zu intercepten, wie wir das nennen, also praktisch so einen human in the loop an jeder Stelle reinzubringen. Das ist auch psychologisch gut am Anfang der Zusammenarbeit mit den Kunden, weil sie dann sagen, sie liefern sich da nicht irgendwie so einem System aus, das sie nicht verstehen, nicht kontrollieren können, was auch immer. Aber es wird dann relativ schnell klar, eigentlich brauche ich das gar nicht, weil sozusagen die Art wie das System arbeitet sehr nah daran ist, wie wir Menschen logische Schlussfolgerungen treffen. Und dann lasse ich das Ding durchlaufen, gucke mir das Ergebnis an, beziehungsweise gucke mir erstmal den Lösungsweg an in Wahrheit. Wenn der Lösungsweg stimmt über mehrere Schritten hinweg, dann ist die Wahrscheinlichkeit extrem hoch, dass auch das Ergebnis passt. Und dann brauche ich eigentlich diese Zwischenschritte faktisch nicht mehr. Lösungsweg angucken, wie niedrigschwellig ist der denn? Muss ich da jemanden hinsetzen, der dann beispielsweise richtig Code versteht oder ist das wie jetzt bei KI-Chatbots, wo ich eben Text sehe, wo ich dann sehen kann, ok, diese Schlüssel wurden gefolgert, das ist die Basis. Genau, das ist einfach menschenlesbarer Text. Also den du als Laie auch nachvollziehen kannst, steht dann auch drin, das war die Hypothese und die Hypothese ist aus dem und dem Grund verworfen worden, weil da irgendwie war eine Randbedingung verletzt, also bei diesem Logikrätsel. Und so kannst du quasi mehrere Schritte hinweg den Lösungsweg angucken und sagst dann eben, ok, alle diese Zwischenschritte sind jetzt, wenn wir Menschen das bezeichnen, korrekt schlussgefolgert, alle Randbedingungen beachtet, also passt auch das Ergebnis. Oder die Wahrscheinlichkeit ist zumindest dann sehr sehr hoch, dass das Ergebnis passt. Wenn ihr aber vorher den Lösungsweg angeguckt habt und das Ergebnis ist auch schlüssig, so wie früher Mathe, da zählt auch der Lösungsweg ein Stück weit. Nun ist ja, denke ich, gerade für Unternehmen das eine die Frage, wie schnell ist das, was kostet mich das, also wie viel effizienter ist es? Da muss ich dich einmal kurz unterbrechen. Merkt ihr genau das? Was kostet das Ganze denn für Unternehmen? Also wir rechnen das über sogenannte Worker Credits ab, das heißt quasi also Denkschritte. Jeder Denkschritt verbraucht, dadurch dass ein Sprachmodell angebunden ist, eine bestimmte Anzahl von Sprachmodell Tokens. Und je nachdem wie, ich sag mal, umfangreich dein Prozess ist, den du rein wirst, brauchst du halt entweder 10 Worker Credits oder 100. Das hängt einfach ein Stück weit von der Komplexität des Prozesses ab. Da gibt es im Prinzip einen List Price, also 1000 Credits kosten eine Summe X. Die ist so gerechnet, dass sie, ich sag mal, wenn man es jetzt quasi in einem typischen Investment Case betrachtet, wo man bestimmte Anforderungen an Rentabilität hat, also wie viel Zeit spare ich von einem Mensch und das muss ich irgendwie rechnen, salopp gesagt, dass wir weit, weit, weit über diesen typischen Anforderungen liegen, ab denen sich das rechnet. Ist aber trotzdem noch niedrig genug, dass du halt auch im großen Stil Dinge damit tun kannst. Weil wir eben nicht nur wollen, dass ein Kontoeröffnungsprozess schneller wird. Beispiel von eben. Sondern wir wollen, dass Kunden anfangen unsere Technologie zu nutzen, um Prozesse in einer höheren Zahl durchlaufen zu lassen, als sie es eigentlich mit Menschen können. Beispiel Materialforschung. Oder wenn ich im Prinzip im Engineering Bereich bin und ich mal ein Design, weiß ich nicht, Design ein neues Gebäude. Und ich kann sozusagen diese Art von, also wir nennen das ja Microworker im Prinzip, diese Art von Tätigkeit, die das System dann verrichtet. Und ich kann plötzlich nicht mehr nur drei Designs machen und mir dann das beste raussuchen, sondern ich hab durch maschinelle Unterstützung vielleicht 300 Designs machen. Und die Wahrscheinlichkeit, dass aus 300 Designs ein besseres drin ist, ist halt relativ hoch. Und das muss natürlich so geschnitten sein, dass du sagst quasi die drei Designs, wenn du unsere Technologie nutzt, um diese drei Designs schneller zu machen. Das ist ein Kostenvorteil, ein Zeitvorteil. Kannst du denn den Kostenvorteil noch ein bisschen beziffern? Reden wir da über fünfstellige Summen, vierstellige? Also ein Denkschritt kostet aktuell im Listenpreis knapp acht Cent. Und da kann man sich, wenn man sagt jetzt hat ein Prozess, da kann man sich ausrechnen. Diese Prozesse, von denen wir sprechen, brauchen irgendwie manchmal 30, 40, 50 Credits. Man muss aber auch sehen, das steht im Gegenwert zu einem Mensch, der teilweise drei, vier, fünf Stunden damit beschäftigt ist. Also das rechnet sich, salopp gesagt, relativ schnell, relativ gut. Danke einmal für die konkrete Zahl. Wolfgang, ich habe dich ganz frech unterbrochen. Es tut mir leid. Das ist eine sehr naheliegende Frage gewesen, die auch immer wieder sehr spannend ist, weil es ist ja nicht nur die Frage, wie viel kostet so ein Credit, sondern wie viele Credits kommen da so zusammen in einem Durchlauf, wie viele Durchläufe brauche ich dann? Ich hatte das jetzt kürzlich, weil ich mich gerade recherchermäßig mit dem Thema beschäftige, mit Quantencomputern. Und da ist es so, dass zwar ein Durchlauf auch relativ billig ist, dass man aber relativ viele Durchläufe braucht, sodass du dann für eine Minute locker mal bei 10 Dollar bist und so einen Prozess dann aber auch mal 10, 20 Minuten Rechenzeit verbrauchen kann. Das heißt, wir sind bei ein paar hundert Dollar für einen Problemdurchlauf und das summiert sich dann für so ein Projekt schon mal auf einige tausend Dollar auf. Der reine Preis für einen Cycle ist nicht immer das Entscheidende. Aber worauf ich hinaus wollte ist, das eine ist Effizienz, also sprich auch Kosteneffizienz, Zeiteffizienz. Das andere ist aber dann das große Thema Regulatorik. Wie passt ihr da rein? Ihr benutzt ja im Kern immer noch auch Sprachmodelle. Du hast vorhin gesagt Openweight zum Beispiel, aber auch Kostos. Wie funktioniert das bei euch? Wie könnt ihr euren Kunden da in dieses Framework einpassen? Also wir haben zum einen im Grunde ja diese Verarbeitungsschritte über diese Logikketten, haben wir eben darüber gesprochen. Damit kriegst du im Grunde dieses Thema der Nachvollziehbarkeit und der Transparenz in die Entscheidungen rein. Das ist mal das eine. Das zweite ist natürlich sozusagen, es ist immer noch ein Sprachmodell, das heißt das Weltwissen des Sprachmodells basiert am Ende des Tages eben darauf, was da an Trainingsdaten reingeflossen sind. Das kennst du in den wenigsten Modellen. Wir experimentieren gerade mit dem ersten Modell, das komplett offen ist inklusive Trainingsdaten. Olmo 2 von dem Ellen Institute. Da machen wir auch relativ gute Erfahrungen. Wir sind relativ sicher, dass wir in wenigen Wochen damit quasi auch am Start sein können. Also dass wir sozusagen eine funktionsfähige Denkmaschine mit diesem Olmo Modell irgendwie am Start haben. Aber wir können natürlich, also wir können sozusagen das Problem der nicht offengelegten Trainingsdaten in Olama Modell, das kriegen wir natürlich nicht gelöst. Aber wir können natürlich mit Blick auf die Regulatorik, also mit Blick auf die Anwendung im Rahmen unserer Denkmaschine sicher gehen, dass wir, ich sag mal so Unit-Test-artig, die also quasi einzelne sehr eng definierte Probefragen und nicht nur eine, sondern hunderte oder tausende davon im Prinzip, wie wollen wir sagen, vor Benutzung des Systems einmal definieren. Und die sozusagen auch im Zeitraum X, einmal pro Woche, einmal pro Monat, im Grunde irgendwie da durchlaufen, um sicher zu gehen, dass wir sozusagen, also das Basisverhalten des Modells, dass das sozusagen nicht deterministisch von uns sozusagen beschreibbar ist, aber dass wir mit einer hinreichend hohen Sorgfalt eben Sorge dafür tragen, dass wir verstehen, wie sich das Modell verhält. Und das eben kombiniert mit den logischen Schlussfolgerungen, also mit dieser, ich nenne es mal, lückenlosen Nachvollziehbarkeit der logischen Schlüsse, die im Übrigen theoretisch auch falsch sein können. Also das ist überhaupt nicht, dass die logischen Schlüsse, also Menschen kann irgendwie auch eine falsche Schlussfolgerung ziehen, aber das ist sozusagen eine Kombination dieser Nachvollziehbarkeit der Schlüsse und dem Basismodell, auf dem diese Schlüsse sozusagen erzeugt werden, nämlich dem Sprachmodell. Damit im Grunde diese Anforderungen an diese, das BSI nennt ja solche Dinge dann Informationsverbund, also sprich das, was wir Menschen als System bezeichnen, dass wir also das Verhalten, dieses sogenannten Informationsverbund, damit hinreichend gut bewerten, messen und letztlich halt auch steuern können. Worauf ich hinaus will ist, hast du ja gerade schon gesagt, die Trainingsdaten zum Beispiel von solchen Modellen wie Lama kennt ihr einfach nicht. Wie geht ihr damit um, wenn ein Kunde jetzt sagt, ich möchte aber sicher gehen, dass da kein Bias drin ist. Was macht ihr dann? Also das sag ich ja. Also im Prinzip, wir können sozusagen den Bias nicht auf Ebene der Quelldaten messen, aber wir können ihn auf Ebene des Verhaltens des Modellmessens, indem wir halt im Grunde Testdaten oder Testfragen quasi auf das Modell geben und dann eben den Bias messen, der in den Antworten kommt. Und im Grunde dann halt, ich sag mal, mit dem Kunden gemeinsam ein Threshold, also quasi eine Art von Schwelle definiert, ab der dann eben ein Bias akzeptabel ist oder eben nicht. Und wenn man dann sagt, ein Bias ist eben nicht akzeptabel, schlicht und ergreifend, dann kommt das Modell eben nicht in Frage. Oder man muss halt im Grunde nochmal einen Antwortfilter vor die Modelle schalten, das kann man sozusagen in unserer Systemarchitektur theoretisch auch abbilden. Das ist wie eine Art Compliance-Check, also man kennt das vorne, man hat Compliance-Checks beim Input und du kannst auch theoretisch einen Compliance-Check quasi nochmal auf die Ausgabe des Modells setzen. Aber im Grunde genommen muss man dann hoffen, dass die Testdaten den realen Prozess auch wirklich abbilden. Ich sag das deswegen, weil wir hatten erst kürzlich jetzt eine Geschichte, das ist vielleicht auch nochmal ganz instruktiv von Amsterdam, die haben, die Stadtverwaltung von Amsterdam hat versucht eine KI aufzusetzen, die über Sozialhilfeanträge entschieden hat. Und weil es damit in der Vergangenheit ganz viele Probleme gab, haben sie gesagt, okay, wir setzen das Projekt jetzt nochmal ganz sauber auf. Das heißt, wir gucken uns auch die Trainingsdatensätze an, wir sorgen dafür, dass da kein Bias drin ist und so weiter und so fort. Wir beteiligen Betroffene. Das ganze Programm haben sie vorbildlich durchgezogen und es schien auch erst zu funktionieren. Und dann haben sie eine Testphase gemacht von drei Monaten und dann haben das verglichen, was die Maschinen gemacht haben mit dem, was menschliche Entscheider gemacht haben und haben halt festgestellt, nee, in der Praxis war es trotzdem so, dass der Bias um 15 Prozent zum Teil höher war als bei den menschlichen Entscheidern. Und dann haben sie das Projekt stumpf gestoppt, weil sie gesagt haben, wir wissen nicht warum. Das kann auch vorkommen. Ja, aber der Unterschied ist, dass du im Grunde bei dem, was du gerade beschreibst, nutzt du ja letztlich, sitzt die Entscheidung ja im Modell. Und bei uns sitzt sie nicht im Modell. Das ist der entscheidende Punkt. Also wir nutzen das Modell, um Teile der Entscheidung zu verarbeiten, aber die Entscheidung an sich entsteht aus dem Wechselwirkung dieses Steuerwerks, diesen logischen Aktionen und der aus diesen Schlussfolgerungen, die entstandene Schlussfolgerung, deren anschließende Validierung. Also das heißt sozusagen, diese Wechselwirkung führt halt dazu, also ich würde mal sagen, dass man jetzt ex ante, also sprich vorab jetzt nicht ausschließen kann, dass irgendeine Art von Bias mit drin ist. Aber du kannst ja quasi die einzelnen Verarbeitungsschritte des Modells, die kannst du eben mit solchen Testfragen bewerten, messen sozusagen. Und im Grunde, also das, was das Modell in unserem System tut, nämlich die Schlussfolgerung zu ziehen, das kannst du sehr sehr gut mit diesen Testfragen messen sozusagen, wie gut und zuverlässig diese Schlussfolgerungen sind. Und das ist der Fall, den du beschreibst, das war natürlich nicht genau, was Amsterdam wie in welcher Form exakt getan hat, aber das, was man typischerweise tut, das wir auch bei vielen Kunden sehen, wenn wir reinkommen ist, sie haben halt gesagt, sie geben eine Aufgabenbeschreibung, hier Case XY und das ist der Antrag und hier und das und das und hier Modell machen wir, salopp gesagt. Und dann hast du sozusagen diesen Bias aus der Korrelation, also die statistische Korrelation der Trainingsdaten. Aber das ist ein fundamental anderes Funktionsprinzip, als das, was wir tun in unserem System. Insofern seid ihr da ein Stück weit sicherer. Ein anderer Punkt ist ja, wo dann hier zum Beispiel, insbesondere Unternehmen vielleicht ein bisschen zögerlich sind, was den KI-Einsatz angeht, ist dann halt so die technische Abhängigkeit. Also sprich, ich habe im Kern ein großes Sprachmodell, möglicherweise sogar ein Close Source Sprachmodell. Ich habe irgendwas, was in der Cloud läuft bei irgendwelchen US-Unternehmen und so. Kann ich mich darauf verlassen, dass das morgen immer noch so funktioniert, wie es heute funktioniert? Kann ich mich darauf verlassen, dass die Preise stabil bleiben, dass vielleicht die regulatorischen Rahmenbedingungen auch sich nicht grob verändern? Bei all diesen Fragen wäre ich relativ zögerlich. Also ich würde sagen, nee, kann ich mich nicht so darauf verlassen. Wie geht ihr damit um? Also wir haben im Prinzip unsere Technologie quasi, also diesen Teil des Steuerwerks und des Speichers, von dem ich gesprochen habe. Also das System zur Erinnerung besteht aus drei Teilen. Sprachmodell, Steuerungsanheit, Arbeitsspeicher. Den Teil der Steuerungsanheit und des Arbeitsspeichers kannst du, wenn du das möchtest, auf deinen eigenen Server betreiben. Kannst du auf einer europäischen Cloud betreiben, kannst du auf einem Hyperscaler betreiben. Brauchst du eine Linux-Maschine, einfach so. Und das Sprachmodell, also wir sind sprachmodell-agnostisch per Definition. Das heißt nicht, dass man jedes Sprachmodell immer für alles nutzen kann, aber prinzipiell kannst du alle halbwegs modernen Sprachmodelle anbinden. Und in Kombination mit dem, was wir gerade besprochen haben, also mit dem Messen und Bewerten des Verhaltens und Abhängigkeit des Use Cases. Aber im Prinzip kannst du quasi alle halbwegs modernen Sprachmodelle anbinden und kannst darüber zum Beispiel entscheiden, wir haben zum Beispiel eine Partnerschaft mit einem deutschen Cloud-Anbieter, dass du ein quelloffenes Modell, das auf einer deutschen Cloud betrieben wird, im Grunde als Modell deiner Wahl in unser System anbinden möchtest. Alternativ, ich hatte es eben schon mal erwähnt, 5.4. So ein kleines Sprachmodell, das quasi auf High-End-Consumer-Grafikkarten passt. Die kannst du dir zum Beispiel in deinen eigenen Keller stellen. Die kosten zwar immer noch, also die sind jetzt, würde man sagen, da muss man immer noch ein paar Euro auf den Tisch legen, um die zu kaufen, aber sie sind überhaupt lieferbar. Im Gegensatz zu den High-End-Karten, auf die du ja teilweise Monate, wenn nicht ein, zwei Jahre warten musst und die dir dann sozusagen in Kontingenten zugeteilt werden, also sprich, wo du als normales Unternehmen eigentlich gar keine Möglichkeit hast, sie überhaupt zu erwerben, kannst du im Grunde, wenn wir das System mit kleinen Sprachmodellen anbieten, eben auch das komplette System inklusive Sprachmodell in deinem Keller betreiben, wenn du es möchtest. Das heißt, was du gerade ansprichst, durch diese Offenheit, sichert ihr euch gegen das, was Wolfgang angesprochen hat, wiederum ab. Korrekt. Zusammengefasst. Ich habe noch, bevor wir aus der Zeit rausrennen, auch eine Frage zu dem ganzen Thema Transparenz, Halluzination. Darüber haben wir noch gar nicht gesprochen. Du hast ja sehr ausführlich beschrieben, wie ihr eben mit den Modellen arbeitet, diese Steuerungseinheit draufsetzt und so könnte ich mir vorstellen, ist es dann auch eben, dass das System weniger halluzinieren soll. Richtig? Genau. Also wir sind in der Lage, quasi in diesen Denkketten, die ich beschrieben habe, das System erkennt im überwiegenden Teil, nicht immer und ich kann es dir nicht garantieren, sozusagen formal juristisch, aber im überwiegenden Teil der Fälle, wenn es falsch geschlussfolgert hat. Also das System erkennt selbst. Ich habe mich in irgendeinem Widerspruch verstrickt. Und das System ist im Grunde, wenn wir sagen, verhält sich so, dass man sagt, okay, bevor ich eine falsche Antwort gebe, gebe ich lieber gar keine. Das heißt nicht, dass nicht eine falsche Schlussfolgerung durchrutschen kann, salopp gesagt. Aber eben dieses Risiko dieser sogenannten false positives, sprich der Halluzination, ist signifikant reduziert gegenüber reinen modellbasierten Ansätzen. Das klingt jetzt eigentlich immer alles ganz positiv, was du erzählt hast. Reduziertes Risiko, natürlich auch, wir hatten über Regulatorik gesprochen, Offenheit für andere Modelle, Absicherung, falls eben Unternehmen wegbrechen, Zusammenarbeiten nicht mehr klappen. Aber es gibt doch bestimmt auch Herausforderungen, mit denen ihr gerade umgehen müsst, oder? Genau, was funktioniert nicht so gut? Das Ding läuft irgendwie zehn Sekunden und trifft ja eine komplexe Entscheidung in dieser Zeit. Also das muss man ganz klar sagen, das ist sozusagen eine Constraint. Dann sind wir natürlich, wir nutzen faktisch Text als Trägermedium. Also so wie ein Prozessor quasi Binärdaten, Nullen und Einsen für Rechnung benutzt, nutzen wir unstrukturierten Text, also menschenlesbaren Text als Trägermedium für Gedanken. Das hat natürlich immer noch, das hat ich eben schon mal erwähnt, eine statistische Restunschärfe, wie sie es mal nennen, bei der Verarbeitung durch das Sprachmodell. Das Sprachmodell ist ein semantischer Prozessor, das kann sozusagen bei seiner Verarbeitung einen Fehler machen. Das heißt also da sind wir eben in der Lage, wenn wir jetzt einen Fall haben, wo man sagt, ich brauche eine 100% formal juristische Garantie, dass alle diese Ergebnisse, also quasi ein mathematischer, also ein theoretischer Mathematiker, der formal prüfen und nachweisen kann, dass 100% Genauigkeit erreichbar ist. Das ist nicht unser Ziel, das können wir nicht und das ist auch erstmal nicht unser Ziel. Also da müssen wir halt im Grunde einfach abstufen, dass man sagt, die vollautonome Entscheidungsfindung für Fälle, wo dann tatsächlich auch ein substanzielles Haftungsrisiko für das Unternehmen besteht, das ist nicht das, was wir tun wollen. Sondern wir wollen im Grunde diese Entscheidungen zwar durchführen, auch teilautonom oder auch in einem sehr hohen Autonomiegrad, aber eben dort, wo du als Mensch oder wo du eben als Unternehmen ein Haftungsrisiko hast, brauchst du weiterhin einen Mensch dort zu haben. Also das ist nicht unser Ziel sozusagen, diese Vollautonomie. Und da müssen wir halt in diesem Spannungsfeld zwischen Durchlaufzeiten, zwischen wie oft, also wenn man sagt jetzt im Engineering Bereich, ich will jetzt 300 Designs von einer Pkw-Achse, statt den 3, die ich als Mensch machen kann, da musst du natürlich gucken, wie passt das quasi in mein Zeitfenster rein, bis ich halt ein finales Design brauche. Natürlich muss man da aber Kosten sprechen, weil jeder Durchlauf verbraucht ja diese Denkkredits, aber dahinter liegen ja Sprachmodell-Tokens und wenn ich die halt, die muss ich irgendwie einkaufen oder ich hab sie halt quasi im eigenen Keller, aber dann muss ich halt die Abschreibung der Grafikkarte und des Computers, also da gibt es natürlich halt Constraints, die man beachten muss. Aber unser Ansatz ist ja zu sagen, wir wollen im Grunde ein neues Paradigma erzeugen, oder faktisch haben wir das erzeugt und wollen dafür werben, dass KI aus einer Art von Denkmaschine funktioniert strukturell besser als KI aus dem Modell, einfach gesagt. Also das ist sozusagen unser Antritt und das ist unser Leistungsversprechen. Es funktioniert nicht immer 100% in allen Fällen, weil wir werden immer, also solange Modelle im Spiel sind, ist immer Stochastische Statistik im Spiel, aber es funktioniert aus den genannten Gründen strukturell und signifikant besser als Modelle alleine. Es gibt ja in dem Zusammenhang spannende Forschungsarbeiten zu Modellen mit anderen Architekturen, zum Teil veränderte Architekturen, Meta macht da viel mit diesen VJPA Modellen zum Beispiel. Guckt ihr euch sowas an oder sagt ihr, ah ok. Das wäre ja dann vielleicht nochmal eine Möglichkeit, um aus dieser Begrenzung auch rauszukommen. Also wir haben tatsächlich auch gerade im Juli eine eigene Forschungsdoktor gegründet. Wir werden auch dort jetzt tatsächlich diese Art der Forschung, also systembasierte Forschung, modellbasierte Forschung intensivieren. Wir behaupten auch nicht, dass wir am Ziel sind, also im Gegenteil, wir stehen eigentlich faktisch in Wahrheit am Anfang dieser Systemdiskussion oder Architekturdiskussion. Und wir glauben, dass wir eigentlich mit dieser Dreierarchitektur, wie wir sie beschrieben haben, noch ein gutes Stück weit kommen werden. Aber das wird sicherlich nicht die einzige Architektur sein und es wird auch nicht die letzte Architektur sein. Aber wir sagen halt, wir treten dafür an zu sagen, Modelle alleine sind es nicht. Klare Aussage. Ihr steht am Anfang, aber wir stehen leider am Ende dieser Podcast-Folge. Ich würde dich aber seit junges Unternehmen gerne als letzte Frage noch fragen. Du hast ein bisschen gerade schon den Ausblick in die Zukunft gegeben. Die nächsten fünf Jahre fass einmal ganz knackig zusammen. Was sind da eure Ziele bei Embraceable AI? Ja also wir werden jetzt natürlich kurz- bis mittelfristig weitere Systemgenerationen an den Start bringen. Wir werden auch die Fähigkeit für Funktionsaufrufe einbetten. Wir werden sozusagen die Fähigkeit des Systems prinzipiell erweitern. Und unser Ziel ist es im Grunde in diese Prozesse reinzukommen, also in Prozesse, Prozessketten, wie wir so besprochen haben. Wo wir entweder Stand heute nicht schnell genug sind, Stichwort Verwaltung. Wo wir absehbarerweise durch Verrentungen etc. noch längere Bearbeitungszeiten erleiden werden müssen. Und insbesondere an die Stellen, wo wir im Grunde neue Wertschöpfung erzeugen können, wie beispielsweise Materialforschung oder Design. Da wollen wir im Prinzip diese Art von System als im Grunde eine leistungsstarke digitale Arbeitskraft reinbringen. Nicht um Menschen zu ersetzen keinsterweise, sondern im Grunde die Fähigkeiten zu augmentieren, um mehr Wertschöpfung zu erzeugen und insgesamt als Gesellschaft, als Unternehmen, Verwaltung etc. einfach schneller zu werden. Dann Christian, danke ich dir, dass du heute bei uns zu Gast gewesen bist. Dann würde ich sagen, für diese Podcast-Folge von T3N Interview kommen wir zum Ende. Schön, dass ihr eingeschaltet habt und wir hören uns nächste Woche mit einer neuen Folge wieder. Auf Wiederhören. Werbung Bei T3N geben wir mit gutem Tech-Journalismus Orientierung. Unabhängig, kritisch und zukunftsgewandt. Wenn du das feierst, unterstütz uns doch mit einem Abo. Den Link gibt's in den Shownotes. Werbung Ende
Key Points:
Christian Gilcher, Gründer von Embraceable AI, zu Gast im T3N Interview.
Embraceable AI bietet Grundlagentechnologie und Workflow-Modelle im Bereich künstliche Intelligenz.
Technologie von Embraceable AI ermöglicht zuverlässige und leistungsfähige KI-Workflows für Unternehmen.
Summary:
In einem T3N Interview spricht Christian Gilcher, Gründer von Embraceable AI, über die Technologien seines Unternehmens im Bereich künstliche Intelligenz. Embraceable AI bietet Grundlagentechnologie sowie Workflow-Modelle an, um KI-Workflows für Unternehmen zu erleichtern. Die Technologie von Embraceable AI ermöglicht es Unternehmen, KI-Modelle zu optimieren und Workflows effizienter abzubilden. Durch die Anbindung von Wissensquellen können komplexe Prozesse wie die Geldwäscheprüfung im Bankenwesen verbessert werden. Embraceable AI arbeitet mit verschiedenen Sprachmodellen, wie dem Lama 3.3 und GPT-4.1, und bietet eine flexible Nutzung von KI-Technologien. Durch die Kombination von Sprachmodellen und logischen Constraints ermöglicht Embraceable AI Unternehmen die zuverlässige Durchführung komplexer Prozesse und schafft Mehrwert durch effiziente KI-Workflows.
FAQs
Embraceable AI bietet Technologien zur Verbesserung von KI auf Grundlagenebene und Workflow-Abbildungen an.
Die Technologie von Embraceable AI ermöglicht Zuverlässigkeit und Qualität in mehrstufigen KI-Workflows, was zu einem deutlichen Nutzen für Unternehmen führt.
Embraceable AI ist modellagnostisch und arbeitet mit Modellen wie Openweight und GPT-4.1.
Embraceable AI nutzt Sprachmodelle zur Generierung von Hypothesen und setzt logische Constraints außerhalb des Systems, um die Entscheidungsfindung zu steuern.
Durch die Kombination von Sprachmodellen mit einer Steuerungseinheit und logischen Regeln erreicht Embraceable AI eine höhere Zuverlässigkeit und Präzision in der Entscheidungsfindung.
Beispielanwendungen umfassen die automatisierte Prüfung von Geldwäsche in Banken und komplexe steuerliche Bewertungen in Unternehmen.
Chat with AI
Ask up to 5 questions based on this transcript.
No messages yet. Ask your first question about the episode.