Generative KI in Kombination mit neuronaler Suche

Sinequa stellt jetzt eine Reihe neuer Assistenten vor, die Generative KI (GenAI) mit neuronaler Suche verbinden. Die Assistenten nutzen in Unternehmen alle Inhalte, um kontextrelevante Einblicke und Empfehlungen zu generieren.

Jean Ferré, CEO bei Sinequa

Image:
Jean Ferré, CEO bei Sinequa

Das französische Unternehmen Sinequa ist ein Softwareanbieter, der großen und komplexe Organisationen eine intelligente Unternehmenssuch- und Analyseplattform bereitstellt. Die Beschäftigten der Anwenderunternehmen erhalten verwertbare Informationen in ihrem jeweiligen Arbeitsumfeld. Ziel ist ein informationsgetriebenes Unternehmen. Sinequa verfügt dabei über langjährige Erfahrung in Projekten für große Organisationen.

Die Kombination aus Generativer KI (GenAI) und neuronaler Suche wird als Retrieval-Augmented-Generation (RAG) bezeichnet. Sinequa sagt, dass die neuen KI-Assistenten weit über das RAG-Paradigma des Suchens und Zusammenfassens hinausgehen und komplexe, mehrstufige Aktivitäten ausführen, die auf Fakten beruhen.

Die Assistenten fassen nicht nur Suchergebnisse zusammen, sondern führen mehrstufige Workflows aus, um komplexe Aufgaben logisch fundiert zu erledigen –, wobei sie RAG je nach Bedarf einbeziehen, um das Wissen des Unternehmens vollständig zu nutzen. Dadurch soll sichergestellt werden, dass der Assistent genau, transparent und sicher mit den aktuellsten Informationen antwortet, einschließlich Inline-Zitaten zu Originalquellen und sofortiger Rückverfolgbarkeit - und Zugang - zu diesen Quellen.

Sinequa CEO und Mitbegründer Jean Ferré ist davon überzeugt, mit dieser Lösung auf dem Markt eine wichtige Neuerung anzubieten: "Nachdem wir mit speziell ausgebildeten kleinen Sprachmodellen (SLMs) Pionierarbeit bei der Nutzung von LLMs in der Suche geleistet haben, sind wir nun bereit, Suche und RAG mit generativen KI-Assistenten auf die nächste Stufe zu bringen."

Die Sinequa-Assistenten nutzen alle Unternehmensinhalte und -kenntnisse, um kontextrelevante Einblicke und Empfehlungen zu generieren und gleichzeitig Datenschutz und Data Governance zu gewährleisten. Optimiert für die Skalierung mit drei kundenspezifisch trainierten SLMs, nutzen sie jedes öffentliche oder private generative LLM (Cohere, OpenAI, Google Gemini, Microsoft Azure OpenAI, Aleph Alpha, Mistral.ai). Das Ergebnis sind valide Antworten zu jedem internen Thema, komplett mit Zitaten und voller Rückverfolgbarkeit zur Originalquelle.

Ein Framework von KI-Assistenten

Das Sinequa-Assistenten-Framework beinhaltet eine Reihe einsatzbereiter Assistenten sowie Tools zur Bestimmung benutzerdefinierter Assistenten-Workflows, mit denen Kunden einen Assistenten sofort einsetzen oder mehrere Assistenten über eine einzige Plattform auf Geschäftsszenarien hin anpassen und verwalten können:

● Augmented Employee, eine dialogorientierte Suchfunktion für das gesamte Unternehmenswissen, alle Anwendungen und Mitarbeitende eines Unternehmens

● Augmented Engineer bietet Konstruktionsteams eine einheitliche Ansicht von Projekten, Produkten und Teilen sowie die Möglichkeit, einen digitalen Faden zu konstruieren und zu durchsuchen.

● Augmented Lawyer mit Self-Service-Recherchefunktionen für alle Fallakten für Angehörige der rechtsberatenden Berufe

● Mit dem Augmented Asset Manager arbeiten Vermögensverwaltungsabteilungen

Die Assistenten können jedes öffentliche oder private generative LLM nutzen und lassen sich ohne Code oder zusätzliche Infrastruktur implementieren und aktualisieren.