Handbuch:KI-Anbindungen Überblick/FAQ: Unterschied zwischen den Versionen

Die Seite wurde neu angelegt: „== What is the difference between the AI Editing Assistant and the Chatbot? == The AI Editing Assistant integrates an LLM (with "world knowledge," without "expertise" from the wiki) into the editing mode, allowing the content of a page to be edited directly. The Chatbot integration makes the expertise from the wiki available to a chatbot (RAG data export) and is primarily used to find and use existing information.…“
Markierung: Quelltext-Bearbeitung 2017
 
Keine Bearbeitungszusammenfassung
Markierung: Quelltext-Bearbeitung 2017
 
(20 dazwischenliegende Versionen von 2 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
== What is the difference between the AI Editing Assistant and the Chatbot? ==
== Was ist der Unterschied zwischen AI Editing Assistant und dem Chatbot? ==
The [[Manual:Extension/AIEditingAssistant|AI Editing Assistant]] integrates an LLM (with "world knowledge," without "expertise" from the wiki) into the editing mode, allowing the content of a page to be edited directly. The Chatbot integration  makes the expertise from the wiki available to a chatbot (RAG data export) and is primarily used to find and use existing information.
Der [[Handbuch:Erweiterung/AIEditingAssistant|AI Editing Assistant]] bindet ein LLM ein, das über allgemeines Weltwissen verfügt, aber nicht auf die Fachkenntnisse aus dem Wiki zugreift. So können Inhalte einer Seite direkt im Bearbeitungsmodus angepasst werden. Die [[Handbuch:Erweiterung/ChatBot|Chatbot-Integration]] macht das im Wiki vorhandene Wissen über einen Chatbot verfügbar (RAG-Datenexport) und unterstützt Nutzer dabei, bestehende Informationen schnell zu finden und zu verwenden.


== How does the integrated Chatbot work? ==
== Wie funktioniert der integrierte Chatbot? ==
The following process takes wiki content and transfers it to the chat interface:[[File:Integrated wiki chatbot.png|alt=Diagram of necessary components|thumb|500x500px|Chatbot system]]
Der im Folgenden beschriebene Prozess zeigt, wie Inhalte aus dem Wiki übernommen werden und überführt sie in die Chat-Schnittstelle:[[File:Integrated_wiki_chatbot.png|alt=Diagram of necessary components|thumb|500x500px|Chatbot System]]


# Provision of raw data from the wiki for processing in the RAG pipeline.
# Bereitstellung der Rohdaten aus dem Wiki zur Verarbeitung in der RAG-Pipeline.
# Request to the chatbot via the chat interface.
# Anfrage an den Chatbot über die Chat-Oberfläche.
# Transfer of the request to the RAG pipeline. There, the data is processed accordingly.
# Weiterleitung der Anfrage an die RAG-Pipeline; dort erfolgt die entsprechende Datenverarbeitung.
# Transfer to the LLM. Text generation by the language model.
# Übergabe an das LLM; Texterzeugung durch das Sprachmodell.
# Transfer to the chatbot.
# Rückgabe an den Chatbot.
# Transfer to the chat interface. Output there.
# Weiterleitung an die Chat-Oberfläche; dort erfolgt die Ausgabe.
{{Clear}}
<div style="clear: both;"></div>
== What are the LLM requirements? ==
== Welche Anforderungen muss das LLM erfüllen? ==


* BlueSpice does not provide the LLM that is a prerequisite for the chatbot feature. The LLM must be provided by the customer and the wiki must be able to communicate with it by exchanging API keys.
* BlueSpice stellt kein eigenes LLM bereit, das als Voraussetzung für die Chatbot-Funktion erforderlich ist. Das LLM muss vom Kunden bereitgestellt werden, und das Wiki muss über den Austausch von API-Schlüsseln mit dem LLM kommunizieren können.
* Currently, the following LLMs are supported:
* Derzeit werden die folgenden LLMs unterstützt:
** ''OpenAI'' and ''OpenAI''-compatible systems (including, for example, ''Microsoft Azure'', ''DeepSeek'', ''Google Gemini'')
** ''OpenAI'' und ''OpenAI''-kompatible Systeme (z.B. ''Microsoft Azure'', ''DeepSeek'', ''Google Gemini'')
** ''Ollama, Mistral AI'' (open source, e.g., via IONOS)
** ''Ollama, Mistral AI'' (Open Source, z.B. über IONOS)
* Cloud hosting requirement: Internet access for the LLM is required (common encryption).
* Anforderungen für Cloud-Hosting: Das LLM benötigt Internetzugang (übliche Verschlüsselung vorausgesetzt).


== How does the RAG pipeline work? ==
== Wie funktioniert die RAG-Pipeline? ==


* The wiki's content must be processed in a RAG pipeline so that the LLM can learn from it.
* Damit das LLM aus den Wiki-Inhalten lernen kann, müssen diese in einer RAG-Pipeline verarbeitet werden.
* Functions:
* Funktionen:
** Retrieval: Relevant information related to a user query is retrieved from the wiki (= document collections) and provided in context.
** Retrieval: Relevante Informationen zu einer Benutzeranfrage werden aus dem Wiki (=Dokumentsammlungen) abgerufen und im Kontext bereitgestellt.
** Generation: The LLM uses the retrieved information as context to formulate a content-based answer.
** Generation: Das LLM nutzt die abgerufenen Informationen als Kontext, um eine inhaltlich passende Antwort zu formulieren.
* Integrated  RAG pipeline (extension WikiRAG):
* Integrierte RAG-Pipeline (Erweiterung WikiRAG):
** Prepares the raw data for further processing in the LLM.
** Bereitet die Rohdaten für die Weiterverarbeitung im LLM auf.
** The RAG pipeline also handles access control (ACL) and metadata management.
** Übernimmt außerdem die Verwaltung von Zugriffskontrollen (ACL) und Metadaten.
* Customers can operate their own RAG pipeline. An external RAG pipeline must independently manage ACL and metadata management. BlueSpice only provides the raw data.
* Kunden können auch eine eigene RAG-Pipeline betreiben. Eine externe RAG-Pipeline muss die Verwaltung von ACL und Metadaten eigenständig übernehmen. BlueSpice stellt in diesem Fall nur die Rohdaten bereit.
* Limitations in the cloud: A dedicated RAG pipeline has to be accessible via the internet. However, this is not unprotected public access; rather, access is achieved using common security and encryption mechanisms.
* Einschränkungen in der Cloud: Eine eigene RAG-Pipeline muss über das Internet erreichbar sein. Dies bedeutet jedoch keinen ungeschützten öffentlichen Zugang, sondern erfolgt über gängige Sicherheits- und Verschlüsselungsmechanismen.


== Can some wiki content be excluded as data source? ==
== Können bestimmte Wiki-Inhalte als Datenquelle ausgeschlossen werden? ==
Yes,
Ja,


* the user namespace and non-content namespaces are fundamentally excluded from output in the chatbot.
* der Benutzernamensraum sowie Namensräume ohne Inhalt sind grundsätzlich von der Ausgabe im Chatbot ausgeschlossen.
* there is a [[Manual:Extension/ChatBot#Excluding pages as a data source|behavior switch in the page options]] that specifies whether a page should be indexed for the chatbot or not.
* in den [[Handbuch:Erweiterung/ChatBot#Seiten als Datenquelle ausschließen|Seiteneinstellungen]] gibt es einen Schalter, mit dem festgelegt werden kann, ob eine Seite für den Chatbot indexiert werden soll oder nicht.

Aktuelle Version vom 18. November 2025, 14:05 Uhr

Was ist der Unterschied zwischen AI Editing Assistant und dem Chatbot?[Bearbeiten | Quelltext bearbeiten]

Der AI Editing Assistant bindet ein LLM ein, das über allgemeines Weltwissen verfügt, aber nicht auf die Fachkenntnisse aus dem Wiki zugreift. So können Inhalte einer Seite direkt im Bearbeitungsmodus angepasst werden. Die Chatbot-Integration macht das im Wiki vorhandene Wissen über einen Chatbot verfügbar (RAG-Datenexport) und unterstützt Nutzer dabei, bestehende Informationen schnell zu finden und zu verwenden.

Wie funktioniert der integrierte Chatbot?[Bearbeiten | Quelltext bearbeiten]

Der im Folgenden beschriebene Prozess zeigt, wie Inhalte aus dem Wiki übernommen werden und überführt sie in die Chat-Schnittstelle:

Diagram of necessary components
Chatbot System
  1. Bereitstellung der Rohdaten aus dem Wiki zur Verarbeitung in der RAG-Pipeline.
  2. Anfrage an den Chatbot über die Chat-Oberfläche.
  3. Weiterleitung der Anfrage an die RAG-Pipeline; dort erfolgt die entsprechende Datenverarbeitung.
  4. Übergabe an das LLM; Texterzeugung durch das Sprachmodell.
  5. Rückgabe an den Chatbot.
  6. Weiterleitung an die Chat-Oberfläche; dort erfolgt die Ausgabe.

Welche Anforderungen muss das LLM erfüllen?[Bearbeiten | Quelltext bearbeiten]

  • BlueSpice stellt kein eigenes LLM bereit, das als Voraussetzung für die Chatbot-Funktion erforderlich ist. Das LLM muss vom Kunden bereitgestellt werden, und das Wiki muss über den Austausch von API-Schlüsseln mit dem LLM kommunizieren können.
  • Derzeit werden die folgenden LLMs unterstützt:
    • OpenAI und OpenAI-kompatible Systeme (z.B. Microsoft Azure, DeepSeek, Google Gemini)
    • Ollama, Mistral AI (Open Source, z.B. über IONOS)
  • Anforderungen für Cloud-Hosting: Das LLM benötigt Internetzugang (übliche Verschlüsselung vorausgesetzt).

Wie funktioniert die RAG-Pipeline?[Bearbeiten | Quelltext bearbeiten]

  • Damit das LLM aus den Wiki-Inhalten lernen kann, müssen diese in einer RAG-Pipeline verarbeitet werden.
  • Funktionen:
    • Retrieval: Relevante Informationen zu einer Benutzeranfrage werden aus dem Wiki (=Dokumentsammlungen) abgerufen und im Kontext bereitgestellt.
    • Generation: Das LLM nutzt die abgerufenen Informationen als Kontext, um eine inhaltlich passende Antwort zu formulieren.
  • Integrierte RAG-Pipeline (Erweiterung WikiRAG):
    • Bereitet die Rohdaten für die Weiterverarbeitung im LLM auf.
    • Übernimmt außerdem die Verwaltung von Zugriffskontrollen (ACL) und Metadaten.
  • Kunden können auch eine eigene RAG-Pipeline betreiben. Eine externe RAG-Pipeline muss die Verwaltung von ACL und Metadaten eigenständig übernehmen. BlueSpice stellt in diesem Fall nur die Rohdaten bereit.
  • Einschränkungen in der Cloud: Eine eigene RAG-Pipeline muss über das Internet erreichbar sein. Dies bedeutet jedoch keinen ungeschützten öffentlichen Zugang, sondern erfolgt über gängige Sicherheits- und Verschlüsselungsmechanismen.

Können bestimmte Wiki-Inhalte als Datenquelle ausgeschlossen werden?[Bearbeiten | Quelltext bearbeiten]

Ja,

  • der Benutzernamensraum sowie Namensräume ohne Inhalt sind grundsätzlich von der Ausgabe im Chatbot ausgeschlossen.
  • in den Seiteneinstellungen gibt es einen Schalter, mit dem festgelegt werden kann, ob eine Seite für den Chatbot indexiert werden soll oder nicht.