1. Einführung
Model Context Protocol (MCP)-Server können die Funktionalität von LLMs erweitern. Der CaaS Platform MCP Server ist ein solches MCP. Es hilft dem LLM, die CaaS GraphQL-API zum Generieren und Ausführen von Abfragen zu verwenden.
Der CaaS Platform MCP Server befindet sich derzeit in einer frühen Phase der Entwicklung – ebenso wie das zugrunde liegende MCP-Konzept insgesamt. Geplante Erweiterungen und Optimierungen werden fortlaufend implementiert. Wir freuen uns in der Zwischenzeit über konstruktives Feedback sowie über Anregungen und Ideen für neue Funktionen.
2. Einrichtung
Um CaaS Platform MCP Server einzurichten, gehen Sie wie folgt vor:.
-
Öffnen Sie die MCP-Konfiguration Ihres KI-Tools..
-
Fügen Sie den MCP-Server hinzu, ähnlich wie im folgenden Beispiel:
{
"servers": {
"caas-platform-mcp": {
"url": "https://caas-mcp.e-spirit.cloud/sse"
}
}
}
3. Verwendung
Der CaaS Platform MCP Server bietet Prompts und Tools für die Interaktion mit der CaaS GraphQL-API. Um ideale Ergebnisse zu erzielen, verwenden Sie einen Prompt, um einen optimierten Text für Ihren LLM-Agenten zu erhalten, und verwenden Sie diesen anschließend.
3.1. Develop a CaaS GraphQL Query
Prompt
Wählen Sie diesen Prompt aus, geben Sie die Variablen ein und führen Sie ihn aus. Um ihn zu verwenden, stellen Sie sicher, dass Sie über die folgenden Informationen verfügen:
-
Die GraphQL-Endpunkt-URL:
<baseUrl>/graphql/<app>
. -
Einen API-Key für die obige URL:
<apikey>
. URL und API-Key können aus dem Dialog CaaS ConnectModulkonfiguration des FirstSpirit Projektes per copy-und-paste übernommen werden.`
-
Der Speicherort der GraphQL Schema Datei. Dies ist erforderlich, da das Schema sehr groß werden und Ihr LLM-Token-Limit überschreiten kann, wenn es bei jeder Anfrage abgerufen wird. Zu beachten ist, dass einige LLM-Clienten verlangen, dass sich die Schema-Datei im selben Repository wie der aktuelle Kontext befindet.
-
Die gewünschte Abfragebeschreibung: Eine kurze Beschreibung dessen, was Sie abfragen möchten. Beispiel: "Generiere eine Abfrage, welche die Titel und IDs aller Blog Kategorien zurückgibt."
Der CaaS Platform MCP Server gibt einen optimierten Prompt zurück, welcher es der KI ermöglicht, die bestmögliche Antwort zu generieren.
3.1.1. Details zum Prompt
Die folgenden Informationen werden bereitgestellt, da sich die MCP-Unterstützung noch in einem frühen Stadium befindet und noch nicht alle LLM-Clients diese unterstützen. Wenn Ihr Client dies nicht tut, können Sie stattdessen die folgenden Variablen manuell ausfüllen und direkt an Ihr LLM senden:
Create a GraphQL query for the following description: <description> QUERY </description>.
Use Endpoint URL: <url> ENDPOINT URL </url>.
Use Bearer Token: <token> APIKEY </token>.
The GraphQL schema is located at <schemalocation> SCHEMA </schemalocation>.
Read the relevant parts of the schema to create an optimised query (with variables if needed) that only fetches the necessary fields.
Only include fields in the query that are defined in the schema.
Verify that the suggested query with the suggested variables works by using the tool "graphql-execution".
Print out the final query and variables in your answer.
The following shows an example of a query without filters:
<query>query { homepagePageRefs { _id } }</query>
The following shows an example how to use filter in queries:
<query>query($filter: BsonDocument) { homepagePageRefs(filter: $filter) { _id } }</query>
With the actual filter being defined in variables property.
Always define the filter in variables, never directly in the query.
The variables must be provided as a native object. Do not stringify or escape the variables.
Filter options are based on MongoDB operators according to the RESTHeart syntax: https://restheart.org/docs/mongodb-rest/read-docs#filtering-documents
Filter nested field equals value: <variables>{ "filter": { "locale.identifier": "EN" } }</variables>
Filter value greater than: <variables>{ "filter": { "changeInfo.revision": {"$gt":75} } }</variables>
Filter multiple conditions with AND: <variables>{ "$and":[{"qty":{"$gt":75}},{"status":"D"}] }</variables>
3.2. graphql-execution
-Tool
Mit diesem Tool kann das LLM GraphQL-Abfragen an die CaaS-API senden. Es wird vom LLM verwendet, um zu überprüfen, ob die von ihm generierte Abfrage gültig ist und die erwarteten Ergebnisse liefert. Sie müssen Ihrem LLM die Berechtigung zur Verwendung dieses Tools erteilen, wenn es Sie dazu auffordert. Für optimale Ergebnisse wird das Tool durch den Develop a CaaS GraphQL Query
Prompt aufgerufen.
4. Rechtliche Hinweise
Der Content as a Service ist ein Produkt der Crownpeak Technology GmbH, Dortmund, Germany.
Für die Verwendung des Produkts gilt gegenüber dem Anwender nur die mit der Crownpeak Technology GmbH vereinbarte Lizenz.
5. Hilfe
Der Technical Support der Crownpeak Technology GmbH bietet qualifizierte technische Unterstützung zu allen Themen, die FirstSpirit™ als Produkt betreffen. Weitere Hilfe zu vielen relevanten Themen erhalten und finden Sie in auch in unserer Community.