Diese Dokumentation beschreibt die technische Spezifikation und Nutzung der Logicc AI API.
Die API bietet einen zentralen und einheitlichen Zugangspunkt (Endpoint) zu einer Vielzahl führender Sprachmodelle (LLMs). Alle Anfragen werden über einen einzigen, OpenAI-kompatiblen v1/chat/completions-Endpunkt abgewickelt.
Dieser Ansatz reduziert die Implementierungskomplexität erheblich, da Entwickler Modelle von verschiedenen Anbietern (darunter OpenAI, Google, Anthropic und Mistral) über eine konsistente und standardisierte API-Struktur nutzen können, ohne für jedes Modell eine separate Integration entwickeln zu müssen.
Für die Nutzung der Logicc AI API ist ein API-Schlüssel erforderlich.
Bezug des API-Schlüssels: Ein persönlicher API-Schlüssel wird vom Kundensupport an Kunden mit einer aktiven Subscription ausgegeben.
Verwendung des API-Schlüssels:
Der API-Schlüssel muss bei jeder Anfrage im Authorization-Header als Bearer-Token übergeben werden.
Header-Beispiel:Authorization: Bearer DEIN_LOGICC_API_SCHLUESSEL
Ersetzen Sie DEIN_LOGICC_API_SCHLUESSEL durch Ihren bereitgestellten Schlüssel.
Der primäre Endpunkt dient zur Generierung von Text-Antworten und ist vollständig mit dem OpenAI Chat Completions API Standard kompatibel.
POST <https://api.logicc.io/v1/chat/completions>
Header:
Content-Type: application/jsonAuthorization: Bearer DEIN_LOGICC_API_SCHLUESSELDer Body der POST-Anfrage muss ein JSON-Objekt sein, das die folgenden Parameter enthält:
| Feld | Typ | Erforderlich | Beschreibung |
|---|---|---|---|
model |
string | Ja | Die ID des Modells, das für die Anfrage verwendet werden soll. Eine vollständige Liste der verfügbaren Modell-Identifier befindet sich in Sektion 5. |
messages |
array | Ja | Eine Liste von Nachrichtenobjekten, die den Konversationsverlauf abbilden. Jedes Objekt muss eine role (system, user, assistant) und content (Textinhalt) enthalten. |
temperature |
number | Nein | Steuert die Zufälligkeit der Ausgabe. Werte nahe 2.0 führen zu kreativeren, Werte nahe 0.0 zu deterministischeren Ergebnissen. Standardwert: 1.0. |
max_tokens |
integer | Nein | Die maximale Anzahl an Tokens, die in der generierten Antwort erzeugt werden sollen. |
stream |
boolean | Nein | Wenn true, werden Antwort-Tokens als Server-Sent Events (SSE) gesendet, sobald sie verfügbar sind, was eine Streaming-Antwort ermöglicht. Standard: false. |