1. Einführung

Diese Dokumentation beschreibt die technische Spezifikation und Nutzung der Logicc AI API.

Die API bietet einen zentralen und einheitlichen Zugangspunkt (Endpoint) zu einer Vielzahl führender Sprachmodelle (LLMs). Alle Anfragen werden über einen einzigen, OpenAI-kompatiblen v1/chat/completions-Endpunkt abgewickelt.

Dieser Ansatz reduziert die Implementierungskomplexität erheblich, da Entwickler Modelle von verschiedenen Anbietern (darunter OpenAI, Google, Anthropic und Mistral) über eine konsistente und standardisierte API-Struktur nutzen können, ohne für jedes Modell eine separate Integration entwickeln zu müssen.

2. Authentifizierung

Für die Nutzung der Logicc AI API ist ein API-Schlüssel erforderlich.

Bezug des API-Schlüssels: Ein persönlicher API-Schlüssel wird vom Kundensupport an Kunden mit einer aktiven Subscription ausgegeben.

Verwendung des API-Schlüssels: Der API-Schlüssel muss bei jeder Anfrage im Authorization-Header als Bearer-Token übergeben werden.

Header-Beispiel:Authorization: Bearer DEIN_LOGICC_API_SCHLUESSEL

Ersetzen Sie DEIN_LOGICC_API_SCHLUESSEL durch Ihren bereitgestellten Schlüssel.


3. Endpunkt: Chat-Vervollständigung

Der primäre Endpunkt dient zur Generierung von Text-Antworten und ist vollständig mit dem OpenAI Chat Completions API Standard kompatibel.

POST <https://api.logicc.io/v1/chat/completions>

Header:

4. Anfrage-Body (Request Body)

Der Body der POST-Anfrage muss ein JSON-Objekt sein, das die folgenden Parameter enthält:

Feld Typ Erforderlich Beschreibung
model string Ja Die ID des Modells, das für die Anfrage verwendet werden soll. Eine vollständige Liste der verfügbaren Modell-Identifier befindet sich in Sektion 5.
messages array Ja Eine Liste von Nachrichtenobjekten, die den Konversationsverlauf abbilden. Jedes Objekt muss eine role (system, user, assistant) und content (Textinhalt) enthalten.
temperature number Nein Steuert die Zufälligkeit der Ausgabe. Werte nahe 2.0 führen zu kreativeren, Werte nahe 0.0 zu deterministischeren Ergebnissen. Standardwert: 1.0.
max_tokens integer Nein Die maximale Anzahl an Tokens, die in der generierten Antwort erzeugt werden sollen.
stream boolean Nein Wenn true, werden Antwort-Tokens als Server-Sent Events (SSE) gesendet, sobald sie verfügbar sind, was eine Streaming-Antwort ermöglicht. Standard: false.