Sende Nachricht via LangChain an ChatGPT

Hier senden wir eine Nachricht via LangChain an ChatGPT und geben die Antwort aus.


Mit “chain” eine Verkettung vornehmen

Benutze “chain” um das Model und den Parsen miteinander zu verketten.


Template Prompts

Die Prompts mit einem Template vorbereiten.

Verwende das Template:

Die Zielsprache wird ausgelagert:


Weitere Verkettungen

Verkette das Template mit model & parser:


Server via FastAPI & REST Endpoint

Erstelle via FastAPI einen Server. Der Server lädt die Anwendung (app.py), nimmt die REST Anfrage entgegen und gibt die Übersetzung aus:


Chatbot

Dieser Bot gibt alle Anfragen 1:1 an ChatGPT weiter und dient daher als “Proxy”.


Chatbot inkl. Prompt Template


Chatbot inkl. Prompt Template & SessionID Abfrage

Chatbot Anfragen nur noch via Session-ID beantworten. SessionID Abfrage wurde wieder ausgebaut:


Chatbot inkl. Prompt Template & Limitierung der History Länge & Ausgabe als Stream

History Länge limitieren und die Antwort des Bots als Stream ausgeben. SessionID Abfrage wurde wieder ausgebaut.


Anfrage via Agent an Anthropic oder OpenAI senden

Innerhalb der REST-Anfrage kann von jetzt an angegeben werden, ob OpenAI (ChatGPT) oder Anthropic (Claude) verwendet werden soll.

Aufruf von Anthropic:

Aufruf von OpenAI:

Die transformers-Bibliothek, bereitgestellt von Hugging Face, ist eine der populärsten Bibliotheken zur Arbeit mit vortrainierten Modellen für die Verarbeitung natürlicher Sprache (NLP). Diese Bibliothek bietet eine einfache Möglichkeit, auf eine Vielzahl von NLP-Modellen zuzugreifen und diese zu verwenden, darunter Modelle für Textgenerierung, Klassifikation, Übersetzung und viele andere Aufgaben.
Die transformers-Bibliothek (pip install transformers) ist notwendig für:
Tokenisierung: Die transformers-Bibliothek enthält Tokenizer, die Text in kleinere Einheiten (Tokens) zerlegen. Dies ist entscheidend, um sicherzustellen, dass die Anzahl der Tokens innerhalb der von den Modellen festgelegten Grenzen bleibt.
Token-Zählung: Die Funktion trim_messages berechnet die Anzahl der Tokens in einem Text.