Ten przewodnik zilustruje proces wykorzystania podsumowania rozmowy w LangChain.
Jak korzystać z podsumowania rozmowy w LangChain?
LangChain udostępnia biblioteki takie jak ConversationSummaryMemory, które umożliwiają wyodrębnienie pełnego podsumowania czatu lub rozmowy. Można go użyć do uzyskania głównych informacji z rozmowy bez konieczności czytania wszystkich wiadomości i tekstów dostępnych na czacie.
Aby poznać proces korzystania z podsumowania konwersacji w LangChain, po prostu wykonaj następujące kroki:
Krok 1: Zainstaluj moduły
Najpierw zainstaluj framework LangChain, aby uzyskać jego zależności lub biblioteki, używając następującego kodu:
pip zainstaluj langchain
Teraz zainstaluj moduły OpenAI po zainstalowaniu LangChain za pomocą polecenia pip:
pip zainstaluj openai
Po zainstalowaniu modułów, po prostu skonfiguruj środowisko używając poniższego kodu po pobraniu klucza API z konta OpenAI:
import Tyimport przejść dalej
Ty . około [ „OPENAI_API_KEY” ] = przejść dalej . przejść dalej ( „Klucz API OpenAI:” )
Krok 2: Korzystanie z podsumowania rozmowy
Rozpocznij proces korzystania z podsumowania konwersacji, importując biblioteki z LangChain:
z łańcuch językowy. pamięć import Podsumowanie RozmowyPamięć , Historia wiadomości czatuz łańcuch językowy. llms import OpenAI
Skonfiguruj pamięć modelu za pomocą metod ConversationSummaryMemory() i OpenAI() i zapisz w nim dane:
pamięć = Podsumowanie RozmowyPamięć ( llm = OpenAI ( temperatura = 0 ) )pamięć. zapisz_kontekst ( { 'wejście' : 'Witam' } , { 'wyjście' : 'Cześć' } )
Uruchom pamięć, wywołując metodę zmienne_pamięci_ładowania() metoda wyodrębnienia danych z pamięci:
pamięć. zmienne_pamięci_ładowania ( { } )
Użytkownik może także uzyskać dane w formie rozmowy jak każdy podmiot z oddzielnym komunikatem:
pamięć = Podsumowanie RozmowyPamięć ( llm = OpenAI ( temperatura = 0 ) , wiadomości_powrotne = PRAWDA )pamięć. zapisz_kontekst ( { 'wejście' : 'Witam' } , { 'wyjście' : 'Cześć, jak się masz' } )
Aby oddzielnie uzyskać wiadomość od sztucznej inteligencji i ludzi, wykonaj metodę loading_memory_variables():
pamięć. zmienne_pamięci_ładowania ( { } )
Zapisz podsumowanie rozmowy w pamięci, a następnie uruchom pamięć, aby wyświetlić podsumowanie rozmowy/rozmowy na ekranie:
wiadomości = pamięć. pamięć_czatu . wiadomościpoprzednie_podsumowanie = „”
pamięć. przewidywanie_nowe_podsumowanie ( wiadomości , poprzednie_podsumowanie )
Krok 3: Korzystanie z podsumowania rozmowy z istniejącymi wiadomościami
Użytkownik może również uzyskać podsumowanie rozmowy toczącej się poza klasą lub czatem za pomocą wiadomości ChatMessageHistory(). Wiadomości te można dodać do pamięci, aby automatycznie wygenerowała podsumowanie całej rozmowy:
historia = Historia wiadomości czatu ( )historia. dodaj_wiadomość_użytkownika ( 'Cześć' )
historia. dodaj_wiadomość_ai ( 'Cześć!' )
Zbuduj model taki jak LLM, używając metody OpenAI(), aby wykonać istniejące komunikaty w pliku pamięć_czatu zmienny:
pamięć = Podsumowanie RozmowyPamięć. z_wiadomości (llm = OpenAI ( temperatura = 0 ) ,
pamięć_czatu = historia ,
wiadomości_powrotne = PRAWDA
)
Wykonaj pamięć za pomocą bufora, aby uzyskać podsumowanie istniejących wiadomości:
pamięć. bufor
Wykonaj następujący kod, aby zbudować LLM, konfigurując pamięć buforową za pomocą wiadomości czatu:
pamięć = Podsumowanie RozmowyPamięć (llm = OpenAI ( temperatura = 0 ) ,
bufor = '''Człowiek pyta maszynę pytającą o siebie
System odpowiada, że sztuczna inteligencja jest zbudowana na dobre, ponieważ może pomóc ludziom w wykorzystaniu ich potencjału''' ,
pamięć_czatu = historia ,
wiadomości_powrotne = PRAWDA
)
Krok 4: Korzystanie z podsumowania rozmowy w łańcuchu
Następny krok wyjaśnia proces wykorzystania podsumowania rozmowy w łańcuchu przy użyciu LLM:
z łańcuch językowy. llms import OpenAIz łańcuch językowy. więzy import Łańcuch Rozmów
llm = OpenAI ( temperatura = 0 )
rozmowa_z_podsumowaniem = Łańcuch Rozmów (
llm = llm ,
pamięć = Podsumowanie RozmowyPamięć ( llm = OpenAI ( ) ) ,
gadatliwy = PRAWDA
)
rozmowa_z_podsumowaniem. przewidywać ( wejście = 'Cześć, jak się masz' )
Tutaj zaczęliśmy budować łańcuchy, rozpoczynając rozmowę od uprzejmego zapytania:
Teraz włącz się do rozmowy, pytając nieco więcej o ostatni wynik, aby go rozwinąć:
rozmowa_z_podsumowaniem. przewidywać ( wejście = 'Powiedz mi więcej o tym!' )Modelka wyjaśniła ostatnią wiadomość szczegółowym wprowadzeniem do technologii AI czyli chatbota:
Wyodrębnij interesujące miejsce z poprzedniego wyniku, aby skierować rozmowę w określonym kierunku:
rozmowa_z_podsumowaniem. przewidywać ( wejście = „Niesamowite. Jak dobry jest ten projekt?” )Tutaj otrzymujemy szczegółowe odpowiedzi od bota, korzystając z biblioteki pamięci podsumowań rozmów:
To wszystko na temat korzystania z podsumowania rozmowy w LangChain.
Wniosek
Aby skorzystać z wiadomości podsumowującej konwersację w LangChain, wystarczy zainstalować moduły i frameworki wymagane do skonfigurowania środowiska. Po ustawieniu środowiska zaimportuj plik Podsumowanie RozmowyPamięć biblioteka do tworzenia LLM przy użyciu metody OpenAI(). Następnie po prostu użyj podsumowania rozmowy, aby wyodrębnić szczegółowe dane wyjściowe z modeli, które są podsumowaniem poprzedniej rozmowy. W tym poradniku szczegółowo omówiono proces wykorzystania pamięci podsumowań rozmów za pomocą modułu LangChain.