Jak korzystać z podsumowania rozmowy w LangChain?

Jak Korzystac Z Podsumowania Rozmowy W Langchain



LangChain to framework, którego można używać do budowania modeli językowych przy użyciu ogromnej liczby zbiorów danych szkoleniowych zbudowanych w językach naturalnych. LangChain zapewnia biblioteki i zależności, których można używać do tworzenia chatbotów i modeli językowych, takich jak LLM, oraz zarządzania nimi. Modele te są najczęściej uważane za maszyny, z którymi można rozmawiać lub wydobywać pewne informacje na podstawie podpowiedzi napisanych w językach podobnych do ludzkich.

Ten przewodnik zilustruje proces wykorzystania podsumowania rozmowy w LangChain.

Jak korzystać z podsumowania rozmowy w LangChain?

LangChain udostępnia biblioteki takie jak ConversationSummaryMemory, które umożliwiają wyodrębnienie pełnego podsumowania czatu lub rozmowy. Można go użyć do uzyskania głównych informacji z rozmowy bez konieczności czytania wszystkich wiadomości i tekstów dostępnych na czacie.







Aby poznać proces korzystania z podsumowania konwersacji w LangChain, po prostu wykonaj następujące kroki:



Krok 1: Zainstaluj moduły

Najpierw zainstaluj framework LangChain, aby uzyskać jego zależności lub biblioteki, używając następującego kodu:



pip zainstaluj langchain





Teraz zainstaluj moduły OpenAI po zainstalowaniu LangChain za pomocą polecenia pip:

pip zainstaluj openai



Po zainstalowaniu modułów, po prostu skonfiguruj środowisko używając poniższego kodu po pobraniu klucza API z konta OpenAI:

import Ty

import przejść dalej

Ty . około [ „OPENAI_API_KEY” ] = przejść dalej . przejść dalej ( „Klucz API OpenAI:” )

Krok 2: Korzystanie z podsumowania rozmowy

Rozpocznij proces korzystania z podsumowania konwersacji, importując biblioteki z LangChain:

z łańcuch językowy. pamięć import Podsumowanie RozmowyPamięć , Historia wiadomości czatu

z łańcuch językowy. llms import OpenAI

Skonfiguruj pamięć modelu za pomocą metod ConversationSummaryMemory() i OpenAI() i zapisz w nim dane:

pamięć = Podsumowanie RozmowyPamięć ( llm = OpenAI ( temperatura = 0 ) )

pamięć. zapisz_kontekst ( { 'wejście' : 'Witam' } , { 'wyjście' : 'Cześć' } )

Uruchom pamięć, wywołując metodę zmienne_pamięci_ładowania() metoda wyodrębnienia danych z pamięci:

pamięć. zmienne_pamięci_ładowania ( { } )

Użytkownik może także uzyskać dane w formie rozmowy jak każdy podmiot z oddzielnym komunikatem:

pamięć = Podsumowanie RozmowyPamięć ( llm = OpenAI ( temperatura = 0 ) , wiadomości_powrotne = PRAWDA )

pamięć. zapisz_kontekst ( { 'wejście' : 'Witam' } , { 'wyjście' : 'Cześć, jak się masz' } )

Aby oddzielnie uzyskać wiadomość od sztucznej inteligencji i ludzi, wykonaj metodę loading_memory_variables():

pamięć. zmienne_pamięci_ładowania ( { } )

Zapisz podsumowanie rozmowy w pamięci, a następnie uruchom pamięć, aby wyświetlić podsumowanie rozmowy/rozmowy na ekranie:

wiadomości = pamięć. pamięć_czatu . wiadomości

poprzednie_podsumowanie = „”

pamięć. przewidywanie_nowe_podsumowanie ( wiadomości , poprzednie_podsumowanie )

Krok 3: Korzystanie z podsumowania rozmowy z istniejącymi wiadomościami

Użytkownik może również uzyskać podsumowanie rozmowy toczącej się poza klasą lub czatem za pomocą wiadomości ChatMessageHistory(). Wiadomości te można dodać do pamięci, aby automatycznie wygenerowała podsumowanie całej rozmowy:

historia = Historia wiadomości czatu ( )

historia. dodaj_wiadomość_użytkownika ( 'Cześć' )

historia. dodaj_wiadomość_ai ( 'Cześć!' )

Zbuduj model taki jak LLM, używając metody OpenAI(), aby wykonać istniejące komunikaty w pliku pamięć_czatu zmienny:

pamięć = Podsumowanie RozmowyPamięć. z_wiadomości (
llm = OpenAI ( temperatura = 0 ) ,
pamięć_czatu = historia ,
wiadomości_powrotne = PRAWDA
)

Wykonaj pamięć za pomocą bufora, aby uzyskać podsumowanie istniejących wiadomości:

pamięć. bufor

Wykonaj następujący kod, aby zbudować LLM, konfigurując pamięć buforową za pomocą wiadomości czatu:

pamięć = Podsumowanie RozmowyPamięć (
llm = OpenAI ( temperatura = 0 ) ,
bufor = '''Człowiek pyta maszynę pytającą o siebie
System odpowiada, że ​​sztuczna inteligencja jest zbudowana na dobre, ponieważ może pomóc ludziom w wykorzystaniu ich potencjału'''
,
pamięć_czatu = historia ,
wiadomości_powrotne = PRAWDA
)

Krok 4: Korzystanie z podsumowania rozmowy w łańcuchu

Następny krok wyjaśnia proces wykorzystania podsumowania rozmowy w łańcuchu przy użyciu LLM:

z łańcuch językowy. llms import OpenAI
z łańcuch językowy. więzy import Łańcuch Rozmów
llm = OpenAI ( temperatura = 0 )
rozmowa_z_podsumowaniem = Łańcuch Rozmów (
llm = llm ,
pamięć = Podsumowanie RozmowyPamięć ( llm = OpenAI ( ) ) ,
gadatliwy = PRAWDA
)
rozmowa_z_podsumowaniem. przewidywać ( wejście = 'Cześć, jak się masz' )

Tutaj zaczęliśmy budować łańcuchy, rozpoczynając rozmowę od uprzejmego zapytania:

Teraz włącz się do rozmowy, pytając nieco więcej o ostatni wynik, aby go rozwinąć:

rozmowa_z_podsumowaniem. przewidywać ( wejście = 'Powiedz mi więcej o tym!' )

Modelka wyjaśniła ostatnią wiadomość szczegółowym wprowadzeniem do technologii AI czyli chatbota:

Wyodrębnij interesujące miejsce z poprzedniego wyniku, aby skierować rozmowę w określonym kierunku:

rozmowa_z_podsumowaniem. przewidywać ( wejście = „Niesamowite. Jak dobry jest ten projekt?” )

Tutaj otrzymujemy szczegółowe odpowiedzi od bota, korzystając z biblioteki pamięci podsumowań rozmów:

To wszystko na temat korzystania z podsumowania rozmowy w LangChain.

Wniosek

Aby skorzystać z wiadomości podsumowującej konwersację w LangChain, wystarczy zainstalować moduły i frameworki wymagane do skonfigurowania środowiska. Po ustawieniu środowiska zaimportuj plik Podsumowanie RozmowyPamięć biblioteka do tworzenia LLM przy użyciu metody OpenAI(). Następnie po prostu użyj podsumowania rozmowy, aby wyodrębnić szczegółowe dane wyjściowe z modeli, które są podsumowaniem poprzedniej rozmowy. W tym poradniku szczegółowo omówiono proces wykorzystania pamięci podsumowań rozmów za pomocą modułu LangChain.