Jak korzystać z parsera wyjściowego w LangChain?

Jak Korzystac Z Parsera Wyjsciowego W Langchain



LangChain to framework zawierający wszystkie zależności i biblioteki do budowania modeli, które mogą generować dane wyjściowe w postaci tekstu. Tekst wyjściowy jest wyodrębniany lub generowany w językach naturalnych, dzięki czemu ludzie mogą łatwo zrozumieć i porozumieć się. Jednakże dane wyjściowe powinny mieć odpowiedni format, a dobre, uporządkowane informacje mogą zapewnić użytkownikowi wszechstronną wiedzę.

Ten post ilustruje metodę korzystania z funkcji i klas wyjściowych analizatora składni poprzez framework LangChain.

Jak korzystać z parsera wyjściowego poprzez LangChain?

Parsery wyjściowe to wyjścia i klasy, które mogą pomóc w uzyskaniu uporządkowanego wyniku z modelu. Aby poznać proces korzystania z parserów wyjściowych w LangChain, po prostu wykonaj wymienione kroki:







Krok 1: Zainstaluj moduły
Najpierw rozpocznij proces korzystania z parserów wyjściowych, instalując moduł LangChain wraz z jego zależnościami, aby przejść przez proces:



pypeć zainstalować łańcuch językowy



Następnie zainstaluj moduł OpenAI, aby korzystać z jego bibliotek, takich jak OpenAI i ChatOpenAI:





pypeć zainstalować otwórz

Teraz skonfiguruj środowisko dla OpenAI za pomocą klucza API z konta OpenAI:



importuj nas
zaimportuj getpass

os.środowisko [ „OPENAI_API_KEY” ] = getpass.getpass ( „Klucz API OpenAI:” )

Krok 2: Importuj biblioteki
Następnym krokiem jest zaimportowanie bibliotek z LangChain w celu wykorzystania parserów wyjściowych w frameworku:

z langchain.prompts zaimportuj PromptTemplate
z langchain.prompts zaimportuj HumanMessagePromptTemplate
z pydantycznego pola importu
z langchain.prompts importuj ChatPromptTemplate
z langchain.output_parsers importuj PydanticOutputParser
z pydantycznego importu BaseModel
z pydantycznego walidatora importu
z langchain.chat_models importuj ChatOpenAI
z langchain.llms importuje OpenAI
od wpisania listy importu

Krok 3: Budowanie struktury danych
Budowanie struktury wyników jest istotnym zastosowaniem analizatorów wyjściowych w modelach wielkojęzycznych. Zanim przejdziemy do struktury danych modeli, konieczne jest zdefiniowanie nazwy modelu, którego używamy, aby uzyskać ustrukturyzowane dane wyjściowe z parserów wyjściowych:

nazwa_modelu = „tekst-davinci-003”
temperatura = 0,0
model = OpenAI ( Nazwa modelu =nazwa_modelu, temperatura =temperatura )

Teraz użyj klasy Joke zawierającej model BaseModel, aby skonfigurować strukturę danych wyjściowych w celu uzyskania żartu z modelu. Następnie użytkownik może łatwo dodać niestandardową logikę sprawdzania poprawności za pomocą klasy pydantic, która może poprosić użytkownika o umieszczenie lepiej sformułowanego zapytania/podpowiedzi:

klasowy żart ( Model podstawowy ) :
konfiguracja: str = pole ( opis = „zapytanie o wyświetlenie żartu” )
pointa: str = Pole ( opis = „odpowiedz na pytanie żartem” )
#Weryfikacja logiczna zapytania, ponieważ model musi je poprawnie zrozumieć
@ walidator ( 'organizować coś' )
def pytanie_końce_ze_znakiem_pytania ( cls, pole ) :
Jeśli pole [ - 1 ] ! = „?” :
podnieść błąd wartości ( „Źle sformułowane pytanie!” )
powrót pole

Krok 4: Ustawianie szablonu podpowiedzi
Skonfiguruj zmienną parsera zawierającą metodę PydanticOutputParser() zawierającą jej parametry:

parser = PydanticOutputParser ( obiekt_pydantyczny =Żart )

Po skonfigurowaniu parsera wystarczy zdefiniować zmienną podpowiedzi za pomocą metody PromptTemplate() ze strukturą zapytania/podpowiedzi:

zachęta = szablon podpowiedzi (
szablon = „Odpowiedz na zapytanie użytkownika. \N {format_instrukcje} \N {zapytanie} \N ' ,
zmienne_wejściowe = [ 'zapytanie' ] ,
częściowe_zmienne = { „format_instrukcje” : parser.get_format_instructions ( ) }
)

Krok 5: Przetestuj analizator wyjściowy
Po skonfigurowaniu wszystkich wymagań utwórz zmienną, która będzie przypisywana za pomocą zapytania, a następnie wywołaj metodę format_prompt():

żart_zapytanie = 'Opowiedz mi dowcip'
_input = zachęta.format_prompt ( zapytanie =żart_zapytanie )

Teraz wywołaj funkcję model(), aby zdefiniować zmienną wyjściową:

wyjście = model ( _input.to_string ( ) )

Zakończ proces testowania, wywołując metodę parser() ze zmienną wyjściową jako parametrem:

parser.analiza ( wyjście )

To wszystko, jeśli chodzi o proces korzystania z parsera wyjściowego w LangChain.

Wniosek

Aby użyć parsera wyjściowego w LangChain, zainstaluj moduły i skonfiguruj środowisko OpenAI przy użyciu jego klucza API. Następnie zdefiniuj model, a następnie skonfiguruj strukturę danych wyjściowych z logiczną walidacją zapytania dostarczonego przez użytkownika. Po skonfigurowaniu struktury danych wystarczy ustawić szablon podpowiedzi, a następnie przetestować parser wyjściowy, aby uzyskać wynik z modelu. Ten przewodnik ilustruje proces korzystania z parsera wyjściowego w środowisku LangChain.