Jak budować aplikacje LangChain przy użyciu szablonu podpowiedzi i parsera wyjściowego?

Jak Budowac Aplikacje Langchain Przy Uzyciu Szablonu Podpowiedzi I Parsera Wyjsciowego



LangChain służy do tworzenia chatbotów i dużych modeli językowych, dzięki którym maszyna rozumie tekst lub dane w językach podobnych do ludzkich. Aby stworzyć chatbota w LangChain, użytkownik musi go przeszkolić na danych zapisanych ludzkim językiem, budując szablony podpowiedzi, aby maszyna mogła zrozumieć pytania. Funkcje parsera wyjściowego służą do uzyskania odpowiedzi z modelu po zrozumieniu zapytania.

Ten post zilustruje proces tworzenia aplikacji LangChain przy użyciu szablonu podpowiedzi i parsera wyjściowego.

Jak budować aplikacje LangChain przy użyciu szablonu podpowiedzi i parsera wyjściowego?

Aby zbudować aplikację LangChain przy użyciu szablonu podpowiedzi i parsera wyjściowego, po prostu zapoznaj się z tym prostym przewodnikiem:







Krok 1: Zainstaluj LangChain



Najpierw rozpocznij proces tworzenia aplikacji LangChain, instalując framework LangChain za pomocą „ pypeć ' Komenda:



pip zainstaluj langchain





Krok 2: Korzystanie z szablonu podpowiedzi

Po zainstalowaniu modułów LangChain zaimportuj plik „ Szablon podpowiedzi ” do zbudowania szablonu podpowiedzi poprzez podanie zapytania do modelu w celu zrozumienia pytania:



z langchain.prompts zaimportuj PromptTemplate

zachęta = PromptTemplate.from_template('Jaka jest dobra kombinacja kolorów dla {produktu}?')
Prompt.format(product='kolorowe skarpetki')

Dane wyjściowe automatycznie łączą zdanie z wartością „ produkt ' zmienny:

Następnie utwórz kolejny szablon podpowiedzi, importując biblioteki HumanMessagePromptTemplate, ChatPromptTemplate i SystemMessagePromptTemplate z LangChain:

z importu langchain.prompts.chat (
Szablon ChatPrompt,
Szablon komunikatu systemowego,
Szablon HumanMessagePrompt,
)
#Skonfiguruj szablon podpowiedzi dla modelu LangChain
szablon = 'Jesteś pomocnikiem, który tłumaczy {input_language} na {output_language}'
system_message_prompt = SystemMessagePromptTemplate.from_template(szablon)
human_template = '{tekst}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)

chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])

chat_prompt.format_messages(input_language='francuski', wyjście_język='angielski', tekst='lubię sztuczną inteligencję')

Po zaimportowaniu wszystkich wymaganych bibliotek po prostu skonstruuj niestandardowy szablon dla zapytań, używając zmiennej szablonu:

Szablony podpowiedzi służą jedynie do ustawienia szablonu zapytania/pytania i nie odpowiadają na nie w postaci odpowiedzi. Jednakże funkcja OutputParser() może wyodrębnić odpowiedzi, jak wyjaśniono w poniższej sekcji na przykładzie:

Krok 3: Korzystanie z parsera wyjściowego

Teraz zaimportuj bibliotekę BaseOutputParser z LangChain, aby oddzielić wartości tekstowe oddzielonymi przecinkami i zwrócić listę na wyjściu:

z langchain.schema zaimportuj BaseOutputParser

klasa CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, tekst: str):
zwróć tekst.strip().split(', ')

CommaSeparatedListOutputParser().parse('Dzięki, witamy')

Wszystko sprowadza się do zbudowania aplikacji LangChain przy użyciu szablonu podpowiedzi i parsera wyjściowego.

Wniosek

Aby zbudować aplikację LangChain przy użyciu szablonu podpowiedzi i parsera wyjściowego, po prostu zainstaluj LangChain i zaimportuj z niego biblioteki. Biblioteka PromptTemplate służy do budowania struktury zapytania, dzięki czemu model może zrozumieć pytanie przed wyodrębnieniem informacji za pomocą funkcji Parser(). Funkcja OutputParser() służy do pobierania odpowiedzi na podstawie wcześniej dostosowanych zapytań. W tym przewodniku wyjaśniono proces tworzenia aplikacji LangChain przy użyciu szablonu podpowiedzi i parsera wyjściowego.