Jak zbudować LLM i LLMChain w LangChain?

Jak Zbudowac Llm I Llmchain W Langchain



LangChain to framework z aplikacją z dziedziny przetwarzania języka naturalnego lub NLP do budowania modeli w językach podobnych do ludzkich. Modele te mogą być wykorzystywane przez ludzi do uzyskiwania odpowiedzi od modelu lub prowadzenia rozmowy jak każdy inny człowiek. LangChain służy do budowania łańcuchów poprzez przechowywanie każdego zdania w rozmowie i dalszą interakcję, wykorzystując je jako kontekst.

Ten post zilustruje proces budowania LLM i LLMChain w LangChain.







Jak zbudować LLM i LLMChain w LangChain?

Aby zbudować LLM i LLMChain w LangChain, po prostu wykonaj wymienione kroki:



Krok 1: Zainstaluj moduły

Najpierw zainstaluj moduł LangChain, aby móc korzystać z jego bibliotek do budowania LLM i LLMChain:



pip zainstaluj langchain





Kolejnym modułem wymaganym do zbudowania LLM jest OpenAI, który można zainstalować za pomocą polecenia pip:

pip zainstaluj openai



Krok 2: Skonfiguruj środowisko

Skonfiguruj środowisko, używając klucza API OpenAI z jego środowiska:

importuj nas
import getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('Klucz API OpenAI:')

Przykład 1: Zbuduj LLM za pomocą LangChain

Pierwszym przykładem jest zbudowanie dużych modeli językowych przy użyciu LangChain poprzez import bibliotek OpenAI i ChatOpenAI oraz użycie funkcji llm():

Krok 1: Korzystanie z modelu czatu LLM

Zaimportuj moduły OpenAI i ChatOpenAI, aby zbudować prosty LLM przy użyciu środowiska OpenAI z LangChain:

z langchain.chat_models importuj ChatOpenAI

z langchain.llms importuje OpenAI

llm = OpenAI()
chat_model = ChatOpenAI()
llm.predict('cześć!')

Modelka odpowiedziała „cześć”, jak pokazano na poniższym zrzucie ekranu:

Funkcja przewidywania() z chat_model służy do uzyskania odpowiedzi lub odpowiedzi z modelu:

chat_model.predict('cześć!')

Wynik pokazuje, że model jest do dyspozycji użytkownika zadającego pytania:

Krok 2: Korzystanie z zapytania tekstowego

Użytkownik może również uzyskać odpowiedzi z modelu, podając całe zdanie w zmiennej tekstowej:

tekst = 'Jaka byłaby dobra nazwa dla firmy produkującej kolorowe skarpetki?'

llm.predict(tekst)

Modelka zaprezentowała kilka kombinacji kolorystycznych kolorowych skarpetek:

Uzyskaj szczegółową odpowiedź od modela za pomocą funkcji przewidywania() z kombinacjami kolorów skarpetek:

chat_model.predict(tekst)

Krok 3: Używanie tekstu z treścią

Użytkownik może uzyskać odpowiedź z krótkim wyjaśnieniem:

z langchain.schema zaimportuj HumanMessage

tekst = 'Jaki byłby dobry tytuł dla firmy produkującej kolorowe ubrania'
wiadomości = [HumanMessage(content=text)]

llm.predict_messages(wiadomości)

Modelka wygenerowała tytuł dla firmy „Creative Clothing Co”:

Wytypuj wiadomość, aby uzyskać odpowiedź na nazwę firmy wraz z jej wyjaśnieniem:

chat_model.predict_messages(wiadomości)

Przykład 2: Zbuduj LLMChain przy użyciu LangChain

Drugi przykład naszego przewodnika buduje LLMChain, aby uzyskać model w formacie interakcji międzyludzkiej, aby połączyć wszystkie kroki z poprzedniego przykładu:

z langchain.chat_models importuj ChatOpenAI
z langchain.prompts.chat zaimportuj ChatPromptTemplate
z langchain.prompts.chat zaimportuj ChatPromptTemplate
z langchain.prompts.chat import  SystemMessagePromptTemplate z langchain.prompts.chat import HumanMessagePromptTemplate
z langchain.chains importuj LLMCain
z langchain.schema import BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

def parse(self, tekst: str):
zwróć tekst.strip().split(', ')

Zbuduj szablon modelu czatu, podając szczegółowe wyjaśnienie jego działania, a następnie zbuduj funkcję LLMChain() zawierającą biblioteki LLM, parser wyjściowy i chat_prompt:

szablon = '''Musisz pomóc w generowaniu list oddzielonych przecinkami
Pobierz kategorię od użytkownika i wygeneruj listę rozdzielonych przecinkami zawierającą pięć obiektów
Jedyne co powinno być obiektem z kategorii'''
system_message_prompt = SystemMessagePromptTemplate.from_template(szablon)
human_template = '{tekst}'
human_message_prompt = HumanMessagePromptTemplate.from_template(human_template)
#Skonfiguruj LLMChain ze strukturą zapytania
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
łańcuch = LLMCain(
llm=ChatOpenAI(),
zachęta=chat_prompt,
Output_parser=CommaSeparatedListOutputParser()
)
chain.run('kolory')

Modelka podała odpowiedź wraz z listą kolorów, gdyż w kategorii powinno znajdować się tylko 5 obiektów podanych w monicie:

To wszystko, jeśli chodzi o budowanie LLM i LLMChain w LangChain.

Wniosek

Aby zbudować LLM i LLMChain przy użyciu LangChain, wystarczy zainstalować moduły LangChain i OpenAI, aby skonfigurować środowisko przy użyciu klucza API. Następnie zbuduj model LLM przy użyciu chat_model po utworzeniu szablonu podpowiedzi dla pojedynczego zapytania do pełnego czatu. LLMChain służą do budowania łańcuchów wszystkich obserwacji w rozmowie i wykorzystania ich jako kontekstu interakcji. Ten post ilustruje proces budowania LLM i LLMChain przy użyciu frameworka LangChain.