Trenowanie modelu to całkiem co innego niż "interakcja z nim", żeby najpierw rozmawiać z własnym modelem, musisz już go wcześniej wytrenować na konkretnych danych, zależy co twój model ma realizowac, jaki ma być jego język etc.
następnie tak wytrenowany model mozna użyć np. do interakcji w modelu promptów.
Tworząc tzw "completions".
Możesz skorzystać w taniej wersji z OPEN AI i korzystać z gotowych modeli, tu masz dokumentacje:
https://platform.openai.com/docs/introduction
Albo zbudować własny model przy użyciu jakiegos GPT, niestety to kosztuje.
Proces douczania* (dziękuje @Benek) modelu nazywa się fine tuningiem, https://www.techtarget.com/searchenterpriseai/definition/fine-tuning#:~:text=Fine%2Dtuning%20is%20the%20process,suit%20more%20specialized%20use%20cases.
https://platform.openai.com/docs/guides/fine-tuning
Istnieje też tzw. RAG system, który pozwala na "nadanie kontekstu" dodatkowej wiedzy do istniejącego modelu w locie. Dzieki czemu twój model może być "bardziej precyzyjny, bardziej szczegółowy, możesz mu dodać dodatkową niezbędną wiedzę, do aktualnie wykonywanych działań"
https://www.datacamp.com/blog/what-is-retrieval-augmented-generation-rag
i żeby z każdą wypowiedzią i odpowiedzią się uczył bardziej.
Stary to nie da się tak zrobić jak Ci się wydaje, to są ogromne koszty na modelu lokalnym i wątpię, że aktualnie byłoby Cię na to stać.
Modele LLM które mamy dostepne, się tak też nie uczą, one potrafią przechowywać do "danej ilości tokentów", gpt-3.5 to raptem 4,096 tokenów a token reprezentuje, pojedynczy znak, fragment słowa, albo słowo, w języku PL to bardzo niewiele :)
żeby zbudować model "uczący się w locie', potrzebujesz zbudować właśną sieć neuronową lub korzystać z jakiejś rozbudowując ją