Nowa wersja modelu językowego: Zephyr 7B Beta

Nowa wersja modelu językowego: Zephyr 7B Beta

Zespół HuggingFace H4, który specjalizuje się w badaniach i rozwoju modeli językowych, przedstawił nową wersję swojego modelu – Zephyr 7B Beta. Jest to część serii modeli Zephyr, zaprojektowanych z myślą o działaniu jako pomocni asystenci. Model ten wyróżnia się na tle innych dużych modeli językowych, takich jak GPT-3.5, Llama-13B-chat, Falcon-40B, a także dorównuje GPT-4 w testach Alpaca, mimo że jest 25 razy mniejszy od modelu GPT-3.5.

Zephyr 7B Beta to drugi model z serii /poprzednia wersja to Alfa/, który jest ulepszoną wersją modelu Mistral-7B-v0.1 od MistralAI. Wytrenowany został na mieszance publicznie dostępnych i syntetycznych zbiorów danych, wykorzystując metodę Direct Preference Optimization (DPO). Model ten jest dostępny na licencji MIT i obsługuje głównie język angielski.

W chwili wprowadzenia na rynek, nowy model od HuggingFace H4 jest najwyżej ocenianym modelem językowym z 7 miliardami parametrów w testach MT-Bench i AlpacaEval, osiągając lepsze wyniki niż większe otwarte modele, takie jak Llama2-Chat-70B.

Model Zephyr 7B Beta można używać na sprzęcie konsumenckim, korzystając z bibliotek takich jak transformers, gradio czy torch. Przetestowanie nowego modelu jest możliwe dzięki narzędziom takim jak oobabooga/text-generation-webui.

Co ciekawe, model Zephyr został wytrenowany w unikalny sposób. Jest to ulepszona wersja modelu Mistral 7B, wytrenowana przy użyciu dużego zbioru danych preferencji (UltraFeedback) i metody Direct Preference Optimization (DPO), zamiast tradycyjnej metody Proximal Policy Optimization (PPO). Dodatkowo, model ten przeszedł więcej epok treningu DPO niż jego wersja alfa, co przyczyniło się do osiągnięcia lepszych wyników w testach chatu.

Link do pobrania modelu: https://huggingface.co/HuggingFaceH4/zephyr-7b-beta

Dodaj komentarz