Om ni använder er av GPT-oss så kanske ni har märkt att den skickar ett ganska konstigt svar när den "tänker". Det här är en känd bugg i vllm som de jobbar på att fixa. Det som händer är att modellen skickar <| analysis |> och sen <| final |> men den tokenizer som används förstår inte desssa tecken så dessa försvinner och kvar blir bara ordet analysis utan några mellanslag efter sig.
Vi släpper strax en liten workaround där vi manuellt byter dessa specialtecken till <think> och </think> vilket är standardsätter som andra modeller använder vilket gör att era applikationer kommer fungera som vanligt.
Welcome!
Share and discuss the best content and new marketing ideas, build your professional profile and become a better marketer together.
This question has been flagged
1
Reply
10
Views
Nu är detta problem löst! Ni behöver inte göra något annat än att använda stream: true i anropet.
Enjoying the discussion? Don't just read, join in!
Create an account today to enjoy exclusive features and engage with our awesome community!
Sign up