Skip to Content

Welcome!

Share and discuss the best content and new marketing ideas, build your professional profile and become a better marketer together.

Sign up

You need to be registered to interact with the community.
This question has been flagged
1 Reply
10 Views

Om ni använder er av GPT-oss så kanske ni har märkt att den skickar ett ganska konstigt svar när den "tänker". Det här är en känd bugg i vllm som de jobbar på att fixa. Det som händer är att modellen skickar <| analysis |> och sen <| final |> men den tokenizer som används förstår inte desssa tecken så dessa försvinner och kvar blir bara ordet analysis utan några mellanslag efter sig. 

Vi släpper strax en liten workaround där vi manuellt byter dessa specialtecken till <think> och </think> vilket är standardsätter som andra modeller använder vilket gör att era applikationer kommer fungera som vanligt. 

Avatar
Discard
Author

Nu är detta problem löst! Ni behöver inte göra något annat än att använda stream: true i anropet.

Avatar
Discard