Преглед на файлове

Merge pull request #4143 from ollama/mxyng/final-response

omit prompt and generate settings from final response
Michael Yang преди 1 година
родител
ревизия
aed545872d
променени са 1 файла, в които са добавени 0 реда и са изтрити 2 реда
  1. 0 2
      llm/ext_server/server.cpp

+ 0 - 2
llm/ext_server/server.cpp

@@ -1186,8 +1186,6 @@ struct llama_server_context
             {"model",               params.model_alias},
             {"tokens_predicted",    slot.n_decoded},
             {"tokens_evaluated",    slot.n_prompt_tokens},
-            {"generation_settings", get_formated_generation(slot)},
-            {"prompt",              slot.prompt},
             {"truncated",           slot.truncated},
             {"stopped_eos",         slot.stopped_eos},
             {"stopped_word",        slot.stopped_word},