llama-chat.h 1.4 KB

123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051
  1. #pragma once
  2. #include <string>
  3. #include <vector>
  4. #include <cstdint>
  5. enum llm_chat_template {
  6. LLM_CHAT_TEMPLATE_CHATML,
  7. LLM_CHAT_TEMPLATE_LLAMA_2,
  8. LLM_CHAT_TEMPLATE_LLAMA_2_SYS,
  9. LLM_CHAT_TEMPLATE_LLAMA_2_SYS_BOS,
  10. LLM_CHAT_TEMPLATE_LLAMA_2_SYS_STRIP,
  11. LLM_CHAT_TEMPLATE_MISTRAL_V1,
  12. LLM_CHAT_TEMPLATE_MISTRAL_V3,
  13. LLM_CHAT_TEMPLATE_MISTRAL_V3_TEKKEN,
  14. LLM_CHAT_TEMPLATE_MISTRAL_V7,
  15. LLM_CHAT_TEMPLATE_PHI_3,
  16. LLM_CHAT_TEMPLATE_FALCON_3,
  17. LLM_CHAT_TEMPLATE_ZEPHYR,
  18. LLM_CHAT_TEMPLATE_MONARCH,
  19. LLM_CHAT_TEMPLATE_GEMMA,
  20. LLM_CHAT_TEMPLATE_ORION,
  21. LLM_CHAT_TEMPLATE_OPENCHAT,
  22. LLM_CHAT_TEMPLATE_VICUNA,
  23. LLM_CHAT_TEMPLATE_VICUNA_ORCA,
  24. LLM_CHAT_TEMPLATE_DEEPSEEK,
  25. LLM_CHAT_TEMPLATE_DEEPSEEK_2,
  26. LLM_CHAT_TEMPLATE_DEEPSEEK_3,
  27. LLM_CHAT_TEMPLATE_COMMAND_R,
  28. LLM_CHAT_TEMPLATE_LLAMA_3,
  29. LLM_CHAT_TEMPLATE_CHATGML_3,
  30. LLM_CHAT_TEMPLATE_CHATGML_4,
  31. LLM_CHAT_TEMPLATE_MINICPM,
  32. LLM_CHAT_TEMPLATE_EXAONE_3,
  33. LLM_CHAT_TEMPLATE_RWKV_WORLD,
  34. LLM_CHAT_TEMPLATE_GRANITE,
  35. LLM_CHAT_TEMPLATE_GIGACHAT,
  36. LLM_CHAT_TEMPLATE_MEGREZ,
  37. LLM_CHAT_TEMPLATE_UNKNOWN,
  38. };
  39. struct llama_chat_message;
  40. llm_chat_template llm_chat_template_from_str(const std::string & name);
  41. llm_chat_template llm_chat_detect_template(const std::string & tmpl);
  42. int32_t llm_chat_apply_template(
  43. llm_chat_template tmpl,
  44. const std::vector<const llama_chat_message *> & chat,
  45. std::string & dest, bool add_ass);