Historie revizí

Autor SHA1 Zpráva Datum
  Daniel Hiltgen e12fff8810 Enable windows error dialog for subprocess startup před 10 měsíci
  royjhan b9f5e16c80 Introduce `/api/embed` endpoint supporting batch embedding (#5127) před 10 měsíci
  Jeffrey Morgan d8def1ff94 llm: allow gemma 2 to context shift (#5534) před 10 měsíci
  Jeffrey Morgan 0e09c380fc llm: print caching notices in debug only (#5533) před 10 měsíci
  Jeffrey Morgan d89454de80 Use slot with cached prompt instead of least recently used (#5492) před 10 měsíci
  royjhan 3b5a4a77f3 Return Correct Prompt Eval Count Regardless of Cache Prompt (#5371) před 10 měsíci
  Jeffrey Morgan 717f7229eb Do not shift context for sliding window models (#5368) před 10 měsíci
  Michael Yang 9d91e5e587 remove confusing log message před 10 měsíci
  Daniel Hiltgen fb9cdfa723 Fix server.cpp for the new cuda build macros před 1 rokem
  Jeffrey Morgan ead259d877 llm: fix seed value not being applied to requests (#4986) před 11 měsíci
  Jeffrey Morgan 34f142797a llm: always add bos token to prompt (#4941) před 11 měsíci
  Michael Yang 829ff87bd1 revert tokenize ffi (#4761) před 11 měsíci
  Michael Yang de781b37c8 rm unused infill před 1 rokem
  Michael Yang 3e21799377 rm unused system prompt před 1 rokem
  Michael Yang 26a00a0410 use ffi for tokenizing/detokenizing před 1 rokem
  Michael Yang 714adb8bd1 bump (#4597) před 11 měsíci
  Daniel Hiltgen b37b496a12 Wire up load progress před 11 měsíci
  Sam e15307fdf4 feat: add support for flash_attn (#4120) před 11 měsíci
  Michael Yang 58876091f7 log clean up před 1 rokem
  Daniel Hiltgen 920a4b0794 Merge remote-tracking branch 'upstream/main' into pr3702 před 1 rokem
  Michael Yang 44869c59d6 omit prompt and generate settings from final response před 1 rokem
  jmorganca fcf4d60eee llm: add back check for empty token cache před 1 rokem
  Jeffrey Morgan 18d9a7e1f1 update llama.cpp submodule to `f364eb6` (#4060) před 1 rokem
  Daniel Hiltgen 23d23409a0 Update llama.cpp (#4036) před 1 rokem
  ManniX-ITA c942e4a07b Fixed startup sequence to report model loading před 1 rokem
  Jeffrey Morgan 7c9792a6e0 Support unicode characters in model path (#3681) před 1 rokem
  Daniel Hiltgen 0a0e9f3e0f Apply 01-cache.diff před 1 rokem
  Daniel Hiltgen 58d95cc9bd Switch back to subprocessing for llama.cpp před 1 rokem
  Jeffrey Morgan f5ca7f8c8e add license in file header for vendored llama.cpp code (#3351) před 1 rokem
  Daniel Hiltgen 43799532c1 Bump llama.cpp to b2474 před 1 rokem