提交历史

作者 SHA1 备注 提交日期
  Roy Han 80c1a3f812 playing around with truncate stuff 10 月之前
  Roy Han c111d8bb51 normalization 10 月之前
  Roy Han 5213c12354 clean up 10 月之前
  Roy Han 49e341147d add server function 10 月之前
  Roy Han c406fa7a4c api/embed draft 10 月之前
  Roy Han ff191d7cba Initial Draft 10 月之前
  Daniel Hiltgen fb9cdfa723 Fix server.cpp for the new cuda build macros 11 月之前
  Jeffrey Morgan ead259d877 llm: fix seed value not being applied to requests (#4986) 10 月之前
  Jeffrey Morgan 34f142797a llm: always add bos token to prompt (#4941) 10 月之前
  Michael Yang 829ff87bd1 revert tokenize ffi (#4761) 11 月之前
  Michael Yang de781b37c8 rm unused infill 11 月之前
  Michael Yang 3e21799377 rm unused system prompt 11 月之前
  Michael Yang 26a00a0410 use ffi for tokenizing/detokenizing 11 月之前
  Michael Yang 714adb8bd1 bump (#4597) 11 月之前
  Daniel Hiltgen b37b496a12 Wire up load progress 11 月之前
  Sam e15307fdf4 feat: add support for flash_attn (#4120) 11 月之前
  Michael Yang 58876091f7 log clean up 11 月之前
  Daniel Hiltgen 920a4b0794 Merge remote-tracking branch 'upstream/main' into pr3702 1 年之前
  Michael Yang 44869c59d6 omit prompt and generate settings from final response 1 年之前
  jmorganca fcf4d60eee llm: add back check for empty token cache 1 年之前
  Jeffrey Morgan 18d9a7e1f1 update llama.cpp submodule to `f364eb6` (#4060) 1 年之前
  Daniel Hiltgen 23d23409a0 Update llama.cpp (#4036) 1 年之前
  ManniX-ITA c942e4a07b Fixed startup sequence to report model loading 1 年之前
  Jeffrey Morgan 7c9792a6e0 Support unicode characters in model path (#3681) 1 年之前
  Daniel Hiltgen 0a0e9f3e0f Apply 01-cache.diff 1 年之前
  Daniel Hiltgen 58d95cc9bd Switch back to subprocessing for llama.cpp 1 年之前
  Jeffrey Morgan f5ca7f8c8e add license in file header for vendored llama.cpp code (#3351) 1 年之前
  Daniel Hiltgen 43799532c1 Bump llama.cpp to b2474 1 年之前
  Jeffrey Morgan e95ffc7448 llama: remove server static assets (#3174) 1 年之前
  Daniel Hiltgen 85129d3a32 Adapt our build for imported server.cpp 1 年之前