Commit Verlauf

Autor SHA1 Nachricht Datum
  Bruce MacDonald 9771b1ec51 windows runner fixes (#637) vor 1 Jahr
  Michael Yang f40b3de758 use int64 consistently vor 1 Jahr
  Bruce MacDonald 86279f4ae3 unbound max num gpu layers (#591) vor 1 Jahr
  Bruce MacDonald 4cba75efc5 remove tmp directories created by previous servers (#559) vor 1 Jahr
  Bruce MacDonald 1255bc9b45 only package 11.8 runner vor 1 Jahr
  Bruce MacDonald 4e8be787c7 pack in cuda libs vor 1 Jahr
  Bruce MacDonald 66003e1d05 subprocess improvements (#524) vor 1 Jahr
  Bruce MacDonald 2540c9181c support for packaging in multiple cuda runners (#509) vor 1 Jahr
  Michael Yang 7dee25a07f fix falcon decode vor 1 Jahr
  Bruce MacDonald f221637053 first pass at linux gpu support (#454) vor 1 Jahr
  Bruce MacDonald 09dd2aeff9 GGUF support (#441) vor 1 Jahr
  Bruce MacDonald 42998d797d subprocess llama.cpp server (#401) vor 1 Jahr
  Quinn Slack f4432e1dba treat stop as stop sequences, not exact tokens (#442) vor 1 Jahr
  Michael Yang 5ca05c2e88 fix ModelType() vor 1 Jahr
  Michael Yang a894cc792d model and file type as strings vor 1 Jahr
  Bruce MacDonald 4b2d366c37 Update llama.go vor 1 Jahr
  Bruce MacDonald 56fd4e4ef2 log embedding eval timing vor 1 Jahr
  Jeffrey Morgan 22885aeaee update `llama.cpp` to `f64d44a` vor 1 Jahr
  Michael Yang 6de5d032e1 implement loading ggml lora adapters through the modelfile vor 1 Jahr
  Michael Yang fccf8d179f partial decode ggml bin for more info vor 1 Jahr