Histórico de Commits

Autor SHA1 Mensagem Data
  Bruce MacDonald 9771b1ec51 windows runner fixes (#637) há 1 ano atrás
  Michael Yang f40b3de758 use int64 consistently há 1 ano atrás
  Bruce MacDonald 86279f4ae3 unbound max num gpu layers (#591) há 1 ano atrás
  Bruce MacDonald 4cba75efc5 remove tmp directories created by previous servers (#559) há 1 ano atrás
  Bruce MacDonald 1255bc9b45 only package 11.8 runner há 1 ano atrás
  Bruce MacDonald 4e8be787c7 pack in cuda libs há 1 ano atrás
  Bruce MacDonald 66003e1d05 subprocess improvements (#524) há 1 ano atrás
  Bruce MacDonald 2540c9181c support for packaging in multiple cuda runners (#509) há 1 ano atrás
  Michael Yang 7dee25a07f fix falcon decode há 1 ano atrás
  Bruce MacDonald f221637053 first pass at linux gpu support (#454) há 1 ano atrás
  Bruce MacDonald 09dd2aeff9 GGUF support (#441) há 1 ano atrás
  Bruce MacDonald 42998d797d subprocess llama.cpp server (#401) há 1 ano atrás
  Quinn Slack f4432e1dba treat stop as stop sequences, not exact tokens (#442) há 1 ano atrás
  Michael Yang 5ca05c2e88 fix ModelType() há 1 ano atrás
  Michael Yang a894cc792d model and file type as strings há 1 ano atrás
  Bruce MacDonald 4b2d366c37 Update llama.go há 1 ano atrás
  Bruce MacDonald 56fd4e4ef2 log embedding eval timing há 1 ano atrás
  Jeffrey Morgan 22885aeaee update `llama.cpp` to `f64d44a` há 1 ano atrás
  Michael Yang 6de5d032e1 implement loading ggml lora adapters through the modelfile há 1 ano atrás
  Michael Yang fccf8d179f partial decode ggml bin for more info há 1 ano atrás