Historial de Commits

Autor SHA1 Mensaje Fecha
  Michael Yang c02c0cd483 starcoder hace 1 año
  Bruce MacDonald b1f7123301 clean up num_gpu calculation code (#673) hace 1 año
  Bruce MacDonald 1fbf3585d6 Relay default values to llama runner (#672) hace 1 año
  Bruce MacDonald 9771b1ec51 windows runner fixes (#637) hace 1 año
  Michael Yang f40b3de758 use int64 consistently hace 1 año
  Bruce MacDonald 86279f4ae3 unbound max num gpu layers (#591) hace 1 año
  Bruce MacDonald 4cba75efc5 remove tmp directories created by previous servers (#559) hace 1 año
  Bruce MacDonald 1255bc9b45 only package 11.8 runner hace 1 año
  Bruce MacDonald 4e8be787c7 pack in cuda libs hace 1 año
  Bruce MacDonald 66003e1d05 subprocess improvements (#524) hace 1 año
  Bruce MacDonald 2540c9181c support for packaging in multiple cuda runners (#509) hace 1 año
  Michael Yang 7dee25a07f fix falcon decode hace 1 año
  Bruce MacDonald f221637053 first pass at linux gpu support (#454) hace 1 año
  Bruce MacDonald 09dd2aeff9 GGUF support (#441) hace 1 año
  Bruce MacDonald 42998d797d subprocess llama.cpp server (#401) hace 1 año
  Quinn Slack f4432e1dba treat stop as stop sequences, not exact tokens (#442) hace 1 año
  Michael Yang 5ca05c2e88 fix ModelType() hace 1 año
  Michael Yang a894cc792d model and file type as strings hace 1 año
  Bruce MacDonald 4b2d366c37 Update llama.go hace 1 año
  Bruce MacDonald 56fd4e4ef2 log embedding eval timing hace 1 año
  Jeffrey Morgan 22885aeaee update `llama.cpp` to `f64d44a` hace 1 año
  Michael Yang 6de5d032e1 implement loading ggml lora adapters through the modelfile hace 1 año
  Michael Yang fccf8d179f partial decode ggml bin for more info hace 1 año