Histórico de Commits

Autor SHA1 Mensagem Data
  Michael Yang 19b7a4d715 recent llama.cpp update added kernels for fp32, q5_0, and q5_1 há 1 ano atrás
  Jeffrey Morgan 5cba29b9d6 JSON mode: add `"format" as an api parameter (#1051) há 1 ano atrás
  Jeffrey Morgan 2e53704685 default rope params to 0 for new models (#968) há 1 ano atrás
  Jeffrey Morgan 7ed5a39bc7 simpler check for model loading compatibility errors há 1 ano atrás
  Jeffrey Morgan a7dad24d92 add error for `falcon` and `starcoder` vocab compatibility (#844) há 1 ano atrás
  Michael Yang 36fe2deebf only check system memory on macos há 1 ano atrás
  Michael Yang 4a8931f634 check total (system + video) memory há 1 ano atrás
  Michael Yang bd6e38fb1a refactor memory check há 1 ano atrás
  Michael Yang 92189a5855 fix memory check há 1 ano atrás
  Michael Yang b599946b74 add format bytes há 1 ano atrás
  Bruce MacDonald d06bc0cb6e enable q8, q5, 5_1, and f32 for linux gpu (#699) há 1 ano atrás
  Bruce MacDonald 86279f4ae3 unbound max num gpu layers (#591) há 1 ano atrás
  Bruce MacDonald 4cba75efc5 remove tmp directories created by previous servers (#559) há 1 ano atrás
  Michael Yang 7dee25a07f fix falcon decode há 1 ano atrás
  Bruce MacDonald 09dd2aeff9 GGUF support (#441) há 1 ano atrás
  Bruce MacDonald 42998d797d subprocess llama.cpp server (#401) há 1 ano atrás
  Michael Yang b25dd1795d allow F16 to use metal há 1 ano atrás
  Michael Yang 304f2b6c96 add 34b to mem check há 1 ano atrás
  Michael Yang a894cc792d model and file type as strings há 1 ano atrás
  Michael Yang e26085b921 close open files há 1 ano atrás
  Michael Yang 6de5d032e1 implement loading ggml lora adapters through the modelfile há 1 ano atrás
  Michael Yang d791df75dd check memory requirements before loading há 1 ano atrás
  Michael Yang 020a3b3530 disable gpu for q5_0, q5_1, q8_0 quants há 1 ano atrás
  Michael Yang fccf8d179f partial decode ggml bin for more info há 1 ano atrás