Historial de Commits

Autor SHA1 Mensaje Fecha
  Daniel Hiltgen a1dfab43b9 Ensure the libraries are present hace 1 año
  Jeffrey Morgan 4458efb73a Load all layers on `arm64` macOS if model is small enough (#2149) hace 1 año
  Daniel Hiltgen fedd705aea Mechanical switch from log to slog hace 1 año
  Michael Yang eaed6f8c45 add max context length check hace 1 año
  Daniel Hiltgen 7427fa1387 Fix up the CPU fallback selection hace 1 año
  Daniel Hiltgen de2fbdec99 Merge pull request #1819 from dhiltgen/multi_variant hace 1 año
  Michael Yang f4f939de28 Merge pull request #1552 from jmorganca/mxyng/lint-test hace 1 año
  Daniel Hiltgen 39928a42e8 Always dynamically load the llm server library hace 1 año
  Daniel Hiltgen d88c527be3 Build multiple CPU variants and pick the best hace 1 año
  Jeffrey Morgan ab6be852c7 revisit memory allocation to account for full kv cache on main gpu hace 1 año
  Daniel Hiltgen 8da7bef05f Support multiple variants for a given llm lib type hace 1 año
  Jeffrey Morgan b24e8d17b2 Increase minimum CUDA memory allocation overhead and fix minimum overhead for multi-gpu (#1896) hace 1 año
  Michael Yang f921e2696e typo hace 1 año
  Jeffrey Morgan f387e9631b use runner if cuda alloc won't fit hace 1 año
  Jeffrey Morgan cb534e6ac2 use 10% vram overhead for cuda hace 1 año
  Jeffrey Morgan 58ce2d8273 better estimate scratch buffer size hace 1 año
  Jeffrey Morgan 08f1e18965 Offload layers to GPU based on new model size estimates (#1850) hace 1 año
  Daniel Hiltgen e9ce91e9a6 Load dynamic cpu lib on windows hace 1 año
  Jeffrey Morgan c0285158a9 tweak memory requirements error text hace 1 año
  Jeffrey Morgan 77a66df72c add macOS memory check for 47B models hace 1 año
  Jeffrey Morgan 5b4837f881 remove unused filetype check hace 1 año
  Daniel Hiltgen 7555ea44f8 Revamp the dynamic library shim hace 1 año
  Daniel Hiltgen 3269535a4c Refine handling of shim presence hace 1 año
  Daniel Hiltgen 35934b2e05 Adapted rocm support to cgo based llama.cpp hace 1 año
  Daniel Hiltgen d4cd695759 Add cgo implementation for llama.cpp hace 1 año
  Bruce MacDonald 811b1f03c8 deprecate ggml hace 1 año
  Michael Yang b9495ea162 load projectors hace 1 año
  Bruce MacDonald 195e3d9dbd chat api endpoint (#1392) hace 1 año
  Jeffrey Morgan 00d06619a1 Revert "chat api (#991)" while context variable is fixed hace 1 año
  Bruce MacDonald 7a0899d62d chat api (#991) hace 1 año