|
1 年之前 | |
---|---|---|
.. | ||
ggml @ 9e232f0234 | 42998d797d subprocess llama.cpp server (#401) | 1 年之前 |
gguf @ 9656026b53 | 9e4a316405 update submodule commit | 1 年之前 |
patches | a00fac4ec8 update llama.cpp | 1 年之前 |
generate_darwin_amd64.go | 16a9006306 add back `f16c` instructions on intel mac | 1 年之前 |
generate_darwin_arm64.go | a00fac4ec8 update llama.cpp | 1 年之前 |
generate_linux.go | 12e8c12d2b Disable CUDA peer access as a workaround for multi-gpu inference bug (#1261) | 1 年之前 |
generate_windows.go | 82b9b329ff windows CUDA support (#1262) | 1 年之前 |