|
1 年之前 | |
---|---|---|
.. | ||
ggml @ 9e232f0234 | 42998d797d subprocess llama.cpp server (#401) | 1 年之前 |
gguf @ a7aee47b98 | 6b5bdfa6c9 update runner submodule | 1 年之前 |
patches | a00fac4ec8 update llama.cpp | 1 年之前 |
generate_darwin_amd64.go | 16a9006306 add back `f16c` instructions on intel mac | 1 年之前 |
generate_darwin_arm64.go | a00fac4ec8 update llama.cpp | 1 年之前 |
generate_linux.go | 12e8c12d2b Disable CUDA peer access as a workaround for multi-gpu inference bug (#1261) | 1 年之前 |
generate_windows.go | 82b9b329ff windows CUDA support (#1262) | 1 年之前 |