.. |
ggml @ 9e232f0234
|
42998d797d
subprocess llama.cpp server (#401)
|
1 年間 前 |
gguf @ 9656026b53
|
9e4a316405
update submodule commit
|
1 年間 前 |
patches
|
a00fac4ec8
update llama.cpp
|
1 年間 前 |
generate_darwin_amd64.go
|
16a9006306
add back `f16c` instructions on intel mac
|
1 年間 前 |
generate_darwin_arm64.go
|
a00fac4ec8
update llama.cpp
|
1 年間 前 |
generate_linux.go
|
12e8c12d2b
Disable CUDA peer access as a workaround for multi-gpu inference bug (#1261)
|
1 年間 前 |
generate_windows.go
|
82b9b329ff
windows CUDA support (#1262)
|
1 年間 前 |