.. |
ggml @ 9e232f0234
|
42998d797d
subprocess llama.cpp server (#401)
|
1 vuosi sitten |
gguf @ 0b871f1a04
|
a00fac4ec8
update llama.cpp
|
1 vuosi sitten |
patches
|
a00fac4ec8
update llama.cpp
|
1 vuosi sitten |
generate_darwin_amd64.go
|
d77dde126b
consistent cpu instructions on macos and linux
|
1 vuosi sitten |
generate_darwin_arm64.go
|
a00fac4ec8
update llama.cpp
|
1 vuosi sitten |
generate_linux.go
|
12e8c12d2b
Disable CUDA peer access as a workaround for multi-gpu inference bug (#1261)
|
1 vuosi sitten |
generate_windows.go
|
82b9b329ff
windows CUDA support (#1262)
|
1 vuosi sitten |