.. |
ext_server
|
44869c59d6
omit prompt and generate settings from final response
|
1 tahun lalu |
generate
|
8a65717f55
Do not build AVX runners on ARM64
|
1 tahun lalu |
llama.cpp @ 952d03dbea
|
e33d5c2dbc
update llama.cpp commit to `952d03d`
|
1 tahun lalu |
patches
|
1b0e6c9c0e
Fix llava models not working after first request (#4164)
|
1 tahun lalu |
ggla.go
|
8b2c10061c
refactor tensor query
|
1 tahun lalu |
ggml.go
|
435cc866a3
fix: mixtral graph
|
1 tahun lalu |
gguf.go
|
14476d48cc
fixes for gguf (#3863)
|
1 tahun lalu |
llm.go
|
86e67fc4a9
Add import declaration for windows,arm64 to llm.go
|
1 tahun lalu |
llm_darwin_amd64.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 tahun lalu |
llm_darwin_arm64.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 tahun lalu |
llm_linux.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 tahun lalu |
llm_windows.go
|
058f6cd2cc
Move nested payloads to installer and zip file on windows
|
1 tahun lalu |
memory.go
|
f56aa20014
Centralize server config handling
|
1 tahun lalu |
payload.go
|
058f6cd2cc
Move nested payloads to installer and zip file on windows
|
1 tahun lalu |
server.go
|
1b0e6c9c0e
Fix llava models not working after first request (#4164)
|
1 tahun lalu |
status.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 tahun lalu |