.. |
ext_server
|
58876091f7
log clean up
|
11 ay önce |
generate
|
8a65717f55
Do not build AVX runners on ARM64
|
1 yıl önce |
llama.cpp @ 952d03dbea
|
e33d5c2dbc
update llama.cpp commit to `952d03d`
|
1 yıl önce |
patches
|
1b0e6c9c0e
Fix llava models not working after first request (#4164)
|
1 yıl önce |
filetype.go
|
01811c176a
comments
|
1 yıl önce |
ggla.go
|
8b2c10061c
refactor tensor query
|
1 yıl önce |
ggml.go
|
1eb382da5a
add phi2 mem
|
11 ay önce |
gguf.go
|
14476d48cc
fixes for gguf (#3863)
|
1 yıl önce |
llm.go
|
01811c176a
comments
|
1 yıl önce |
llm_darwin_amd64.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 yıl önce |
llm_darwin_arm64.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 yıl önce |
llm_linux.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 yıl önce |
llm_windows.go
|
058f6cd2cc
Move nested payloads to installer and zip file on windows
|
1 yıl önce |
memory.go
|
1d359e737e
typo
|
11 ay önce |
payload.go
|
058f6cd2cc
Move nested payloads to installer and zip file on windows
|
1 yıl önce |
server.go
|
b73a512f24
fix the cpu estimatedTotal memory + get the expiry time for loading models
|
11 ay önce |
status.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 yıl önce |