.. |
ext_server
|
fb9cdfa723
Fix server.cpp for the new cuda build macros
|
11 tháng trước cách đây |
generate
|
b0930626c5
Add back lower level parallel flags
|
11 tháng trước cách đây |
llama.cpp @ 7c26775adb
|
152fc202f5
llm: update llama.cpp commit to `7c26775` (#4896)
|
11 tháng trước cách đây |
patches
|
152fc202f5
llm: update llama.cpp commit to `7c26775` (#4896)
|
11 tháng trước cách đây |
filetype.go
|
d6f692ad1a
Add support for IQ1_S, IQ3_S, IQ2_S, IQ4_XS. IQ4_NL (#4322)
|
1 năm trước cách đây |
ggla.go
|
171eb040fc
simplify safetensors reading
|
1 năm trước cách đây |
ggml.go
|
e873841cbb
deepseek v2 graph
|
11 tháng trước cách đây |
gguf.go
|
7bdcd1da94
Revert "Merge pull request #4938 from ollama/mxyng/fix-byte-order"
|
11 tháng trước cách đây |
llm.go
|
829ff87bd1
revert tokenize ffi (#4761)
|
11 tháng trước cách đây |
llm_darwin_amd64.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 năm trước cách đây |
llm_darwin_arm64.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 năm trước cách đây |
llm_linux.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 năm trước cách đây |
llm_windows.go
|
058f6cd2cc
Move nested payloads to installer and zip file on windows
|
1 năm trước cách đây |
memory.go
|
359b15a597
Handle models with divergent layer sizes
|
11 tháng trước cách đây |
memory_test.go
|
6f351bf586
review comments and coverage
|
11 tháng trước cách đây |
payload.go
|
6f351bf586
review comments and coverage
|
11 tháng trước cách đây |
server.go
|
7784ca33ce
Tighten up memory prediction logging
|
11 tháng trước cách đây |
status.go
|
58d95cc9bd
Switch back to subprocessing for llama.cpp
|
1 năm trước cách đây |