Michael Yang e873841cbb deepseek v2 graph 11 tháng trước cách đây
..
ext_server fb9cdfa723 Fix server.cpp for the new cuda build macros 11 tháng trước cách đây
generate b0930626c5 Add back lower level parallel flags 11 tháng trước cách đây
llama.cpp @ 7c26775adb 152fc202f5 llm: update llama.cpp commit to `7c26775` (#4896) 11 tháng trước cách đây
patches 152fc202f5 llm: update llama.cpp commit to `7c26775` (#4896) 11 tháng trước cách đây
filetype.go d6f692ad1a Add support for IQ1_S, IQ3_S, IQ2_S, IQ4_XS. IQ4_NL (#4322) 1 năm trước cách đây
ggla.go 171eb040fc simplify safetensors reading 1 năm trước cách đây
ggml.go e873841cbb deepseek v2 graph 11 tháng trước cách đây
gguf.go 7bdcd1da94 Revert "Merge pull request #4938 from ollama/mxyng/fix-byte-order" 11 tháng trước cách đây
llm.go 829ff87bd1 revert tokenize ffi (#4761) 11 tháng trước cách đây
llm_darwin_amd64.go 58d95cc9bd Switch back to subprocessing for llama.cpp 1 năm trước cách đây
llm_darwin_arm64.go 58d95cc9bd Switch back to subprocessing for llama.cpp 1 năm trước cách đây
llm_linux.go 58d95cc9bd Switch back to subprocessing for llama.cpp 1 năm trước cách đây
llm_windows.go 058f6cd2cc Move nested payloads to installer and zip file on windows 1 năm trước cách đây
memory.go 359b15a597 Handle models with divergent layer sizes 11 tháng trước cách đây
memory_test.go 6f351bf586 review comments and coverage 11 tháng trước cách đây
payload.go 6f351bf586 review comments and coverage 11 tháng trước cách đây
server.go 7784ca33ce Tighten up memory prediction logging 11 tháng trước cách đây
status.go 58d95cc9bd Switch back to subprocessing for llama.cpp 1 năm trước cách đây