generate_linux_cuda.go 1.3 KB

123456789101112131415161718192021222324
  1. //go:build cuda
  2. package llm
  3. //go:generate git submodule init
  4. //go:generate git submodule update --force ggml
  5. //go:generate git -C ggml apply ../patches/0001-add-detokenize-endpoint.patch
  6. //go:generate git -C ggml apply ../patches/0002-34B-model-support.patch
  7. //go:generate git -C ggml apply ../patches/0005-ggml-support-CUDA-s-half-type-for-aarch64-1455-2670.patch
  8. //go:generate git -C ggml apply ../patches/0001-copy-cuda-runtime-libraries.patch
  9. //go:generate rm -rf ggml/build/cuda
  10. //go:generate cmake -S ggml -B ggml/build/cuda -DLLAMA_CUBLAS=on -DLLAMA_ACCELERATE=on -DLLAMA_K_QUANTS=on
  11. //go:generate cmake --build ggml/build/cuda --target server --config Release
  12. //go:generate mv ggml/build/cuda/bin/server ggml/build/cuda/bin/ollama-runner
  13. //go:generate git -C gguf apply ../patches/0001-copy-cuda-runtime-libraries.patch
  14. //go:generate git -C gguf apply ../patches/0001-update-default-log-target.patch
  15. //go:generate rm -rf gguf/build/cuda
  16. //go:generate cmake -S gguf -B gguf/build/cuda -DLLAMA_CUBLAS=on -DLLAMA_ACCELERATE=on -DLLAMA_K_QUANTS=on -DLLAMA_NATIVE=off -DLLAMA_AVX=on -DLLAMA_AVX2=off -DLLAMA_AVX512=off -DLLAMA_FMA=off -DLLAMA_F16C=off
  17. //go:generate cmake --build gguf/build/cuda --target server --config Release
  18. //go:generate mv gguf/build/cuda/bin/server gguf/build/cuda/bin/ollama-runner