|
há 1 ano atrás | |
---|---|---|
api | há 1 ano atrás | |
app | há 1 ano atrás | |
cmd | há 1 ano atrás | |
docs | há 1 ano atrás | |
examples | há 1 ano atrás | |
llama | há 1 ano atrás | |
parser | há 1 ano atrás | |
scripts | há 1 ano atrás | |
server | há 1 ano atrás | |
web | há 1 ano atrás | |
.dockerignore | há 1 ano atrás | |
.gitignore | há 1 ano atrás | |
.prettierrc.json | há 1 ano atrás | |
Dockerfile | há 1 ano atrás | |
LICENSE | há 1 ano atrás | |
README.md | há 1 ano atrás | |
ggml-metal.metal | há 1 ano atrás | |
go.mod | há 1 ano atrás | |
go.sum | há 1 ano atrás | |
main.go | há 1 ano atrás | |
models.json | há 1 ano atrás |
Run large language models with llama.cpp
.
Note: certain models that can be run with Ollama are intended for research and/or non-commercial use only.
You can also build the binary from source.
Run a fast and simple model.
ollama run orca
Have a conversation.
ollama run vicuna "Why is the sky blue?"
Get a helping hand.
ollama run orca "Write an email to my boss."
Send the contents of a document and ask questions about it.
ollama run nous-hermes "$(cat input.txt)", please summarize this story
Venture into the unknown.
ollama run nous-hermes "Once upon a time"
ollama run ~/Downloads/vicuna-7b-v1.3.ggmlv3.q4_1.bin
go build .
To run it start the server:
./ollama server &
Finally, run a model!
./ollama run ~/Downloads/vicuna-7b-v1.3.ggmlv3.q4_1.bin
POST /api/pull
Download a model
curl -X POST http://localhost:11343/api/pull -d '{"model": "orca"}'
POST /api/generate
Complete a prompt
curl -X POST http://localhost:11434/api/generate -d '{"model": "orca", "prompt": "hello!"}'