|
1 năm trước cách đây | |
---|---|---|
api | 1 năm trước cách đây | |
app | 1 năm trước cách đây | |
cmd | 1 năm trước cách đây | |
docs | 1 năm trước cách đây | |
examples | 1 năm trước cách đây | |
format | 1 năm trước cách đây | |
library | 1 năm trước cách đây | |
llama | 1 năm trước cách đây | |
parser | 1 năm trước cách đây | |
progressbar | 1 năm trước cách đây | |
scripts | 1 năm trước cách đây | |
server | 1 năm trước cách đây | |
web | 1 năm trước cách đây | |
.dockerignore | 1 năm trước cách đây | |
.gitignore | 1 năm trước cách đây | |
.prettierrc.json | 1 năm trước cách đây | |
Dockerfile | 1 năm trước cách đây | |
LICENSE | 1 năm trước cách đây | |
README.md | 1 năm trước cách đây | |
ggml-metal.metal | 1 năm trước cách đây | |
go.mod | 1 năm trước cách đây | |
go.sum | 1 năm trước cách đây | |
main.go | 1 năm trước cách đây |
Note: Ollama is in early preview. Please report any issues you find.
Run, create, and share large language models (LLMs).
To run and chat with Llama 2, the new model by Meta:
ollama run llama2
ollama
includes a library of open-source models:
Model | Parameters | Size | Download |
---|---|---|---|
Llama2 | 7B | 3.8GB | ollama pull llama2 |
Llama2 13B | 13B | 7.3GB | ollama pull llama2:13b |
Orca Mini | 3B | 1.9GB | ollama pull orca |
Vicuna | 7B | 3.8GB | ollama pull vicuna |
Nous-Hermes | 13B | 7.3GB | ollama pull nous-hermes |
Wizard Vicuna Uncensored | 13B | 7.3GB | ollama pull wizard-vicuna |
Note: You should have at least 8 GB of RAM to run the 3B models, 16 GB to run the 7B models, and 32 GB to run the 13B models.
ollama run llama2
>>> hi
Hello! How can I help you today?
Pull a base model:
ollama pull llama2
Create a Modelfile
:
FROM llama2
# set the temperature to 1 [higher is more creative, lower is more coherent]
PARAMETER temperature 1
# set the system prompt
SYSTEM """
You are Mario from Super Mario Bros. Answer as Mario, the assistant, only.
"""
Next, create and run the model:
ollama create mario -f ./Modelfile
ollama run mario
>>> hi
Hello! It's your friend Mario.
For more examples, see the examples directory.
ollama pull orca
ollama list
Ollama bundles model weights, configuration, and data into a single package, defined by a Modelfile.
go build .
To run it start the server:
./ollama serve &
Finally, run a model!
./ollama run llama2