Ver Fonte

fix build errors

Bruce MacDonald há 1 ano atrás
pai
commit
09d8bf6730
2 ficheiros alterados com 3 adições e 3 exclusões
  1. 1 1
      llama/llama.go
  2. 2 2
      server/routes.go

+ 1 - 1
llama/llama.go

@@ -416,7 +416,7 @@ func (llm *LLM) Embedding(input string) ([]float64, error) {
 		return nil, errors.New("llama: embedding not enabled")
 	}
 
-	tokens := llm.tokenize(input)
+	tokens := llm.Encode(input)
 	if tokens == nil {
 		return nil, errors.New("llama: tokenize embedding")
 	}

+ 2 - 2
server/routes.go

@@ -87,13 +87,13 @@ func GenerateHandler(c *gin.Context) {
 		}
 
 		if opts.NumKeep < 0 {
-			promptWithSystem, err := model.Prompt(api.GenerateRequest{})
+			promptWithSystem, err := model.Prompt(api.GenerateRequest{}, "")
 			if err != nil {
 				c.JSON(http.StatusInternalServerError, gin.H{"error": err.Error()})
 				return
 			}
 
-			promptNoSystem, err := model.Prompt(api.GenerateRequest{Context: []int{0}})
+			promptNoSystem, err := model.Prompt(api.GenerateRequest{Context: []int{0}}, "")
 			if err != nil {
 				c.JSON(http.StatusInternalServerError, gin.H{"error": err.Error()})
 				return