From a61d8eb0a16745b8ece9e47ddcae1280118ff618 Mon Sep 17 00:00:00 2001 From: shaohuzhang1 <80892890+shaohuzhang1@users.noreply.github.com> Date: Sun, 28 Apr 2024 13:16:12 +0800 Subject: [PATCH] =?UTF-8?q?perf:=20=E5=A2=9E=E5=8A=A0ollama=E5=9F=BA?= =?UTF-8?q?=E7=A1=80=E6=A8=A1=E5=9E=8B=E9=80=89=E9=A1=B9=20(#288)?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- .../ollama_model_provider.py | 44 ++++++++++++++++++- 1 file changed, 42 insertions(+), 2 deletions(-) diff --git a/apps/setting/models_provider/impl/ollama_model_provider/ollama_model_provider.py b/apps/setting/models_provider/impl/ollama_model_provider/ollama_model_provider.py index 4bbc2d96b..3827bdc68 100644 --- a/apps/setting/models_provider/impl/ollama_model_provider/ollama_model_provider.py +++ b/apps/setting/models_provider/impl/ollama_model_provider/ollama_model_provider.py @@ -74,9 +74,49 @@ model_dict = { 'llama2-chinese:13b', '由于Llama2本身的中文对齐较弱,我们采用中文指令集,对meta-llama/Llama-2-13b-chat-hf进行LoRA微调,使其具备较强的中文对话能力。', ModelTypeConst.LLM, ollama_llm_model_credential), - 'qwen-14b': ModelInfo( + 'llama3:8b': ModelInfo( + 'llama3:8b', + 'Meta Llama 3:迄今为止最有能力的公开产品LLM。8亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'llama3:70b': ModelInfo( + 'llama3:70b', + 'Meta Llama 3:迄今为止最有能力的公开产品LLM。70亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'qwen:0.5b': ModelInfo( + 'qwen:0.5b', + 'qwen 1.5 0.5b 相较于以往版本,模型与人类偏好的对齐程度以及多语言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。0.5亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'qwen:1.8b': ModelInfo( + 'qwen:1.8b', + 'qwen 1.5 1.8b 相较于以往版本,模型与人类偏好的对齐程度以及多语言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。1.8亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'qwen:4b': ModelInfo( + 'qwen:4b', + 'qwen 1.5 4b 相较于以往版本,模型与人类偏好的对齐程度以及多语言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。4亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'qwen:7b': ModelInfo( + 'qwen:7b', + 'qwen 1.5 7b 相较于以往版本,模型与人类偏好的对齐程度以及多语1言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。7亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'qwen:14b': ModelInfo( 'qwen:14b', - 'qwen 1.5 14b 相较于以往版本,模型与人类偏好的对齐程度以及多语言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。', + 'qwen 1.5 14b 相较于以往版本,模型与人类偏好的对齐程度以及多语言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。14亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'qwen:32b': ModelInfo( + 'qwen:32b', + 'qwen 1.5 32b 相较于以往版本,模型与人类偏好的对齐程度以及多语言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。32亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'qwen:72b': ModelInfo( + 'qwen:72b', + 'qwen 1.5 72b 相较于以往版本,模型与人类偏好的对齐程度以及多语言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。72亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'qwen:110b': ModelInfo( + 'qwen:110b', + 'qwen 1.5 110b 相较于以往版本,模型与人类偏好的对齐程度以及多语言处理能力上有显著增强。所有规模的模型都支持32768个tokens的上下文长度。110亿参数。', + ModelTypeConst.LLM, ollama_llm_model_credential), + 'phi3': ModelInfo( + 'phi3', + 'Phi-3 Mini是Microsoft的3.8B参数,轻量级,最先进的开放模型。', ModelTypeConst.LLM, ollama_llm_model_credential), }