Chainlit 作为一个库,使用起来非常简单。 我还使用 Langchain 来与 Ollama 进行交互。 from langchain_community.llms import Ollama from langchain.prompts import ChatPromptTemplate import chainlit as cl 下一步是使用 chainlit 的 @cl.on_chat ...
如上所述,设置和运行 Ollama 非常简单。 首先,访问 奥拉马.ai 并下载适合您操作系统的应用程序。 接下来,打开终端,然后执行以下命令来提取最新的 米斯特拉尔-7B 。 虽然还有很多其他 提供法学硕士模型,我选择 Mistral-7B 是因为它紧凑的尺寸和有竞争力的质量。