前言上一篇文章介绍了使用semantickernel/c#的rag简易实践,在上篇文章中我使用的是兼容openai格式的在线api,但实际上会有很多本地离线的场景。今天跟大家介绍一下在semantickernel/c#中如何使用ollama中的对话模型与嵌入模型用于本地离线场景。开始实践本文使用的对话模型是gemma2:2b,嵌入模型是all-minilm:latest,可以先在ollama中下载...
本文介绍了在semantickernel/c#中使用ollama的对话模型与嵌入模型用于本地离线场景的方法。对话模型是gemma2:2b,嵌入模型是all-minilm:latest。使用方法见https://github.com/blazekill/codeblaze.semantickernel/tree/main/dotnet/codeblaze.semantickernel.connectors.ollama。