虚拟桌宠模拟器

虚拟桌宠模拟器

聊天API: ChatWithOllama
Honkai, Start  [开发者] 2 月 17 日 下午 5:16
反馈以及意见
如果你对该插件有任何意见以及其他建议 欢迎在此处提出
< >
正在显示第 1 - 10 条,共 10 条留言
Sec_Starlight 2 月 23 日 上午 12:15 
使用deepseek的时候<think>标签里的思考过程有点多了,占了满满一页。这部分有办法折叠起来吗
Honkai, Start  [开发者] 2 月 24 日 上午 10:16 
有这方面的考虑,你希望是在思考完之后删除掉think内容 还是直接不显示think呢。这方面我还没有确定。
Honkai, Start  [开发者] 2 月 24 日 下午 8:10 
我增加了一个设置选项 你看这是你想要的不?
我通过修改环境变量将ollama本体和模型安装在了"D:\Ollama"和"D:\Ollama\models",使用控制台ollama list能够正常显示我下载的两个模型,我测试两个模型均可正常在控制台使用,且在控制台中使用 Invoke-WebRequest -Uri "http://localhost:11434/api/generate" -Method Post -Body '{"model": "deepseek-llm:7b", "prompt": "Hello"}' -ContentType "application/json" 测试出来api请求正常,但是在桌宠里调整设置的时候,它显示“ollama可能未启动,模型加载失败”
Honkai, Start  [开发者] 2 月 25 日 下午 9:53 
不需要填写后面的地址 只需要填写 http://localhost:11434
枭梦释枫玥 2 月 25 日 下午 10:08 
引用自 Honkai, Start
不需要填写后面的地址 只需要填写 http://localhost:11434
在桌宠设置内我填写的就是 http://localhost:11434 ,上一条回复中的内容是在powershell中用来测试api是否正常的
Honkai, Start  [开发者] 2 月 25 日 下午 10:24 
引用自 枭梦释枫玥
引用自 Honkai, Start
不需要填写后面的地址 只需要填写 http://localhost:11434
在桌宠设置内我填写的就是 http://localhost:11434 ,上一条回复中的内容是在powershell中用来测试api是否正常的
修改url之后先保存一下?我也修改了存储位置 但是没有出现你这样的错误?理论上也不存在这样的问题,因为其实是通过url interface访问的 只要开启ollama就没有问题 如果需要更进一步帮助的话 可以加一下q群?1012457859
最后由 Honkai, Start 编辑于; 2 月 25 日 下午 10:24
Honkai, Start  [开发者] 2 月 25 日 下午 10:29 
哦 ok 我有查了一下官方文档 deepseek-llm 是不支持对话 仅支持补全,也就是他无法正常处理连续的上下文对话。插件使用的是 /api/chat api而非generate 因此会出现api错误的提示 可以尝试换用deepseek v3, qwen2.5 等模型

验证这个,可以在控制台中运行ollama 然后尝试让模型记住一个数字 并在下一轮询问中让其回答数字内容是什么,deepseek llm无法回答该问题

引用自 枭梦释枫玥
引用自 Honkai, Start
不需要填写后面的地址 只需要填写 http://localhost:11434
在桌宠设置内我填写的就是 http://localhost:11434 ,上一条回复中的内容是在powershell中用来测试api是否正常的

更新:如果遇到相同情况请查看代理是否关闭
最后由 Honkai, Start 编辑于; 2 月 26 日 上午 8:45
gihana 3 月 2 日 上午 1:55 
如果能让增加模型调用互动就更好了
Honkai, Start  [开发者] 3 月 2 日 上午 9:50 
引用自 gihana
如果能让增加模型调用互动就更好了
会加的 一步步来
< >
正在显示第 1 - 10 条,共 10 条留言
每页显示数: 1530 50