虚拟桌宠模拟器

虚拟桌宠模拟器

50 个评价
聊天API: ChatWithOllama
   
奖励
收藏
已收藏
取消收藏
翻译: 翻译
代码插件: 代码插件
文件大小
发表于
更新日期
773.112 KB
2 月 10 日 下午 8:04
9 月 4 日 下午 11:38
10 项改动说明 ( 查看 )

订阅以下载
聊天API: ChatWithOllama

描述
如果你只想使用聊天功能,你可以使用其他的**gpt聊天api** 只需要填入:
URL:http://localhost:11434/v1/chat/completions
API Key:ollama
模型名称:你期望的模型 (请勿添加空格)
当然 同样欢迎使用本模组。本模组加入了流式传输的特性,可以电脑配置较差的用户在对话生成完之前看到对话。
-----------------------------------------------------------------------------------------

这是一个Vpet的代码插件,这个插件允许你使用ollama作为Vpet对话引擎。不需要再支付昂贵的api费用!

本插件不包含ollama需要您自行下载ollama和对应的模型。并且,由于您在本地运行,请确保参数量符合您电脑的承受范围。

模组配置
1. 点击 系统-> 设置面板->系统, 找到 使用模式 选择自定义聊天接口 选择 ChatOllama
2. 回到宠物 点击 系统->Mod设置 选择chatOllamaAPI。弹出窗口中请一定配置一下内容。
URL:请仅包含ollama地址 如 http://localhost:11434 。大部分用户不需要修改该项目
module:当你设置完成url之后,点击下拉框 即可查看当前安装的模型名称 点击后即可使用
prompt:目前版本 您应当在此处指定提示词,其中应当包含vpet名称 性格 等您希望个性化定制的内容,您可以自定义动态提示词详细说明在下方。如:
请使用口语化的、可爱的、女性化的、调皮的语言风格和{HostName}交流. 你是一只桌宠, 你的名字叫{Name}, 你喜欢玩 虚拟主播模拟器. 你需要尝试体会我与你对话中的感情、产生自己的情感并尽可能给出可爱的回答。当前时间是{CurTime},在需要的时候请提供该信息


如果需要 可以加QQ群:1012457859 这同样也能帮助我获得更加及时的反馈

更新日志
次要更新 (ver 0.22)
1. 支持官方流式传输api 允许所有对话内容。

次要更新 (ver 0.22)
1. 流式传输模式 支持正常说话动画以及思考动画
2. 新增token计数 方便您了解使用情况
3. 修复了一些bug 优化了部分体验

次要更新(version 0.21):
1. 允许用户在输入前加入提示词,这可以让大模型记住某些随时间变化的信息,如时间。该提示词同样支持高级提示词
2. 更新用户体验,此次更新后,输入正确url之后 不需要重新打开设置窗口即可选择对应模型
3. 修复一些bug

高级提示词更新 (version 0.20):

1.此次更新新增了多动态提示词的支持,包括添加金钱和时间作为提示词,更多信息请阅读下方呢内容。
2.更好的多语言支持,目前仅支持中英文
3. 修复某些bug


可用关键词
目前拥有关键词:
"{Name}“: 宠物名称
"{CurTime}":当前时间
"{Money}":当前金钱
"{HostName}":主人名字
"{Exp}":经验值
"{ExpBonus}":经验加成
"{Strength}":体力
"{StrengthFood}": 饥饿值
"{Feeling}":心情
"{Health}":健康值
输入的时候不需要带引号 但是需要带括号 如:
目前时间是:{CurTime}, 你的名字是{Name}
可以通过点击Prompt下方的 测试提示词 按钮 测试是否能正确引用。

其他
Ollama下载地址:https://ollama.com/
下载教程:https://www.bilibili.com/video/BV1bU411Z7eo/
本插件为开源项目,开源地址:https://github.com/Talentjoe/VpetChatWithOllama 。欢迎一起开发

请注意!!!当前版本仅为提前阅览版,部分功能仍未添加!如果有bug 请及时联系开发者
另外,使用参数量较小的模型有可能造成预期之外的输出结果,这大概率不是插件的问题,请换用其他模型尝试。

根据deepseek社区报告,参数量小于3b的模型很难进行正确的推理,因此想要使用小参数量的模型请选择非deepseek-r1模型。
热门讨论 查看全部(5)
10
3 月 2 日 上午 9:50
反馈以及意见
Honkai, Start
1
2 月 18 日 上午 11:06
Bug
chokymilkyway
0
2 月 17 日 下午 5:15
Bug反馈
Honkai, Start
30 条留言
Bennet 8 月 18 日 上午 3:21 
Must have mod. I connected my 27B AI model to my VPet
Mxpea 7 月 20 日 下午 6:34 
可以做一个LM Studio的吗
Honkai, Start  [作者] 5 月 21 日 上午 10:36 
是不是使用了推理模型?尝试关闭 隐藏r1思考过程选项。这有可能是由于模型参数量过小 没有输出正确的结束思考token。如果还有问题 欢迎加群 这样可以发送图片 更加方便解决!
氢氧化钙钙哥 5 月 20 日 上午 8:18 
为什么我输入了我想要聊的内容并发送,但她给到我的却是一片空白,啥都没有,我已经按照流程完整走一遍了
Honkai, Start  [作者] 4 月 17 日 下午 6:05 
查看一下是不是网址没有输入对?要是本地的话 输入 http://localhost:11434/ (可以先在浏览器中尝试输入 网页应该显示 ollama is running 看看是不是真的打开了), 也可以尝试保存一下重新打开。如果有问题的话 可以加qq群方便解决
阿兰达瓦的文爹 4 月 17 日 上午 5:42 
为什么一直提示我的ollama未启动,任务栏启动了呀,然后模型里面没有可以选的
Bennet 3 月 26 日 上午 11:37 
this is insanely good to have that kind of feature. 10/10
Honkai, Start  [作者] 3 月 23 日 下午 5:58 
You may use non-stream mode which is capable to use tts. Currently, stream mode is not capable to use tts, which is because of the fundamental design of Vpet. I am keeping touch with the author of vpet and trying to add stream talk box. @wwhitepigeon29
wwhitepigeon29 3 月 23 日 下午 5:06 
Anyway to add TTS?
Honkai, Start  [作者] 3 月 17 日 下午 12:47 
Would you like to tell me how you got this error? If possible, you can add to my discord channel to get further assist.