WiseMindAI 五月份新功能汇总,不断完善的AI 本地知识库客户端!

大模型向量数据库NoSQL数据库

🌟 工具名称:WiseMindAI

🔗 官方网址: https://wisemind-ai.com/

📖 下载地址: https://wisemind-ai.com/download/

🌍 支持语言:简体中文、繁体中文和英文

💻 支持平台:Windows 端、Mac 端

WiseMindAI 是 Chris 开发的一款 AI 智能学习助手,数据完全本地化,安全可靠,支持丰富文档类型、AI 大语言模型和实用的 AI 插件。

WiseMindAI 详细介绍:WiseMindAI:一款AI智能学习助手,数据完全本地化,支持文档总结、对话、笔记、海报、10+个AI大模型等

picture.image

WiseMindAI 的核心功能包括:

  • 📊 数据本地化 :所有用户数据本地化存储,保证用户隐私安全。
  • 📒 支持 10+ 种文档 :支持网页、RSS、PDF、Markdown 等 10+ 种不同格式的文档。
  • 📚 AI 知识库 :支持添加各种文档,作为知识库进行总结、对话。
  • 📄 AI 文档总结 :快速提取文档核心内容,生成简洁摘要,导出思维导图。
  • 📝 AI 智能笔记 :一键生成笔记、智能打标、智能改写、内容扩展等。
  • 💬 AI 文档对话 :与文档进行智能对话,直接获取关键信息,快速回答问题,节省查找时间。
  • 🗂️ 智能知识卡片 :将复杂信息转化为易于理解和记忆的知识卡片。
  • 🌐 沉浸式翻译 :支持网页沉浸式翻译,并提供多种语言和主题样式灵活配置。
  • 🤖 支持 10+ 大模型 :接入 OpenAI、DeepSeek、智谱 AI 等多个顶尖 AI 大模型。
  • 🔌 自定义 AI 插件 :允许用户开发和集成个性化 AI 插件。
  • 🖼️ 智能海报生成 :根据内容智能生成海报主题,提供丰富模板和个性化海报定制。

picture.image

视频介绍:

接下来一起总结下 WiseMindAI 五月份更新的一些新功能:

一、文档和知识库增加“输入内容”的来源方式

1.需求背景

在之前功能中, 用户只能添加文档或链接到 WiseMindAI 中 ,才能使用总结、对话等功能,当用户只需要添加一段文本时,还需要创建一个文档,将内容保存到文档中,再添加该文档到 WiseMindAI,使用起来比较麻烦。

此次增加“输入内容”作为文档来源方式 ,可以很方便解决这个问题。

2.解决方案

使用时,只需要打开添加文档的菜单,选择“输入内容 ”菜单即可:

picture.image

然后填写需要作为知识来源的内容:

picture.image

接下来就可以和使用其他文档一样进行操作了。

picture.image

相同的,在知识库中,也支持添加“输入内容”作为知识库的来源:

picture.image

二、系统插件支持自定义提示词

1.需求背景

在之前功能中, 系统提示词无法进行修改 ,导致用户在进行总结、对话等场景中,内置系统提示词无法很好的返回结果,但是又无法修改。使用起来非常不方便。

2.解决方案

此次更新,在设置弹框中,增加“系统插件 ”的提示词修改操作:

picture.image

并且这里已经将系统插件按照不同使用场景进行分类,用户可以根据实际情况进行选择和修改:

picture.image

三、增加 AI 对话支持切换模型

1.需求背景

对于之前整个 WiseMindAI 所有场景都是使用同一个 LLM 模型,每个模型的能力存在差异,无法支持根据使用场景,选择不同模型,比如在 AI 对话中,切换不同模型进行对话,操作不方便。

2.解决方案

此次增加 AI 对话框上直接进行切换模型 ,使用起来更加方便,未来其他地方也会增加切换模型的入口。

比如下面文档 AI 对话和知识库 AI 对话:

picture.image

picture.image

四、LLM 增加错误详情的提示

1.需求背景

在使用 WiseMindAI 时经常遇到“测试失败”、“总结失败”等错误提醒,这些大部分是因为 LLM 大语言模型报错导致,并且 WiseMindAI 没有将错误信息详细提醒,导致用户经常无法第一时间定位问题,效率大大降低。

2.解决方案

此次 WiseMindAI 增加 LLM 错误详情的提示,可以让用户更直观的看到 LLM 报错的原因,并且报错原因是对应 LLM 厂商的报错信息。

比如之前经常有小伙伴配置 DeepSeek 失败,其实是因为 DeepSeek 的 API 余额不足:

picture.image

五、通用 OpenAI LLM 自定义请求头参数

对于使用通用 OpenAI 作为模型提供商时,支持添加自定义请求头,满足特定模型的需求。

这里必须填写的是 JSON 格式:

picture.image

设置后,发送请求时将会把自定义请求头参数 一起作为请求头信息,发送给 LLM 大语言模型接口。

六、支持知识库文档笔记搜索

之前选择知识库文档和笔记时,无法进行搜索,使用起来比较麻烦,此次增加文档和笔记的名称进行搜索 ,提高文档的选择效率:

picture.image

picture.image

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论