前言
在人工智能盛起的当下,AI正以非常迅猛的速度重塑着很多行业。可以预见的是2024将是AI原生应用开发元年,将会涌现出数不清的AI原生应用来重塑我们的工作和生活的方方面面。而在AI原生应用里面将会以AI Agent即AI智能体为主要代表,将会有很多个像crewAI—用于编排角色扮演的AI agent(超级智能体)一样的Agent出现在我们的面前。在可以预见的未来,世界大模型Sora—聊聊火出圈的世界AI大模型——Sora毫无疑问将会带来革命性的AI热潮。
今天要介绍的是一款实现了self-organizing的AI 笔记应用,它不光可以基于ChatGPT这类api模型运行,还可以基于本地化的模型运行。
关于
Reor 是一款 AI 驱动的桌面笔记应用:它可以自动链接相关的想法,回答你的笔记中的问题,并提供语义搜索。所有内容都存储在本地,你可以使用类似 Obsidian 的 Markdown 编辑器编辑你的笔记。
该项目的假设是,思考工具的 AI 工具应该默认在本地运行模型。Reor 依托于巨人 Llama.cpp
、Transformers.js
和 LanceDB
的肩膀,使得大型语言模型(LLMs)和嵌入模型都能在本地运行。(也支持连接到兼容 OpenAI 的 API,如 Oobabooga。)
如何实现“self-organizing”?
- 您编写的每个笔记都被分块并嵌入到一个内部向量数据库中。
- 相关笔记通过向量相似性自动连接。
- LLM 驱动的问答(Q&A)在笔记语料库上进行检索和生成(RAG)。
- 所有内容都可以进行语义搜索。
- 可以将 Reor 视为一个具有两个生成器的 RAG 应用:LLM 和人类。在问答模式中,LLM 从语料库中检索到的上下文中获取信息以帮助回答查询。同样,在编辑模式中,人类可以切换侧边栏以显示从语料库中“检索”到的相关笔记。这是一种通过在当前笔记中交叉引用与您的语料库中的相关想法来“增强”您的思考的强大方式。
reor.mp4(可以点击文末github地址进入查看视频)
开始使用
- 从 reorproject.org[4] 或 releases[5] 下载。支持 Mac、Linux 和 Windows。
- 像普通应用程序一样安装。
运行本地模型
Reor 直接与Llama.cpp
库交互,因此无需下载 Ollama。尽管现在我们不为您下载模型,因此您需要手动下载您选择的模型:
1.下载一个 GGUF 模型文件。Hugging Face
有一个包含最流行模型的不错页面。我建议从 7B 4-bit 模型开始,看看它在您的系统上的表现如何。
2.在 Reor 设置中的“添加新的本地模型”下连接它。
3.您还可以连接到兼容 OpenAI 的 API,如 Oobabooga、Ollama 或 OpenAI 本身!
从其他应用导入笔记
Reor 在文件系统中的单个目录中工作。您在首次启动时选择该目录。要从另一个应用导入笔记/文件,您需要手动用 Markdown 文件填充该目录。希望很快就能与其他应用集成!
从源代码构建
克隆仓库:
git clone https://github.com/reorproject/reor.git
安装依赖项:
npm install
开发运行:
npm run dev
构建:
npm run build
声明
本文由山行整理自:https://github.com/reorproject/reor。如对您有帮助,请帮忙点赞、关注、转发。
References
[1]
GitHub 下载: https://github.com/reorproject/reor/releases
[2]
Discord: https://discord.gg/reor
[3]
GitHub 仓库星标: https://github.com/reorproject/reor/stargazers
[4]
reorproject.org: https://reorproject.org
[5]
releases: https://github.com/reorproject/reor/releases