AI 启蒙小伙伴
AI 启蒙小伙伴
AI大模型
"2025 年谷歌 AI 全面崛起,整个 AI 行业也是发展极其迅猛,多模态、智能体、智能硬件更是如此,一起分类看看谷歌官方分享的 AI 应用技巧\x0a\x0a深度研究与智能学习\x0aGemini 3 的发布标志着多模态理解能力的跨越。AI 不仅能读懂复杂的论文,还能将其转化为互动的可视化指南。\x0a· Gemini 3:支持文本、视频、代码等多种输入,可生成交互式模拟\x0a· Noteb
15
0
0
0
AI大模型向量数据库火山方舟
"通过 Anthropic 官方文档「Agent Skills Best Practices」一起看看如何构建 Agent Skills 最佳实践。\x0a\x0a1. 核心原则:上下文经济与弹性约束\x0a· 极简主义:上下文窗口是昂贵的公共资源。默认 Agent 具备通用常识,说明文档应仅聚焦于其不知道的特定领域知识,杜绝基础概念解释。\x0a· 动态自由度:根据任务风险设定指令僵化程度。低风
12
0
0
0
AI大模型智能应用数据库
"项目定位:为 AI 打造的持久化“外挂大脑” 🧠\x0aContinuous Claude 是针对 Claude Code 等 AI 编程助手量身定制的增强系统。它的核心使命是打破 AI 在长对话中的“健忘症”,通过建立一套类似人类工程师的记录与交接机制,让 AI 在处理复杂、跨周期的开发任务时,始终保持清醒的认知和精准的记忆。\x0a\x0a核心痛点:为什么原生 AI 会“变傻”? 📉\x
4
0
0
0
AI大模型人工智能与算法智能应用
"核心成就与背景\x0a· 极速开发:在短短 4 周(10.8~11.5)内,一个小型的 4 人工程团队配合 Codex 完成了从原型到全球发布的开发工作。 \x0a· 高质量交付:App 发布后即登顶 Play Store 榜首,首日生成超百万视频,且保持了 99.9% 的无崩溃率。 \x0a· 资源消耗:整个过程消耗了约 5B token。 \x0a\x0a开发哲学:打破“布鲁克斯定律”\x0
2
0
0
0
大模型火山方舟大模型GPU
"来自 Ngrok 团队 Sam Rose 关于 Prompt Caching 的技术博客,Sam 从底层原理到厂商实测,非常清晰地揭示了这项技术如何成为 LLM 应用降本增效的“杀手锏”。\x0a\x0a核心原理:缓存的不是“文本”,是“思维状态”\x0a很多人误以为 Prompt Caching 只是简单地存储了输入的文本。实际上,它复用的是模型推理过程中最昂贵的中间产物—— K (Key)
15
0
0
0
AI大模型AI开放平台企业应用
"Agent Skills 是一个简单、开放的标准格式,用于为 AI Agents 提供新的能力和专业知识,上个月 Claude Skills 首次推出,后续快速得到各家 AI Agent 跟进支持,现在 Anthropic 正式发布为开放标准!\x0a\x0a核心概念\x0a· Skill 的结构:一个 Skill 就是一个文件夹,里面必须包含一个 SKILL. md 文件。该文件以 YAML
92
0
0
0
AI大模型AI开放平台图像处理
"OpenRouter 发布 2025 年度 AI 模型统计回顾「2025 OpenRouter COMMUNITYSTATS」 \x0a报告地址:https://openrouter.ai/wrapped/2025/stats?t=2 \x0a \x0a2025 年总路由 Token 136.78T!\x0a如果这个数据还不够直观,看看对比数据: 它相当于 14亿部小说、2400万年不间断演讲、
3
0
0
0
AI大模型AI开放平台机器学习
"核心理念:从“写代码”转向“编排 AI”\x0a编程的重心已从记忆语法转向逻辑治理。开发者的核心价值在于:定义愿景、管控上下文、守住质量底线。\x0a\x0a⚡ 核心范式:高密度规划 + 精准上下文 + 极小步迭代\x0a1. 规格先行 (Spec-First) 📋\x0a· 文档驱动:在编码前编写 spec.md,明确架构、模型与合约。\x0a· 逻辑对齐:先让 AI 审查规格书。在逻辑达成
6
0
0
0
AI大模型向量数据库图像处理
做每个人都能学的 AI 启蒙小伙伴,分享 AI 最新信息和技术应用,分享 AI 在工作和生活中的落地应用,帮助每个人在自己的领域里借助 AI 发挥 ×10 的能量。合作邮箱: shaomeng@outlook.com
42
0
0
0
大模型大模型向量数据库机器学习
"对话式逆向工程剖析 ChatGPT 记忆系统\x0a❌ 完全没有向量数据库和 RAG\x0a✅ 而是一种分层、高效的四级上下文结构\x0a\x0a核心发现:比想象中更简洁\x0aChatGPT 的“记忆”并非在一个巨大的数据库中搜寻你过去说过的每一句话。相反,它通过巧妙地拼接不同层级的信息,在个性化和响应速度/成本之间取得了平衡。\x0a\x0aChatGPT 上下文的四层结构\x0a1. 会话
23
0
0
0
AI大模型
"知名开发者 Simon Willison 过去两年利用 LLM 构建了超过 150 个“HTML Tools”。他提出的「单文件 HTML + 浏览器原生能力 + AI 编程」模式,正在成为 AI 时代一种极具潜力的软件开发范式。\x0a\x0a1. 什么是“HTML Tools”?\x0a· 单文件架构:HTML、JavaScript、CSS 全部封装在一个 .html 文件中\x0a· 零构
13
0
0
0
AI大模型容器智能应用
做每个人都能学的 AI 启蒙小伙伴,分享 AI 最新信息和技术应用,分享 AI 在工作和生活中的落地应用,帮助每个人在自己的领域里借助 AI 发挥 ×10 的能量。合作邮箱: shaomeng@outlook.com
19
0
0
0
AI大模型向量数据库AI开放平台
"AI 写的代码,往往“虚胖” 在用 AI 写代码时常发现一个问题:代码能跑是能跑,但总觉得“味儿不对”——太啰嗦、太刻意,不像是一个经验丰富的资深工程师写的。 \x0a\x0aCursor 的这条指令,就是为了精准切除以下四种“AI 代码赘肉”:\x0a\x0a1. 切除“废话文学” (Extra Comments)\x0a· 症状:AI 特别喜欢解释显而易见的事情。比如代码写了 score +
24
0
0
0
AI大模型微服务数据库
"核心目标\x0a利用 Cursor 辅助,快速、深入地掌握一个新项目的代码架构、技术栈和业务逻辑,并生成可供反复查阅的文档。 \x0a \x0a详细工作流归纳\x0a1. 安全探索与全局扫描 (准备阶段)\x0a开启“Ask Mode”:\x0a· 操作:将 Cursor 切换至 Ask Mode\x0a· 目的:这是一个只读模式,防止在探索过程中意外修改代码,确保代码库的安全\x0a快速检索:
20
0
0
0
AI向量数据库大模型AI开放平台
"很多 AI Agent 之所以让人觉得“笨”,不是因为模型不够聪明,而是因为它们缺乏执行力。为了解决这个问题,制定一个包含四个核心要素的“体检清单”。\x0a\x0a1. 真正“活”的记忆\x0a很多 Agent 只有短暂的“上下文窗口”或简单的对话摘要,这远远不够。\x0a· 核心问题:Agent 经常重蹈覆辙,因为它不记得自己刚才试过什么、错在哪里\x0a· 解决方案:需要建立结构化的记忆库
9
0
0
0
大模型大模型机器学习人工智能与算法
"再看 Manus 这篇深度好文「Context Engineering for AI Agents: Lessons from Building Manus」还是很有收获和启发! Manus 如何在不改变模型参数的前提下,通过极致的“上下文工程”解决 AI Agent 运行慢、逻辑失效及成本高昂的问题。其核心思路在于将 Context 视为一种工程资源进行精细化管理。\x0a\x0a1. 性能优
15
0
0
0
AI向量数据库企业应用人工智能与算法
做每个人都能学的 AI 启蒙小伙伴,分享 AI 最新信息和技术应用,分享 AI 在工作和生活中的落地应用,帮助每个人在自己的领域里借助 AI 发挥 ×10 的能量。合作邮箱: shaomeng@outlook.com
31
0
0
0
AI大模型智能体验与创作图像处理
做每个人都能学的 AI 启蒙小伙伴,分享 AI 最新信息和技术应用,分享 AI 在工作和生活中的落地应用,帮助每个人在自己的领域里借助 AI 发挥 ×10 的能量。合作邮箱: shaomeng@outlook.com
82
0
0
0
AIAgent
最近的开发环境基本稳定在 Claude Code + X,Claude Code 的 Agent 架构和命令行形式是我喜欢的,虽也有测试 CodeX 等不过暂时还没有足够的动力切换。而这里的 X 主要是因为 Anthropic 这个奇怪的公司封号太狠,之前的 Claude API 被封了也不想折腾,索性现在新推出的 LLM API 基本都会兼容 OpenAI 和 Anthropic API,也就可
110
0
0
0
AI大模型开发与运维数据库
素材来源官方媒体/网络新闻,,,子智能体的核心概念\x0a在 Claude Code 中,子智能体是一种独立的智能体循环,它拥有全新的 token 上下文,被主智能体派遣去完成特定子目标,并在任务结束后向主智能体报告结果。这种设计类似于“分而治之”的编程范式:主智能体负责整体协调,而子智能体则专注于细分任务,避免主上下文被过度膨胀,从而保持高效。 \x0a\x0a这种机制并非全新——早在 2025
52
0
0
0