We're sorry but react app doesn't work properly without JavaScript enabled. Please enable it to continue.
文档
备案
控制台
登录
立即注册
首页
AI 大模型体验中心
动手实验室
Agent 评测集
AI 案例广场
学习中心
社区
去发布
首页
AI 大模型体验中心
动手实验室
Agent 评测集
AI 案例广场
学习中心
社区
云原生专栏
分享字节跳动/火山引擎云原生技术、开源项目的相关信息
AI 云原生 Agent 开发实战
AI 云原生开发agent的动手实操,有趣case 10分钟get!
云安全专栏
火山引擎云安全产品实践
数智平台VeDI专栏
数据中台产品双月刊、增长营销产品季刊全期合集,实时更新~
云存储技术专栏
分享云存储技术、最佳实践和最新活动
云原生专栏
分享字节跳动/火山引擎云原生技术、开源项目的相关信息
AI 云原生 Agent 开发实战
AI 云原生开发agent的动手实操,有趣case 10分钟get!
云安全专栏
火山引擎云安全产品实践
数智平台VeDI专栏
数据中台产品双月刊、增长营销产品季刊全期合集,实时更新~
云存储技术专栏
分享云存储技术、最佳实践和最新活动
查看更多专栏
综合
最新
大数据玩家七七
大模型微调评测入门:看懂这些指标,才知道模型好不好
大模型
后端
深度学习
人工智能
大家好,我是七七!最近后台收到很多粉丝的共性提问:“我用LoRA微调了Llama 2 7B模型做情感分析,怎么判断它好不好用?”“微调后的文案生成模型,凭感觉比原版好,但是怎么证明?” 这其实戳中了大模型微调的一个核心痛点——很多新手只关注“怎么调”,却忽略了“怎么评”。不少人微调完模型,仅靠几条测试样本的主观感受下结论,结果上线后要么效果波动大,要么在真实场景中拉胯。 大模型微调不是“一锤子买卖
大数据玩家七七
显存不够?16G显卡驾驭13B模型的计算与优化全指南
大模型
深度学习
人工智能
云原生
大家好,我是七七!之前收到很多粉丝私信,核心痛点就一个:手里只有16G显卡,想微调13B模型提升效果,可要么算错显存盲目下载后直接OOM(显存溢出),要么觉得“16G肯定不够”直接放弃,眼睁睁看着别人用13B模型做出更优效果。 其实16G显卡跑13B模型不是“天方夜谭”,关键在于两点:一是精准算清显存需求,避开“只算参数不算隐性消耗”的误区;二是用对低显存优化技巧,把每一分显存都用在刀刃上。很多新
火山引擎开发者社区
Coding Plan 权益扩展:支持四大编程模型!首月低至8.9元
火山方舟
AI生态
为了给开发者带来更精细化的优质编程体验,今天,火山方舟 Coding Plan 权益迎来新升级。Coding Plan订阅套餐,现在集成了 Doubao-Seed-Code、GLM-4.7、DeepSeek-V3.2 和 Kimi-K2-Thinking 多款编程模型,让开发者能够自由切换 AI 引擎,为不同编程任务匹配最适合的模型。未来,Coding Plan 也会动态加入更多出色的编程模型,第
AIGC部落(AIGCtribe)
字节跳动新推出的AI agent平台:AnyGen
AI
大模型
大数据
图像处理
关于生成式人工智能AIGC的一切
大数据玩家七七
民用卡 vs 专业卡 vs 云 GPU:大模型微调该选哪种?
大模型
深度学习
人工智能
大家好,我是七七!最近后台收到的GPU选型问题快堆成山了:学生党问“16G民用卡能不能微调7B模型”,小团队纠结“买专业卡还是租云GPU”,企业负责人困惑“大规模微调该配多少张专业卡集群”。 其实三类GPU没有绝对的“好坏”,只有“适配与否”。之前帮一个跨境电商小团队选型,他们一开始盲目租了A100云GPU,微调7B模型每月花掉8000元,后来换成RTX 4090民用卡,成本砍到2000元,效果却
一只牛博
【TextIn大模型加速器 + 火山引擎】基于 Dify 构建企业智能文档中枢:技术文档问答+合同智
AI
AI解决方案
最佳实践
火山方舟
本文将从企业实际痛点出发,详细介绍如何利用 TextIn 通用文档解析能力 + 火山引擎豆包大模型 + Dify 工作流编排,构建一套覆盖技术文档问答、合同风险审核、发票智能核验的企业级文档处理中枢。在企业数字化转型过程中,文档处理一直是被低估却又无处不在的效率黑洞。我在实际项目中观察到三类典型场景:痛点一:技术文档散落,知识传承断层研发团队的代码规范、架构设计、接口文档散落在 Confluenc
一只牛博
震撼!Seedream 4.0的实力到底有多恐怖?看完这测评就懂了
AI
AIGC
AI绘画
之前,我们为了得到一张满意的AI生成图片,需要反复调试提示词、等待漫长的生成时间,最后可能还要在各种工具间来回切换?这种割裂的创作体验,让不少设计师和创作者望而却步。但这一切,在9月11日的那个夜晚悄然改变了。当字节跳动正式发布豆包·图像创作模型 Seedream 4.0 时,整个AI创作圈都沸腾了。不仅仅是因为它在 Artificial Analysis 的「文生图」和「图像编辑」两大权威榜单上
申公豹
【TextIn大模型加速器 + 火山引擎】实战博主教你手把手打造最强医疗报告单分析智能体Agent
火山方舟
智能体验与创作
火山方舟
扣子
在医疗数字化不断深化的今天,医疗报告单依然是信息化链路中最“难啃的一块骨头”。它高度非结构化、格式五花八门,却又承载着最关键的健康信息。无论是医院信息系统、体检机构平台,还是互联网医疗应用,几乎每天都在与大量 PDF、扫描件、拍照上传的报告单打交道,而其中绝大多数数据,仍然依赖人工阅读、人工录入、人工解读。随着大模型技术逐步走向工程化落地,一个共识正在形成:真正有价值的智能体,并不是会聊天,而是能
科叼
别搞混了!MCP 和 Agent Skill 到底有什么区别?
大模型
AIGC
用 AI Agent 工具(Claude Code、Cursor、Windsurf 等)的时候,经常会遇到两个概念:MCP(Model Context Protocol)Skill(Agent Skill)它们看起来都是"扩展 AI 能力"的方式,但具体有什么区别?为什么需要两套机制?什么时候该用哪个?这篇文章会从设计哲学、技术架构、使用场景三个维度,把这两个概念彻底讲清楚。先给个简单的定位:MC
大数据玩家七七
大模型成本刺客退散!1/3算力跑出同等效果的秘诀
大模型
深度学习
人工智能
大家好,我是七七!前阵子帮一个创业团队做大模型落地咨询,他们吐槽最狠的就是算力成本——微调一个7B模型,用云GPU跑一次要花800块,推理时高并发场景每月算力账单超2万,本来小团队预算就紧,硬生生被算力拖慢了项目进度。 其实这是很多人和企业的共同痛点:做大模型微调与推理,要么盲目堆硬件、拉满参数,导致算力浪费;要么为了省钱随意降配,结果效果断崖式下跌。但实际上,成本控制不是“降配减效”,而是“精准
狸猫算君
别再搞混了!一文看懂“显存”与“内存”:从办公桌到实验室的硬核分工
大数据
技术解析
数据库架构
深度学习
嗨~我是你们的AI伙伴狸猫算君!想象一下这个场景:你兴奋地克隆了一个最新的开源大模型到本地,准备一展身手。当你满怀期待地输入命令 时,等待你的不是模型的回应,而是一行冰冷的红色错误:。“我明明有32GB的内存啊,怎么8GB的显存就不够用了?”这几乎是每一位AI开发者和科研新手都会遇到的“第一堵墙”。问题的核心,就在于混淆了 内存(RAM) 和 显存(VRAM) 的职责。在当今这个由AI、高清
全栈若城
【TextIn大模型加速器 + 火山引擎】零代码搭建企业级智能文档处理系统
扣子
AI解决方案
在数字化转型的浪潮中,文档智能处理已成为企业提效的关键环节。本文将深入探讨如何结合 TextIn AI 的强大文档处理能力与火山引擎 Coze 平台的智能编排优势,构建一套高效的文档智能处理解决方案。| 技术组件 | 核心能力 | 应用场景 | |---------|---------|---------| | TextIn API | 图像处理、文档解析、OCR识别 | 水印去除、PDF解析、数
golang学习记
VS Code 重大更新:Agent Skills完美支持!
云原生
大模型
Service Mesh
云原生可观测
分享golang 学习的点滴
越哥聊AI
扣子Coze工作流混剪:10分钟生成100条爆款电商带货短视频
AI
大模型
视频服务
智能应用
AI创业者,智能体专家,前阿里美团技术负责人,聚焦AI智能体实战+商业变现,企业自动化提效,千人AI共创社群
火山引擎开发者社区
GLM-4.7 模型上线企业版
大模型
大模型
企业应用
人工智能与算法
火山引擎开发者社区是火山引擎的 TOD 社区,致力于链接火山引擎和开发者,为大家提供前沿技术内容和丰富的技术活动,打造更好的开发者文化和氛围,共建开源生态。
大模型创作gigi
大模型指南:一文搞懂LoRA微调
大模型
大模型
大模型之所以“大”,是因为它有数百亿甚至数千亿个参数。传统微调需要调整所有这些参数,好比为了学一道新菜重学整个烹饪体系。LoRA的聪明之处在于发现了一个秘密:大模型在学习新任务时,权重变化具有“低秩特性”。 用更通俗的话说:虽然模型有成千上万个“旋钮”,但调整它们时,很多旋钮其实是同步联动的。LoRA用数学方法找到了这些联动规律,只需调整少数几个“主控旋钮”,就能达到调整成千上万个旋钮的效果。 在
开源星探
3.5K Star!GitHub 高赞 Vibe Coding 神级指南!
AI
大模型
机器学习
算法
专注于分享GitHub上优质、有趣、实用的开源项目、工具及学习资源,为互联网行业爱好者提供优质的科技技术资讯。
大数据玩家七七
微调 + RAG 组合方案:1+1>2 的大模型应用技巧
大模型
深度学习
人工智能
大家好,我是七七!上个月帮一家连锁药店做智能客服项目,一开始踩了个大坑:只用微调,模型对最新的医保政策一问三不知;只用RAG,模型又看不懂专业的医学术语,回答总是驴唇不对马嘴。后来我把微调与RAG结合起来,先用行业数据微调模型让它“懂医学”,再用RAG挂载实时医保知识库让它“知政策”,结果客服准确率从65%直接冲到92%,客户投诉量降了70%。 其实这是很多企业落地大模型时的共同痛点:单独用微调,
一只牛博
Doubao-Seed-Code深度测评:一张设计稿生成完整网站,视觉理解编程模型全流程实战
火山方舟
AI解决方案
AI生态
火山方舟
最近在刷技术社区时,被火山引擎新推出的Doubao-Seed-Code编程模型刷屏了。作为一名前端开发者,我最关注的是这个宣传点:国内首个具备原生视觉理解能力的编程模型。这意味着什么?传统的编程模型只能"听"不能"看",你给它一张UI设计稿,它完全看不懂。而Doubao-Seed-Code可以直接"看懂"设计稿、截图、原型图,然后生成对应的代码。更吸引我的是它的三个核心优势:完美兼容Claude
大模型探员
大模型避坑指南:从底层逻辑到实战代码,开启你的AI进化之旅
大模型
大模型
你好!我是你的AI技术博主伙伴。大模型技术日新月异,很多小伙伴问我: “道理我都懂,但怎么才能让AI真正听我的话,处理我那些专业的业务数据呢?” 答案其实只有两个字:力矩。今天,我把大模型的“前世今生”彻底梳理了一遍。无论你是刚入行的小白,还是想进阶的开发者,这篇长文帮助打通任督二脉,从零基础走向实战。在这个“百模大战”的时代,GPT-4、Llama-3、Qwen等模型已经展现了惊人的天赋。他们能
与技术交朋友 与技术同行
写文章
精彩专栏
查看更多
边缘云技术专栏
119
云原生计算专栏
95
云原生
68
4
技术服务 - 操作系统
49
5
视频云技术专栏
47
6
技术服务 - 容器服务
44
7
云原生开源大数据平台 EMR 专栏
41
8
云基础专栏
40
9
AIGC思维火花
38
10
MySQL技术
33