技术行业趋势安全
我们并不否定外界探讨的一切“以人为本”的内涵。为了方便阐释我们的人文立场,我们有必要在我们的默认语境中借用“以人为本”这个词语。我们非常愿意与大家共同探索如何实现以人为本,包括人机地位以外的语境中,尽管我们的以人为本默认聚焦于人机地位这一点。脱离人机地位的“以人为本”不适用本文的严格界定,也因为这种人机地位以外“以人为本”内涵的开放性为全人类的发展带来无上限的激动可能。“以人为本”在我们语境中的适
扣子扣子扣子专业版
详细创建流程可参考文档使用 IDE 创建插件,此处仅提供简化操作流程创建插件创建工具插件中的每个工具代表一个API接口,一般“查询”、“执行”等动作分别代表一个工具在这个位置添加示例代码示例****代码来自“接入说明”部分。服务文档中有如截图所示的接入说明部分的服务,都可以按当前方案接入代码链接https://www.volcengine.com/docs/6444/1390583示例代码:调整前
AI大模型AI开放平台智能应用
TRAE,The Real AI Engineer|字节跳动旗下的AI编程产品,你的专属AI开发工程师。欢迎在PC端官网直接下载,免费使用。
大模型人工智能深度学习数据库架构
如果你做过大模型微调,那“显存不够”这四个字,你几乎不可能陌生。 第一次跑,直接 OOM。换个 batch size,再 OOM。开 bf16,还是不够。关掉一些东西,终于能跑了,但速度慢得离谱。 很多人会在这个阶段得出一个结论:“是我显卡不行。” 但当你真的开始拆解显存使用之后,你会发现一个非常反直觉的事实: 大多数显存,并不是被模型参数吃掉的。 而你之所以总感觉显存不够,往往是因为你根本不知道
AI生态AI生态AI开放平台
家好,我是子昕,一个干了10年的后端开发,现在在AI编程这条路上边冲边摸索,每天都被新技术追着跑。Claude的金主爸爸亚马逊(AWS)偷偷发布了一款AI编程工具,。我用它做了三个公司的生产级项目需求,深度体验3天后发现:Kiro现在完全免费,可以免费使用Claude-Sonnet-4和Claude-3.7模型规范驱动开发模式,代码质量和工程化程度碾压CursorAgent Hooks自动化系统,
AI生态AI解决方案MCPAI生态
n8n是一款专为技术团队打造的开源工作流自动化平台(Workflow Automation Platform),兼具「低代码(No-code)」与「可编程(Pro-code)」双重特性。它让你可以轻松地将不同系统、API 和服务连接起来,自动执行任务、数据同步、通知、集成 AI 模型等各种流程。n8n 不仅能节省大量重复性工作,还能在团队内部构建稳定、安全的自动化体系。n8n 是一款专为技术团队打
AI大模型大数据图像处理
关于生成式人工智能AIGC的一切
AIAIGCAI绘画
之前,我们为了得到一张满意的AI生成图片,需要反复调试提示词、等待漫长的生成时间,最后可能还要在各种工具间来回切换?这种割裂的创作体验,让不少设计师和创作者望而却步。但这一切,在9月11日的那个夜晚悄然改变了。当字节跳动正式发布豆包·图像创作模型 Seedream 4.0 时,整个AI创作圈都沸腾了。不仅仅是因为它在 Artificial Analysis 的「文生图」和「图像编辑」两大权威榜单上
火山方舟AI生态
为了给开发者带来更精细化的优质编程体验,今天,火山方舟 Coding Plan 权益迎来新升级。Coding Plan订阅套餐,现在集成了 Doubao-Seed-Code、GLM-4.7、DeepSeek-V3.2 和 Kimi-K2-Thinking 多款编程模型,让开发者能够自由切换 AI 引擎,为不同编程任务匹配最适合的模型。未来,Coding Plan 也会动态加入更多出色的编程模型,第
大模型大模型
你好!我是你的AI技术博主伙伴。大模型技术日新月异,很多小伙伴问我: “道理我都懂,但怎么才能让AI真正听我的话,处理我那些专业的业务数据呢?” 答案其实只有两个字:力矩。今天,我把大模型的“前世今生”彻底梳理了一遍。无论你是刚入行的小白,还是想进阶的开发者,这篇长文帮助打通任督二脉,从零基础走向实战。在这个“百模大战”的时代,GPT-4、Llama-3、Qwen等模型已经展现了惊人的天赋。他们能
大模型大模型智能应用机器学习
TRAE,The Real AI Engineer|字节跳动旗下的AI编程产品,你的专属AI开发工程师。欢迎在PC端官网直接下载,免费使用。
AIAI解决方案最佳实践火山方舟
本文将从企业实际痛点出发,详细介绍如何利用 TextIn 通用文档解析能力 + 火山引擎豆包大模型 + Dify 工作流编排,构建一套覆盖技术文档问答、合同风险审核、发票智能核验的企业级文档处理中枢。在企业数字化转型过程中,文档处理一直是被低估却又无处不在的效率黑洞。我在实际项目中观察到三类典型场景:痛点一:技术文档散落,知识传承断层研发团队的代码规范、架构设计、接口文档散落在 Confluenc
大模型技术解析
大家好,我是你们的AI伙伴狸猫算君~。今天我们要聊一个能让ChatGPT、文心一言等大语言模型真正“为你所用”的杀手级技术——RAG(检索增强生成)。想象一下这个场景:你是一家医疗科技公司的产品经理,想用大模型回答患者关于药品说明书的问题。直接问ChatGPT“阿司匹林的禁忌症有哪些?”它可能会给你一个笼统的答案,但无法精确到你公司特定剂型、特定批次的药品信息。这时候,RAG技术就派上用场了。RA
大模型AIGC
用 AI Agent 工具(Claude Code、Cursor、Windsurf 等)的时候,经常会遇到两个概念:MCP(Model Context Protocol)Skill(Agent Skill)它们看起来都是"扩展 AI 能力"的方式,但具体有什么区别?为什么需要两套机制?什么时候该用哪个?这篇文章会从设计哲学、技术架构、使用场景三个维度,把这两个概念彻底讲清楚。先给个简单的定位:MC
大模型数据库架构深度学习人工智能
最近和多家企业的AI技术负责人深度交流,发现一个共性痛点:RAG(检索增强生成)作为解决大模型“知识过期”“幻觉”的核心技术,80%的团队都在选型上栽了跟头——要么用轻量方案硬扛大规模数据,导致检索延迟飙升至3秒以上;要么用复杂方案给小场景做“过度设计”,服务器成本翻倍却没提升效果。 印象很深的一个案例:某教育公司初期为了“一步到位”,直接上了“RAG+微调+分布式向量库”的复杂架构,处理仅5万条
大模型大模型智能体验与创作AI开放平台
TRAE,The Real AI Engineer|字节跳动旗下的AI编程产品,你的专属AI开发工程师。欢迎在PC端官网直接下载,免费使用。
火山方舟智能体验与创作火山方舟扣子
在医疗数字化不断深化的今天,医疗报告单依然是信息化链路中最“难啃的一块骨头”。它高度非结构化、格式五花八门,却又承载着最关键的健康信息。无论是医院信息系统、体检机构平台,还是互联网医疗应用,几乎每天都在与大量 PDF、扫描件、拍照上传的报告单打交道,而其中绝大多数数据,仍然依赖人工阅读、人工录入、人工解读。随着大模型技术逐步走向工程化落地,一个共识正在形成:真正有价值的智能体,并不是会聊天,而是能
AI企业应用大模型数据安全
火山引擎开发者社区是火山引擎的 TOD 社区,致力于链接火山引擎和开发者,为大家提供前沿技术内容和丰富的技术活动,打造更好的开发者文化和氛围,共建开源生态。
大模型深度学习人工智能后端
如果你做过几次大模型微调,大概率会有一种非常熟悉的体验。 第一次跑通微调之后,你开始觉得这件事“好像也没那么难”。模型能训起来,loss 能降,输出也确实有点变化。接下来,你自然会做一件事:开始调参数。 学习率小一点?batch size 大一点?epoch 再多跑几轮?LoRA 的 rank 要不要加? 你做的每一个动作,看起来都很合理,也都能在某篇博客或某个 repo 的 README 里找到
技术服务知识库金融Pythonwebsocket
在 2026 年,随着量化交易、算法投资和高频交易的普及,获取低延迟、可靠的全球股市实时行情数据已成为投资者和开发者的刚需。实时行情 API 不仅提供股票报价、成交量、盘口深度,还支持 WebSocket 推送以实现毫秒级更新。本文将对比当前主流的全球股市实时行情数据 API,重点分析覆盖范围、延迟、定价、易用性和 Python 支持度,并特别提供 Python 代码示例。2026 年最受欢迎的几