就在刚刚,OpenAI的下一个开源项目引发热议。Sam Altman发起投票:
" for our next open source project, would it be more useful to do an o3-mini level model that is pretty small but still needs to run on GPUs, or the best phone-sized model we can do? "
对于我们的下一个开源项目,是做一个类似 o3-Mini 级别的小型模型(仍然需要 GPU 运行)更有用,还是尽可能打造一个性能最优的手机端(端侧)模型更有用?
-
支持手机模型的人强调普及性:手机模型能让AI更平民化。不依赖网络,更注重隐私。 让穷人用上AI,提供免费教育,降低能耗。
-
想要o3-mini的说:
现有手机模型在功能调用方面不够好。
技术派的观点很实在:"更好的基础模型才能蒸馏出更好的手机版。 ","现在的手机模型,还是走云端比较实际.",我们更需要内存占用小的PC模型。
社区可以后续蒸馏o3-mini到手机版,不该错过获得高质量开源模型的机会。
" 别急着上手机,先把模型做好。要啥自行车,要法拉利!性能差的手机模型有啥用?"
- 其他:
有人提醒:“ DeepSeek已有类似产品,Meta也在路上。手机模型虽然吸引眼球,但技术限制明显,选择权在你,但记住,你不做的,别人可能先做了。" 有人表示:" 为什么要选一个?两个都可以做啊。"
[旺柴][旺柴][旺柴]