Telegram创始人搞了个狠活:100%隐私的去中心化AI网络

大模型GPU安全

Telegram创始人帕维尔·杜罗夫刚刚宣布推出Cocoon,一个专注于机密AI计算的去中心化网络。按他的说法,这可能终结亚马逊和微软等昂贵中间商的垄断地位,AI查可以在100%保密、无追踪且价格低于市场的情况下处理。

picture.image

技术架构:三层结构保证隐私

根据Cocoon官网(cocoon.org/architecture)的技术文档,这个平台基于TON区块链构建,采用三层架构:

Worker层 :在Intel TDX可信执行环境中运行AI模型(如通过vllm运行的LLM),执行实际的AI推理请求。GPU所有者只需安装镜像、配置模型名称、TON钱包地址就能参与。

Proxy层 :负责路由请求,根据模型类型、负载和声誉选择合适的Worker。目前由Cocoon团队运营,未来会开放给任何人运行。

Client层 :发送推理请求的库,主要面向服务端基础设施。Telegram后端就会运行多个客户端实例来处理用户请求。

工作流程:四步完成AI查询

整个请求流程相当直接:

  1. 客户端与代理建立RA-TLS连接,验证代理的TEE认证
  2. 代理与选定的Worker建立RA-TLS连接,验证Worker的TEE认证
  3. 客户端发送推理请求(预付费)→ 代理转发给Worker → Worker在TEE中处理
  4. Worker返回响应 → 代理通过智能合约支付Worker → 代理将响应返回客户端

所有通信都通过RA-TLS加密,只有客户端能看到提示词和响应内容。

现实挑战:延迟和竞争

不过,这个想法并非全新。vast.ai和runpod.io等平台已经提供类似服务。有人质疑延迟问题会影响实时应用,但支持者认为ML训练、3D渲染、科学模拟等任务并不对延迟敏感。

网络拓扑设计也很务实:多个客户端 → 少量代理(10-100个)→ 大量Worker(1000+个)。代理会跟踪Worker的响应时间和成功率,建立链上声誉系统来处理性能问题。

治理模式:从中心化到DAO

目前Cocoon采用中心化管理,团队控制根智能合约,存储允许的镜像哈希、模型哈希、代理地址等网络配置。未来计划通过DAO实现去中心化治理。

支付系统类似支付通道,通过TON区块链上的智能合约处理客户端和代理之间的付款信息。

Cocoon的Github代码库(https://github.com/TelegramMessenger/cocoon)已经开放,官网还提供了针对开发者和GPU所有者的详细文档。Telegram频道(t.me/cocoon)也在同步更新项目进展。

关注公众号回复“进群”入群讨论。

0
0
0
0
关于作者
关于作者

文章

0

获赞

0

收藏

0

相关资源
火山引擎大规模机器学习平台架构设计与应用实践
围绕数据加速、模型分布式训练框架建设、大规模异构集群调度、模型开发过程标准化等AI工程化实践,全面分享如何以开发者的极致体验为核心,进行机器学习平台的设计与实现。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论