Dolphin(DPHN币)是一个致力于突破AI模型开发和分布式推理界限的项目。我们的旗舰产品是Dolphin
Network——一个去中心化的AI推理网络。Dolphin
Network的目标是让游戏玩家和其他GPU用户能够在GPU闲置期间,通过为我们的部分推理网络提供支持,重新利用他们的GPU。通过处理部分网络请求,他们可以赚取$DPHN代币,这些代币随后可用于推理或在市场上出售以收回GPU的成本。网络的完整性通过加密、随机抽样验证和加密经济绑定等多种方式来维护。
代币经济学
质押
我们的质押合约类似于xSUSHI和stAAVE
xSUSHI因为它是自动复合的
stAAVE因为撤回有10天的冷却时间
建立联系并提升奖励
节点将能够存入债券,这将增加奖励——如果被发现作弊,这些奖励也会被削减
增幅很可能与CRVLP奖励增幅计算类似-其中最大增幅乘数为2.5倍,而被视为绑定节点的最低存款额约为1.2倍
就需求而言,任何从网络池计算中购买推理的人都将在市场上将其付款转换为$DPHN
这可以抵消节点排放带来的销售压力
在6-12个月内实现盈利是完全有可能的,我们计划以补贴亏损的方式运营,以获得节点数量+需求+市场份额,但我们稍后可以提高API相对于节点奖励的定价,直到出现差距,从而导致持续的净购买压力(我们也可以将差距分配给质押者,或者烧掉它……待定)
第1阶段-分布式推理Beta版
我们刚刚推出了分布式人工智能推理网络
它专注于重新利用闲置的GPU计算——想想消费者在闲置时不会玩游戏或访问数据中心
这与akash或IOnet截然不同,在akash或IOnet上,你可以预订GPU的租赁“会话”。我认为这种方式永远不会受到游戏玩家的欢迎,因为他们希望随时按需取回GPU,这会毁掉他们正在进行的任何租赁会话。GPU市场仅适用于全天候可租用的计算资源。
相反,我们提供点对点网络模型
节点运行AI模型并处理发送到池中的请求。您可以定期开启和关闭您的机器,而不会受到任何惩罚。
我们使用了许多新技术,例如对对数概率进行采样以及从模型中进行其他采样的数据,以创建可以确定节点是否运行正确模型的指纹-这有助于防止通过运行比预期更便宜的模型、压缩模型或伪造输出进行作弊
更多详细信息请参阅X上的公告
第2阶段-图像/视频/音频/转录节点
最终,我们希望网络能够在几个月内承载所有流行的开源人工智能模型——包括文本、视频、图像、音频、私语等
这将在未来1-3个月内随着我们发布节点软件的第2版而实现
还将有一个本地API,供节点使用在其机器上本地运行的模型(具有优先访问权)——这鼓励本地AI用户让Dolphin
Network访问他们未使用的多余容量。
第3阶段-合成数据生成套件
网络将支持用于生成合成数据集的队列,这些队列利用闲置容量运行,每个令牌的成本更低。数据集对时间不敏感,因此即使在网络活动较少的时段,我们也可以借此保持节点的繁忙。
在领先的闭源模型上生成数据集的成本极其高昂。
我们训练的最新一代大型模型,例如DolphinQwen3235B,可以生成非常高质量的合成数据集。
对于那些希望为模型训练、小说或其他用例生成未经审查的数据集的人来说,这特别有用。
这是我们能够实现的一件事,除了Dolphin之外,您在其他任何地方都无法实现。
第4阶段——分片分布式推理
目前,我们的节点自行运行1个小型或中型模型-其大小取决于其GPU
我们计划将模型拆分成“碎片”,你可以想象你有4x4090位于不同的位置-每个运行1/4个大型AI模型
目前还没有人以故障冗余的方式做到这一点,如果我们行动迅速,我们就能成为第一个实现这一目标的人。
我们相信GPU的最大供应来源将来自游戏玩家,因此,如果您的核心节点供应商是经常将GPU接入和断开网络的供应商,那么故障冗余是必须的
第5阶段——分布式强化学习
通过上述实现(将大型模型分散到多个GPU上),我们可以使用大型模型作为强化学习的验证者/评判者,并创建一个可以通过利用我们网络上运行的节点来训练模型的系统(由于利用了消费者GPU的定价优势,这将比集中式微调便宜得多)
第6阶段-分布式SFT(监督微调)
扩展网络,使其能够在参与节点之间运行监督式微调。早期里程碑重点关注小型到中型开放权重模型,这些模型具有较短的周期、分片训练和周期性梯度聚合等特点。
数据集主要来自我们的合成数据套件以及可选用户数据集。我们重点关注验证钩子和回滚安全性,以确保模型更新始终值得信赖。模型的发布将以增量方式进行,并遵循稳定的分片推理。
第7阶段——大规模分布式预训练
探索性研发,旨在评估在池化空闲GPU上进行分布式预训练的效果。我们将使用容错分片训练、流数据流水线和频繁检查点技术,进行小规模运行的原型设计。
原型之外的扩展取决于相对于中心化替代方案的质量/成本结果,以及前期网络的稳定性。进展由研究驱动。
第8阶段-Lighthouse自动平衡
根据推理需求,节点会在网络需求高峰期主要生成推理请求,以及在空闲时处理数据生成、强化学习和训练等时间敏感度较低的任务之间切换
繁忙的一天可能意味着90%的节点处理推理,10%的节点处理微调/RL/数据生成
而如果推理需求较低,灯塔节点就不会被充分利用,而是会将其交换用于训练
第9阶段——模型创建和微调套件
任何人都可以开始由我们的网络提供支持的训练运行的UI
他们可以选择上传自己的数据、从我们的列表中选择,或者两者兼而有之
这里的主要目标是提供比云提供商更便宜的训练基础设施,但我们也可以尝试通过创建一个UI来进入“无代码”训练市场,让任何人都可以使用自定义数据训练模型,而无需任何经验