「龙虾」OpenClaw 在国内彻底火了,火到连马化腾都在朋友圈转发腾讯免费安装开源 AI 智能体 OpenClaw 的相关报道,留言「没有想到会这么火」。


「过去一周左右,我一直在使用一个数字助手,它知道我的名字,了解我早晨的日常习惯,知道我喜欢如何使用 Notion 和 Todoist,同时它还能控制 Spotify 和我的 Sonos 音箱、飞利浦 Hue 灯,以及我的 Gmail。它基于 Anthropic 的 Claude Opus 4.5 模型运行,但我通过 Telegram 与它交流。我给这个助手命名为 Navi,Navi 甚至能接收我的音频消息,并使用最新的 ElevenLabs 文本转语音模型生成其他音频消息进行回应。哦,对了,我还没提到 Navi 可以通过新功能进行自我改进,而且它正在我自己的 M4 Mac Mini 服务器上运行?」
上面这段案例分享的文章作者还提到,他已经在 Anthropic API 上烧掉了 1.8 亿个 token,可能花了 2000 美元来「养龙虾」。
听上去可能会感觉,「养龙虾」的成本可不低,并且能做的事情好像也没有那么高大上,它更像是一个能够用人的方式与人交流、能帮助人类完成更多自动化工作的「XX 精灵」。实际上,这也就是「龙虾」在现阶段能够发挥的作用——一个「AI 助手」。
如果我们观察一下 ClawHub 上的安装量排行前 100 并进行一个大致的分类,我们更能体会到,用大模型来做这些事情,很多情况下可能是「杀鸡用牛刀」:
- 信息获取类:从各种来源(外部链接、本地文件、API)搜索、提取、整合和总结信息。实际用例包括让你的 Google、百度等搜索经过 AI 优化和总结、让「龙虾」每天给你发天气预报、发比特币实时价格等等。
- 生产力(工作流自动化)类:处理电子邮件、Notion、Github、Obsidian、Slack 等,并且能够进一步实现跨平台任务自动化,简化工作流程,一个入口解决多平台的事情。
- 开发者工具类:面向开发者和技术用户的专业工具,提供代码管理、API 交互、服务器管理等功能。能够提升开发效率,实现代码、测试、部署的自动化。这类是程序员有感,比如用命令行与 GitHub 交互,处理 issue、PR、CI 运行和高级查询。
- 内容创作类:利用 AI 的生成能力,创建或编辑文本、图像、音频等多媒体内容。
- 物联网控制类:连接并控制智能家居设备、音响系统等智能家居硬件。比如让家里的窗帘和灯在指定的时间开关。
综合下来看,「龙虾」的爆火不是因为上述事情能够做得多优秀,而是它能像一个「秘书」一样做得够全面。比起大多数用户可能只单纯把某个 AI 工具当作搜索引擎或是自动 P 图软件来用,「龙虾」能让人用 Telegram 之类的聊天软件,和老板一样并且用聊天的方式向它下达多类型任务。这样的新奇感在口耳相传的过程中会被放大,可以说是 AI 走进人们生活以来从未有过的。
我们甚至可以用更乐观的角度来看待「龙虾」目前似乎无事可做的阶段。在 iPhone 的早期,我们只能用它来玩玩平衡球、愤怒的小鸟、水果忍者等「展示了触摸屏能怎么用」的游戏。从游戏本身的内容和趣味性上来说,它们甚至没有诺基亚大量的 JAVA 游戏好玩。但现在,年轻人们用手机玩王者荣耀、三角洲行动,甚至有很多人只玩手游,不玩端游。
如果我们把目光投向如今的加密货币市场,「龙虾」很可能再次大幅降低加密货币与大众之间的学习门槛,并切实解决大众广泛的投资需求。
这里所指的当然不是炒 meme 或是用「龙虾」发币。现如今,链上的可供交易的资产类别已经越来越丰富,美股、原油、黄金、宝可梦卡牌... 我们都能够在链上去中心化、全天候、无门槛地进行交易。这个交易量一点都不小,2 月 6 日,Hyperliquid 链上 Perp DEX、以美股交易为主的 Trade.xyz 24 小时成交额达 54.5 亿美元,创下历史新高。
资讯发达的年代,阻挡我们捕捉新投资机会的往往是「不得其门而入」。比如前段时间,内存价格暴涨,大家都能够知道这个讯息,但要直接去购买 SK 海力士的股票,对于非韩国国民来说就比较麻烦。开户、资金结算等等,阻碍了大众第一时间对这些讯息做出即时的投资动作。
但如果路径变成:
- 让「龙虾」拥有一个钱包
- 通过信用卡购买稳定币,为「龙虾」钱包注入资金
- 告诉「龙虾」你要投资的具体标的
- 「龙虾」在链上完成买入/卖出
而这些都是通过与朋友聊天一样的方式来简单完成的,这对「龙虾」与加密货币来说,无疑会是一个爆炸性的增长机会。
我们还拥有预测市场,因此我们还可以想象更多。比如在坐出租车的时候,和司机谈天说地。司机说他认为下一任美国总统是 A,你认为是 B,争执不下的时候,你用语音转文字对你的「龙虾」下达了一个指令——帮我下注 100 美元 B 会胜出。
你的「龙虾」理解了你的意图,自动寻找了流动性最好的预测市场来下单。司机立马跟上,通过车机系统的语音操作,直接也用「龙虾」在预测市场上押注了 100 美元 A 会胜出。
甚至于「龙虾」可能也要出台未成年人消费的管制功能,以防止小朋友们在互相炫耀自己的宝可梦卡牌时通过「龙虾」在链上的卡牌市场上冲动型消费。
如果说 pump.fun 引起的「万物代币化」meme 币风潮是注意力经济的 1.0 版本,那么「龙虾」这种普通人更简单使用 AI 的新范式就有可能成为 2.0 版本——它能够在链上寻找到一切我们想要即时投资的标的以及渠道,并且按照我们的意图执行。更甚者,它会让链上生态从投资进一步拓展到消费,真正打开区块链多年来追求的 Mass Adoption。
未来正在发生。
","is_original":true,"link":"https://m.theblockbeats.info/news/61498","pic":"https://image.blockbeats.cn/file_v6/20260310/a09e01b3-3264-41cd-8055-68daa8597134.png?x-oss-process=image/quality,q_50/format,webp","column":"","create_time":"1773137401"},{"title":"OpenClaw省钱攻略:月省两万,我做对了什么?","description":"不要让它反复读旧东西","content":"原文标题:Why My OpenClaw Sessions Burned 21.5M Tokens in a Day (And What Actually Fixed It)
原文作者:MOSHIII
编译:Peggy,BlockBeats
编者按:在 Agent 应用快速普及的当下,许多团队发现一个看似反常的现象:系统运行一切正常,但 token 成本却在不知不觉中持续攀升。本文通过对一次真实 OpenClaw 工作负载的拆解发现,成本爆炸的原因往往并不来自用户输入或模型输出,而是被忽视的上下文缓存重放(cached prefix replay)。模型在每一轮调用中反复读取庞大的历史上下文,从而产生巨量 token 消耗。
文章结合具体 session 数据,展示了工具输出、浏览器快照、JSON 日志等大型中间产物如何被不断写入历史上下文,并在 agent 循环中被重复读取。
通过这一案例,作者提出了一套清晰的优化思路:从上下文结构设计、工具输出管理到 compaction 机制配置。对于正在构建 Agent 系统的开发者而言,这不仅是一份技术排查记录,也是一份真金白银的省钱攻略。
以下为原文:
我分析了一次真实的 OpenClaw 工作负载,发现了一个我认为很多 Agent 用户都会认出来的模式:
token 使用量看起来很「活跃」
回复看起来也很正常
但 token 消耗却突然爆炸式增长
下面是这次分析的 结构拆解、根本原因,以及实际可行的修复路径。
TL;DR
最大的成本驱动因素 并不是用户消息太长。而是巨量的缓存前缀(cached prefix)被反复重放。
从 session 数据来看:
总 tokens:21,543,714
cacheRead:17,105,970(79.40%)
input:4,345,264(20.17%)
output:92,480(0.43%)
换句话说:大多数调用的成本,其实并不是在处理新的用户意图,而是在反复读取巨大的历史上下文。
「等等,怎么会这样?」的时刻
我原本以为高 token 使用量来自:非常长的用户 prompt、大量输出生成、或者昂贵的工具调用。
但真正主导的模式是:
input:几百到几千 token
cacheRead:每次调用 17 万到 18 万 token
也就是说,模型 每一轮都在反复读取同一个巨大的稳定前缀。
数据范围
我分析了两个层面的数据:
1、运行时日志(runtime logs)
2、会话记录(session transcripts)
需要说明的是:
运行日志主要用于观察行为信号(如重启、报错、配置问题)
精确的 token 统计来自 session JSONL 中的 usage 字段
使用的脚本:
scripts/session_token_breakdown.py
scripts/session_duplicate_waste_analysis.py
生成的分析文件:
tmp/session_token_stats_v2.txt
tmp/session_token_stats_v2.json
tmp/session_duplicate_waste.txt
tmp/session_duplicate_waste.json
tmp/session_duplicate_waste.png
Token 实际消耗在哪里?
1)Session 集中
有一个 session 的消耗远高于其他:
570587c3-dc42-47e4-9dd4-985c2a50af86:19,204,645 tokens
然后是明显断崖式下降:
ef42abbb-d8a1-48d8-9924-2f869dea6d4a:1,505,038
ea880b13-f97f-4d45-ba8c-a236cf6f2bb5:649,584
2)行为集中
token 主要来自:
toolUse:16,372,294
stop:5,171,420
说明问题主要出在 工具调用链循环,而不是普通聊天。
3)时间集中
token 峰值并不是随机的,而是集中在几个小时段:
2026-03-08 16:00:4,105,105
2026-03-08 09:00:4,036,070
2026-03-08 07:00:2,793,648
巨大的缓存前缀里到底有什么?
并不是对话内容,而主要是 大型中间产物:
巨大的 toolResult 数据块
很长的 reasoning / thinking traces
大型 JSON 快照
文件列表
浏览器抓取数据
子 Agent 的对话记录
在最大 session 中,字符量大约是:
toolResult:text:366,469 字符
assistant:thinking:331,494 字符
assistant:toolCall:53,039 字符
一旦这些内容被保留在历史上下文中,后续每次调用都可能 通过 cache 前缀重新读取它们。
具体示例(来自 session 文件)
在以下位置反复出现了 体量巨大的上下文块:
sessions/570587c3-dc42-47e4-9dd4-985c2a50af86.jsonl:70
大型网关 JSON 日志(约 3.7 万字符)
sessions/570587c3-dc42-47e4-9dd4-985c2a50af86.jsonl:134
浏览器快照 安全封装(约 2.9 万字符)
sessions/570587c3-dc42-47e4-9dd4-985c2a50af86.jsonl:219
巨大的文件列表输出(约 4.1 万字符)
sessions/570587c3-dc42-47e4-9dd4-985c2a50af86.jsonl:311
session/status 状态快照 大型 prompt 结构(约 3 万字符)
「重复内容浪费」vs「缓存重放负担」
我也测量了 单次调用内部的重复内容比例:
重复比例约:1.72%
确实存在,但并不是主要问题。
真正的问题是:缓存前缀的绝对体量太大
结构是:巨大的历史上下文、每轮调用重新读取、上面只叠加少量新的输入
因此优化重点不是去重,而是上下文结构设计。
为什么 Agent 循环特别容易出现这个问题?
三个机制互相叠加:
1、大量工具输出被写入历史上下文
2、工具循环会产生大量短间隔调用
3、前缀变化很小 → cache 每次都会重新读取
如果 context compaction 没有稳定触发,问题会迅速放大。
最重要的修复策略(按影响排序)
P0—不要把巨大的工具输出塞进长期上下文
对于超大工具输出:
·保留摘要 引用路径 / ID
·原始 payload 写入 文件 artifact
·不要把完整原文保留在 chat history
优先限制这些类别:
·大型 JSON
·长目录列表
·浏览器完整快照
·子 Agent 完整 transcript
P1—确保 compaction 机制真正生效
在这份数据中,配置兼容性问题多次出现:compaction key 无效
这会悄悄关闭优化机制。
正确做法:只使用版本兼容配置
然后验证:
openclaw doctor --fix
并检查启动日志确认 compaction 被接受。
P1—减少 reasoning 文本持久化
避免长推理文本被反复 replay
生产环境中:保存简短摘要,而不是完整 reasoning
P2—改善 prompt caching 设计
目标 不是最大化 cacheRead。目标是,在紧凑、稳定、高价值的前缀上使用 cache。
建议:
·把稳定规则放进 system prompt
·不要把不稳定数据放进稳定前缀
·避免每轮注入大量 debug 数据
实操止损方案(如果是我明天要处理)
1、找出 cacheRead 占比最高的 session
2、对 runaway session 执行 /compact
3、对工具输出加入 截断 artifact 化
4、每次修改后重新跑 token 统计
重点追踪四个 KPI:
cacheRead / totalTokens
toolUse avgTotal/call
>=100k token 的调用次数
最大 session 占比
成功的信号
如果优化生效,你应该看到:
100k token 调用明显减少
cacheRead 占比下降
toolUse 调用权重下降
单个 session 的主导程度降低
如果这些指标没有变化,说明你的上下文策略仍然过于宽松。
复现实验命令
python3 scripts/session_token_breakdown.py 'sessions' \
--include-deleted \
--top 20 \
--outlier-threshold 120000 \
--json-out tmp/session_token_stats_v2.json \
> tmp/session_token_stats_v2.txt
python3 scripts/session_duplicate_waste_analysis.py 'sessions' \
--include-deleted \
--top 20 \
--png-out tmp/session_duplicate_waste.png \
--json-out tmp/session_duplicate_waste.json \
> tmp/session_duplicate_waste.txt
结语
如果你的 Agent 系统看起来一切正常,但成本却在持续上升,可以先检查一个问题:你付费的是新的推理,还是在大规模重放旧上下文?
在我的案例里,绝大部分成本其实来自 上下文重放。
一旦你意识到这一点,解决方案也就很明确:严格控制进入长期上下文的数据。
[原文链接]
","is_original":false,"link":"https://m.theblockbeats.info/news/61497","pic":"https://image.blockbeats.cn/file_v6/20260310/deff4324-fc3c-479b-a0bf-b98882511f72.jpg?x-oss-process=image/quality,q_50/format,webp","column":"","create_time":"1773133723"},{"title":"Arthur Hayes:为何HYPE是5倍潜力标的?","description":"Arthur Hayes 对 HYPE 在 2026 年 8 月的目标价是 150 美元。","content":"原文标题:$HYPE Man
原文作者:Arthur Hayes,BitMEX 联创
原文编译:Saoirse,Foresight News
我们走进冰封的森林,爬上陡峭的火山。这不过是又一个滑雪徒步冥想的日子。置身寂静的雪林,我的思绪自由驰骋。当你全神贯注、一步一步缓慢攀登火山,成千上万次把一只滑雪板放在另一只前面时,你能迸发的创造力令人惊叹。我钟爱这三个月的宁静。
身心都渴望休息与恢复,滑雪季里,这意味着要去真正的雪场。在雪场那天,我卸下防滑贴,坐上机械缆车,短短几分钟就能把人送上数百米高空。吊椅和缆车都很棒,但有时我必须和别人共享这份宁静。
我在缆车里不太爱说话,安静坐在角落,但雪场里总有些爱热闹的人,喜欢随便找陌生人聊天打发时间。
问题都无伤大雅,却能让对方在心里给我定个位。我们总会聊到职业——我一个天天滑雪的人,既不是向导也不是教练,显得很奇怪。我礼貌回应,只说一句:「我搞电脑的。」科技行业的好处在于,大家都会默认你赚了些钱,却没法深究,因为他们连电是怎么回事都搞不懂,更别提用「电脑」能做的那些稀奇事。话题到这儿自然就冷了,谢天谢地,终于可以下车滑雪了。
我,或者我们 Maelstrom 团队到底是做什么的?
我们是流量操盘手,靠把关注度变现赚钱。变现方式主要是做多比特币和各类山寨币,很少做空。通过让市场关注我们的观点,我们相信长期来看,市场会验证我们的判断。
现在,请把注意力集中在 Hyperliquid(HYPE)上。
我不喜欢做空,因为不加杠杆时,你最大收益只有 100%,而最大损失却是无限。我始终追求做多凸性,而非做空,因此我在市场上永远是净多头。
在当下这个艰难阶段,比特币已果断突破前高,有没有真正优质的山寨币能实现绝对上涨?
答案是:有。因为在加密货币每一次横盘或熊市里,表现最好的山寨币都是交易平台代币。即便价格下跌,交易平台依然能持续赚取手续费,有时甚至比上涨时赚得更多,尤其是当它们受益于去中心化交易平台(DEX)交易量的长期增长时。
2023 年初市场横盘到下跌那段时间,最受追捧的交易平台代币是 GMX。2023 年 4 月,GMX 创下 90 美元历史新高。为什么?因为当时它在永续合约 DEX 交易量上一骑绝尘,未平仓量与交易量暴增,推动协议收入大涨,更重要的是,绝大部分收入都分给了 GMX 持有者。
当法币信贷扩张的共识从增长转向收缩时,哪一个交易平台代币还能暴涨?
数据取自 2026 年 3 月 7 日 DefiLlama
Hyperliquid 是当前头部永续合约 DEX,也是除稳定币外收入最高的项目。它 97% 的收入都会用来从市场回购 HYPE。整个加密行业,没有任何一个项目能像 Hyperliquid 这样,把如此高比例的钱返还给代币持有者。
可惜的是,你持有 USDT 或 USDC 这类稳定币,并不能分到它们的净息差收益。因此,如果市场相信 HYPE 就可以实现绝对上涨。我对 HYPE 在 2026 年 8 月的目标价是 150 美元,大约是我写这篇文章时约 30 美元价格的 5 倍。
要从「地狱」走向「瓦尔哈拉」,Hyperliquid 需要把 30 天收入恢复到年化 14 亿美元的水平——这一水平它在去年 8 月曾经达到过。为了让后文更容易理解,我先把财务模型放在前面。

我必须验证的关键假设是:市盈率(P/E)、以及团队每月 HYPE 代币的解锁释放量。市盈率公式:
P/E =(流通供应量 × 价格)÷(30 天年化收入 × 回购比例)
我的模型预测:来自 HIP-3 和非 HIP-3 的总收入,将从 3 月的 8.43 亿美元增长到 8 月的 14 亿美元。
我会解释,在永续合约 DEX 竞争加剧的背景下,Hyperliquid 如何重新夺回历史最高的 30 天年化收入水平。
最后一部分,是根据过去三个月的数据,估算团队每月会拿到多少 HYPE 代币。
在不同情景下对模型做压力测试,能有效提高假设的可信度。我会从悲观角度检验部分假设,看看要多「上头」才会相信我给出的 150 美元目标价。
CEX vs DEX
Hyperliquid 最棒的一点是:它的交易量增长不需要全球加密永续合约总交易量上涨。只要中心化交易平台的永续合约交易量有几个百分点转移到 Hyperliquid,它就能在几个月内轻松把 30 天年化收入翻倍。只需要提升 3.97% 的市场份额,Hyperliquid 就能达到 14 亿美元的年化收入目标。考虑到不到三年前 Hyperliquid 还不存在,这完全可行。
截图拍摄于 2026 年 2 月 5 日,11:20:00 UTC
仅仅四个月,HIP-3 的交易量就贡献了 Hyperliquid 近 10% 的总收入。无许可上币一直是 DEX 的圣杯,交易量的快速增长证明,这是 Hyperliquid 甩开竞争对手的关键。
要让 Hyperliquid 收入从 3 月到 8 月增长 66%,HIP-3 必须扛起大旗。尤其是在整个加密市场市值维持在当前低迷水平的情况下。Hyperliquid 必须给交易者提供新鲜、刺激的链上交易标的。贵金属、AI 概念股、原油,正是普通玩家想要交易的东西。如今,通过永续合约,全球任何人都可以全天候交易,杠杆比传统金融交易平台更高。
基于这些理由,我的模型预测:HIP-3 收入将在 6 个月内上涨 160%。
锦上添花的是预测市场。Hyperliquid 最近宣布,HIP-4 将支持无许可上线预测市场。我预计 HIP-4 将在未来三个月内上线。玩家们会涌向 Hyperliquid 的预测市场,交易二元期权和日内到期期权(0DTE)。上线前很难预测收入增速,所以我没有把它放进模型里。如果 Hyperliquid 团队像以往一样交出高质量代码,几乎立刻大幅拉动收入,那就算是额外红利。
遗憾的是,Hyperliquid 并不是唯一的永续合约 DEX。竞争非常激烈,因为这是交易的下一个主战场。去年年底,大量低手续费、零手续费 DEX 的出现,压低了 Hyperliquid 的预期估值。
那从那时到现在,发生了什么,让我重新相信 Hyperliquid 的统治地位难以撼动?
是真的吗?
对加密 CEX 或 DEX 来说,伪造交易量易如反掌。
在 BitMEX 的时候,我们常开玩笑说有个「刷量器」——交易平台开个程序,自动生成虚假交易,提高活跃度。
如今很多头部交易平台都在常规性用刷量器宣称自己是「最大」,让交易者误以为这里有真实流动性。对 DEX 来说,创建钱包对倒刷量更是简单,这是刷量的主要来源。
流动性挖矿也是提高活跃度的常用手段:DEX 根据交易量给积分或平台代币,交易者就在钱包之间对倒刷交易量。
刷量和流动性挖矿不会加深真实流动性。我们无法精确判断这些活动占交易量的比例。衡量交易平台优劣的唯一客观指标,是计算 ADV/OI 比率(日均交易量 / 未平仓量)。
因为交易者必须拿出真实资金作为开仓保证金,未平仓量(OI)能反映真实用户使用平台的程度。日均交易量(ADV)很容易被刷量和挖矿虚高,但用 OI 修正后,我们能得到由真实风险偏好交易者驱动的有机交易量。因此:ADV/OI 比率越低越好。

在头部 5 家永续合约 DEX 中,Hyperliquid 的交易量最真实,因为它的 ADV/OI 比率最低。当交易者意识到竞争对手平台的流动性很多是虚假的,或者积分 / 代币挖矿已经结束,他们就会回流 Hyperliquid。
长期来看,Hyperliquid 的真实交易量占比会继续提升。这会巩固 HYPE「不惧竞争」的叙事。
很多人记得,我之前对 HYPE 战术性短期看空,一个重要原因就是低手续费 DEX 的竞争。现在我认为,Hyperliquid 在「真实交易量」上是业内第一,至少未来六个月,我不再担心竞争问题。
关于竞争,下一个要考虑的是:考虑滑点后,哪家 DEX 的流动性真正最好?
我截取了五家平台比特币 / 美元永续合约的订单簿快照,并计算了名义金额 10 万、100 万、1000 万美元市价买卖的滑点。

你可以看到,在 Hyperliquid 上大额交易,大多数时候成本最低。因此,即便竞争对手的显性手续费低 1–2 个基点,真正的大额交易者依然会涌向 Hyperliquid,因为他们可以更大规模交易,对市场冲击最小。
我发财了
Hyperliquid 只有 11 人的团队,做出了史上最好的 DEX 产品。财富理应通过锁定的 HYPE 代币流向他们。
Maelstrom 去年年底看空 HYPE 时,曾提到一个担忧:团队每月到底会向市场抛售多少代币,存在不确定性。由于 Hyperliquid 没有接受风投投资,团队是否自愿不卖出刚解锁的代币,本质是 Jeff 和团队内部的政治决定。他们已经限制了代币卖出。

在去年 11 月和 12 月分发了近 20% 的奖励代币后,1 月和 2 月团队只分发了约 1% 的奖励代币。我猜测,初期高分发是为了缴税和改善生活,这部分需求解决后,团队大幅减少释放,以帮助 HYPE 反弹。这只是我的推测。
历史不会完全重复,但会押韵。基于此,我假设每月释放量取这四个月的平均值:815,750 枚。
向前看
市场是前瞻性的。玩家们愿意为 Hyperliquid 的未来收益付多少钱?目前 HYPE 的市盈率约为 12 倍。和传统金融交易平台比起来如何?

为了确定合理的估值水平,我参考了全球顶级交易平台芝加哥商品交易平台(CME)、主打年轻激进投资者的新型券商 Robinhood,以及受美国监管影响较深的加密交易平台 Coinbase 的当前市盈率。这些机构的市盈率区间很宽,大致在 26~40 倍之间。相比之下,$HYPE 仅 12 倍市盈率,明显被严重低估。
估值偏低的部分原因在于:Hyperliquid 并非上市公司,存在智能合约与交易对手风险,因此估值倍数天然更低。此外,主流中心化现货交易平台大多不支持 $HYPE 交易,普通投资者购买难度较大,因此它无法像许多山寨币那样被炒到极高估值。但即便如此,12 倍市盈率依然低得离谱。
短短数月内,Hyperliquid 的 HIP-3 股指、贵金属交易市场,已成为 CME 等传统金融交易平台周末休市时的关键价格发现场所。我可不知道,电脑周末还需要去打高尔夫。
至少,从行业趋势来看,HYPE 更高的估值溢价。
关于市值与完全稀释估值(FDV)的说明:
我采用的是市值而非 FDV,二者因流通量不同而存在差异。市值仅统计当前已流通代币,而非 FDV 所代表的未来全部代币。鉴于这是一笔 6 个月周期的交易,使用当前市值是合理的。诚然,Hyperliquid 未来可能再次开启空投,从而扩大流通盘。但截至目前,团队并未暗示即将进行空投,因此我暂不考虑这一风险及由此带来的流通量冲击。
压力测试
假设团队每月解锁 991 万枚 HYPE,市场仅给予 12 倍前瞻市盈率,但 Hyperliquid 的 30 天年化收入仍回升至 14 亿美元历史高点,结果会如何?
来源:CoinGecko
我用 HYPE/BTC 作图,想说明市场已经意识到这个代币的价值。
我们都痛苦地知道,除非你做空,否则比特币从去年 9 月 HYPE 跌到约 20 美元的局部低点。我认为 HYPE 重新上涨的催化剂是:团队代币释放量从 1 月的 991 万枚,骤降到区区 14 万枚。
此外,竞争对手 DEX 的积分和代币激励陆续到期,对交易者的吸引力快速下降。它们剩下的交易量可能是虚假的,但正如我之前展示的,从订单簿流动性看,Hyperliquid 是交易成本最低的地方。
我们 Maelstrom 团队在 20 美元出头就开始小仓位试水。在滑雪登山的路上我一直在想:如果宏观经济短期内持续低迷,我该布局什么?什么样的项目才算真正优质——有真实用户、有真金白银的收入,还能把收益回馈给代币持有者?
从这些维度来看,Hyperliquid 就是整个加密行业里最优质的项目。深入研究并写下这篇文章后,我的信心更加坚定。
正如宏观投资大佬德鲁肯米勒所说:「先投资,后调研。」
因此,HYPE 迅速成为我们最大的流动性山寨币持仓。我们计划继续卖出其他所有劣质标的,在当前价格区间内持续加仓 HYPE。
原文链接