登录路演时代
忘记密码
忘记密码
忘记密码
欢迎注册路演时代
已有账号?马上登陆
Turboquant专家解读 -存储系列
发布来源: 路演时代 时间: 2026-03-30 15:19:06 0

Turboquant专家解读-存储系列

1、TurboCount 技术定位与核心价值 技术背景与定位 近期谷歌推出的TurboCount 技术引发存储行业广泛讨论,市场关于其对存储行业的实际影响存在较大争议,当前行业内不少对该技术的认知仍较为模糊,亟需明确其基础属性与实际价值。支撑该技术的相关论文并非谷歌最新研究成果,其arXiv 预印本最早于2025 年4 月发布,2026 年因入选ICLR 在社交平台引发广泛关注,相关观点及技术可实现的价值,被认为是当前目力可及范围内的理论最优方案。该技术的核心定位并非优化大模型的智能表现,而是聚焦提升大模型部署的经济性与可落地性,与传统优化模型能力的研究方向存在明显差异,属于面向推理基础设施的优化类技术。 核心特性与理论表现 TurboCount 的核心目标是解决大模型推理场景下的高维向量压缩问题,具体覆盖大模型推理所需的Key Value Cache(即Q-Cache)以及向量数据库中的embedding 数据,可在实现极低比特量化的同时保留数据的几何结构,确保计算过程中距离、内积等核心技术指标的准确性,同时满足在线可用、无需训练(training free)、适配GPU 及TPU 主流加速器的多重要求,在量化技术的多核心要求维度上达到了近乎完美的平衡。论文给出的核心结论显示,该技术在率失真关系上接近信息论下界,在QKS 实验中,每个通道3.5 比特的量化水平下可达到绝对质量中性,2.5 比特量化水平下仅出现轻微性能退化。此前行业普遍认为低于4 比特的量化会带来较大的性能损失,该技术的表现突破了此前的行业认知,将高维向量低比特压缩从偏工程技巧的问题,推向了有理论边界支撑、具备工程可行性、理论值最优且可跨场景复用的新阶段。 初步影响判断 关于TurboCount 的核心判断可归纳为四点: a. 应用场景聚焦大模型推理侧而非训练侧,核心价值来自对大模型KV Cache 的优化,面向应用级别落地而非大模型训练环节,在推理场景下的价值更为突出; b. 技术价值与英伟达、VLLM 等推出的常规量化方案不同,在量化领域的多维度“不可能三角”要求中找到最优平衡,既可以实现在线可用、与数据无关无需预训练,又适配当前通用GPU、TPU 硬件,且是当前理论层面接近最优的方案,具备突出的学术价值,但目前工程落地层面尚未出现明确进展信号; c. 技术并非单点创新,而是谷歌现有技术积累的多阶段整合,采用两阶段框架,第一阶段实现最优标量量化,第二阶段完成基于内积的QGL 修正,其中核心的QTL 技术谷歌已于2024 年发布相关论文; d. 对存储行业的影响并非单纯利空,该技术确实会降低单推理任务的KV Cache 占用,但不会减少甚至消灭对HBM 等高带宽存储的需求,HBM 等存储的需求依然旺盛,无法压低AI 基础设施的总需求,反而会因推理效率提升支撑更长上下文、更高并发与更低成本,进而放大AI 服务的总调用量,整体对存储行业的影响偏中性。2、TurboCount 技术原理与研发路径### 核心解决痛点 大模型推理与向量检索领域普遍存在高成本痛点。大模型侧,Decoder 架构的Transformer 推理过程中必须缓存已生成token 的KV 表示以提升计算效率,若每次新增token 都重复计算整个序列的注意力矩阵,成本几乎不可接受,但KV Cache 会随模型规模与上下文规模同步膨胀,成为显存与带宽层面的核心速度瓶颈。大模型权重存储是规模扩张过程中必须支付的成本,但推理过程中KV Cache 的占用远高于权重本身的核心占用,这也是当前国内开源GLM 5.1 等模型未草率将上下文窗口扩至100 万级别的核心原因。向量检索与RAG 领域,核心成本来自embedding 的存储与检索,这类系统本质都是在高维空间开展内积或余弦相似度搜索,压缩技术直接决定系统能否兼顾低成本与准确率。传统压缩技术存在明显局限性:要么精度较高但处理速度慢,要么如TV、传统KV Cache 压缩等技术处理速度快但精度不足,压缩过程易破坏高维向量的几何结构,导致结果有偏、使用效果不佳,而TurboCount 可同时兼顾低成本与准确率,解决传统技术无法兼顾两端的问题。 核心技术创新点 TurboCount 的核心技术创新主要包含三大模块,通过各模块的协同实现量化效果的平衡: a. 随机旋转处理:可将向量压缩中的最坏输入情况转化为统一分布问题,避免压缩过程破坏高维向量的几何结构,解决了传统压缩技术易出现的结构变形问题; b. 最优标量MSE 重建:在完成随机旋转后,开展MSE 重建处理,是当前所有向量压缩算法中重建效果最优的技术; c. QGR 算法纠偏:针对MSE 重建最优不等于向量内积搜索最优的问题,引入2024 年谷歌提出的QGR 算法开展优化,实现5 比特纠偏,达到理论最优边界。 整个量化过程无需训练、无需校准,可直接对任意向量执行处理,技术适用性优势突出。 研发迭代路径 TurboCount 是谷歌在向量压缩领域长期技术积累的整合成果,所属技术栈为连续迭代产出,并非单点突发的新技术。谷歌的相关技术迭代自2024 年启动,当年发布QGL 技术,2025 年初推出PolarCount,2025 年至2026年持续迭代TurboCount 技术,2026 年ICLR 会议上发表的TurboCount 版本相比最初arXiv 预印版本补充了实验数据与附录内容,属于升级版本。TurboCount同时整合了此前QGL 与PolarCount 的技术成果,整体技术迭代周期超过2 年,当前技术热度上升仅为市场关注度提升,无需过度焦虑其会在短期内产生非常直接的落地影响。3、TurboCount 实验效果与产业影响大模型推理场景效果 本次讨论的量化技术在大语言模型KV Cache 场景下表现优异,相关实验均可在单张NVIDIA A100 GPU 上完成。在多组对比实验中,TensorQuant 得分均为最高,性能优于SnapKV、KIVI、Paimer KV 等同类技术,较SnapKV 高出15%以上。在上下文细节寻找类任务上,该技术表现突出,在4比特量化标准下可达到与FP16 同等水准,几乎与全精度效果无差别,实现了任务全精度无损的成果,这一表现在此前被普遍认为难以实现,具备极高技术价值。 向量检索场景效果 该技术在向量检索场景下同样具备显著优势,研究人员在多个数据集上开展比对实验,涵盖OpenAI 的1536 维数据集、GLV 的200 万数据集、3072 维数据集,将TurboQuant 与PQ、RabbitMQ 等技术对标。实验结果显示,TurboQuant 的召回率高于同类技术,同时量化耗时极短几乎可以忽略,效率远优于现有技术。在1536 维向量量化的典型场景测试中,PQ 耗时239秒,RabbitMQ 耗时2267 秒,而TurboQuant 仅需0.0013 秒(约1 毫秒),技术效率差距十分显著。颠覆性的实验结果给行业带来极强冲击,也引发了广泛关注,目前X 平台上存在针对该技术的学术争议,但争议焦点为技术存在未明确标注参考来源的借鉴、抄袭嫌疑,而非实验效果本身的真实性。 产业链各环节影响 该技术的核心定位是提升大模型推理的经济性和可部署性,而非提升模型本身的智力水平,其对大模型产业链各环节均将产生深远影响,整体对行业发展偏利好,具体影响可分为四个维度: a. 对大模型厂商而言,该技术可显著降低大模型推理成本,长上下文推理的经济性大幅提升,当前200K 的上下文窗口未来可拓展至1M 甚至4M 以上,现有128K 上下文的成本即可支撑1M 量级的上下文能力,推理密度明显提高。 b. 对应用端而言,RAG、Agent 类应用是最直接的受益者,TurboQuant 的核心优势是既能保证几何特性,又能无偏估计内积,非常适配大模型调用外部知识的基础设施需求,可帮助应用厂商实现更高的吞吐,百万、千万级别的RAG 知识库效果较此前提升显著,规模可进一步扩大,成本大幅降低,尤其适配B 端应用的旺盛需求。 c. 对开源模型生态而言,该技术可大幅降低KV Cache 场景下的显存消耗,显著提升存量模型的可部署性,降低开源模型的部署门槛,例如原本需要8 张H200 才能运行的大上下文窗口模型,未来仅需8 张H100 即可实现同等的KV Cache 表现,将推动大规模开源大模型的部署落地进度。 d. 对存储行业而言,该技术并非单纯的存储利空,虽然单位推理工作负载的内存需求有所降低,但这一优化将推动大模型厂商拓展能力边界,而非削减存储投入。存储本身存在HBM、DDR、LPDDR 等分层架构,行业内此前也已存在将显存内容卸到内存、SSD 的相关技术优化,本次技术升级只是为存储优化提供了更多选择和更高效率,叠加存储订单本身具备较长的储备周期,不会出现因技术推出就取消订单的情况,整体存储需求只是发生结构性重分配,而非总量下降,HBM 需求依然旺盛。 4、同类技术布局与路径对比 KV Cache 压缩效果实测 VLM 相关量化测试显示,在保持相对无损、仅存在边际精度损耗的前提下,量化到2.5~3.5 比特的极限压缩率时,131K 上下文场景下KV Cache 单张CPU 占用仅为190 兆;而在MDP 16 全精度、未做任何量化处理的情况下,同等场景下的显存占用达到40G 到60G 之间,压缩效果差异显著。对于大模型权重而言,上下文长度越短,KV Cache 占用的显存占比越低,但在超长上下文场景下压缩效应会被放大。以万亿参数级大模型为例,当前采用英特尔4 部署时,权重本身就会占用600G 以上显存,常规上下文长度下全精度KV Cache 的几十G 占用占比较小;但如果将上下文放大到1M,全精度下KV Cache 占用可达400~600GB,经过压缩后KV Cache 占用仅为1~2G,显存占用缩减幅度极为可观。再以GLM 5 的744B 参数规模为例,其权重占用显存1.2~1.4T,当前200K 上下文场景下全精度KV Cache 占约100G,仅为权重占比的10%左右;若将上下文放大到1M,全精度KV Cache 占用将提升至500G,占权重显存比例达到三分之一到一半,此时压缩技术的价值更加突出,可推动大模型向长上下文方向发展,提升可用性、可部署性与运行效率,无需额外增加硬件成本。 存储需求影响分析 从存储市场总量需求来看,KV Cache 压缩技术并非利空存储需求,整体呈现利好趋势。该技术大幅降低了大模型的部署门槛,使得长上下文的实现成本显著降低,原本仅能部署Minimax 这类小模型、仅可支持128K 左右上下文的300 多G 显存算力,未来也可支持1M 上下文的大模型部署,大模型的可用性与易用性大幅提升。应用场景的拓宽将推动大模型部署规模进一步扩大,推动推理到应用的正向循环,不仅大模型厂商可受益,Agent、RAG 系统等下游应用环节也可享受技术红利,整体带动大模型行业的正增长,进而拉动存储的整体需求。 同类量化技术布局 当前KV Cache 量化压缩是行业共性研发方向,多家厂商均有相关布局: a. 英伟达在TensorRT-LLM 中早已支持F8 KV Cache; b. VLM 官方明确支持FP8 层级的KV Cache 压缩,可显著降低KV 显存占用; c. LM Deploy 也已推出支持4 比特和8 比特的KV Cache 量化方案,同等条件下可增加并发、提升吞吐量、降低KV 显存占用; d. 微软推出自适应压缩与Cache 丢弃结合的FastText 技术,公开口径称可将内存或显存占用砍半,且尽量不损失计算质量。 目前上述厂商的技术均无法在实时性与精度平衡上达到领先水平,存在一定局限性,相关技术目前仅部分推理框架厂商在开展测试,暂无大规模商用先例。 其他优化路径对比 除量化压缩路径外,KV Cache 优化还有两类主流技术路径: a. 分层卸载派,典型代表为Deepfake 的Conditional Memory 技术,英伟达也推出DiNormal 官方方案,可将KV Cache 从GPU 卸载到CPU RAM,降低HBM 消耗,但该方案无法做到无损且存在性能损耗。 b. 分页复用派,典型代表为VRM 推出的分页管理技术,通过优化内存管理逻辑降低KV 碎片与浪费,提升整体存储利用效率,减少KV Cache 的无效占用,但该路径无法降低KV Cache 的总量需求,仅能提升现有存储的利用效率。 技术核心竞争力 当前TurboCount 是领域内表现最突出的KV Cache 优化方案,其核心竞争力在于突破了行业普遍存在的限制。市面上其他同类量化技术的性能较该技术低10%-15%,且无法同时满足多维度要求:该技术是目前唯一可同时实现实时在线处理、无需训练、理论最优三大核心要求的方案,同时可覆盖推理与向量检索两大应用场景,这是其他所有同类产品都无法实现的特性,也是其受到行业广泛关注的核心原因。除此之外,KV quant、KI VI 等同类技术的性能也与该技术存在较大差距,无法形成有效竞争。 5、存储行业价格走势展望整体价格走势 存储行业产能扩充具备较强周期性,不同于软件领域可快速实现产能倍数扩张,存储产能扩充依赖流水线布局,扩张节奏存在刚性约束,这一特性对价格形成有力支撑。基于过往经验判断,2026 年未来2-3 季度存储产品整体价格中枢将维持高位运行,产能端的扩张周期属性是支撑价格保持高位的核心逻辑。 品类价格分化 存储不同品类价格走势呈现明显结构性分化,整体表现从强到弱排序清晰: a. HBM 价格走势最强,虽不再出现此前的绝对强势上涨趋势,但仍处于上涨或高位维持区间,是所有存储品类中表现最亮眼的品类; b. DRAM、SSD 整体表现弱于HBM,其中Server DRAM 受产能偏紧、需求旺盛支撑,价格维持高位运行但上涨斜率有所放缓; c. NAND 及消费级的手机、PC 端存储产品走势偏弱,后续价格增长动能不足,走势将明显放缓。6、TurboCount 技术细节答疑 KV Cache 压缩原理 用量化方法压缩KV Cache 并非行业首创,属于业内共知的研究方向。此前量化领域存在“不可能三角”限制,无法在training free 的前提下,同时实现精度、速度、数据无关性三者的平衡,也难以在精度最优与实时性最优之间找到平衡点。当前相关技术已突破该不可能三角,实现了三者的平衡。该技术的核心原理是低比特量化,传统FP16 格式下单个元素需要占用2 字节存储空间,4 比特量化后单个元素仅需占用0.5 字节,存储占用差异十分明显,在高维场景下这种差异会被进一步放大,进而带来多倍的性能差距。该技术的基础原理在技术圈内属于较为简单明确的内容,核心优势在于落地实现的效果优于行业普遍研究水平。 计算开销分析 该技术在实现KV Cache 存储压缩的同时,不会产生额外的计算开销,整体计算效率反而有所提升,甚至可以加速attention 计算,相关表现在实验中已有端倪。其效率提升的核心逻辑分为三部分: a. 向量内积估计算法相比传统全精度向量内积算法本身效率更高,在压缩空间内开展内积计算的效率优势更为突出; b. 存储占用降低后内存带宽需求减少,IO 开销显著降低; c. 相比其他同类量化方案,该技术支持直接在压缩表示上开展计算,无需进行解压操作,省去了解压环节的算力消耗,这也是其相对其他量化方案的核心优势。 即使算上压缩环节本身的算力消耗,整体计算总量与算力消耗总量也不会产生额外开销,相对全精度方案仍具备明显的效率优势。 7、TurboCount 落地策略答疑 技术落地节奏预估 TurboCount 技术不涉及大模型底层拓扑的变化,与2025 年初、2024 年底受关注的Nest、Mira、Titan 等底层技术存在本质区别,后者真正发挥效率至少需要半年甚至一年以上才能看到端倪。TurboCount 落地速度相对更快,不会达到年级别的周期,整体节奏分两端:应用端落地节奏较快,预计3-6 个月内即可看到技术在Agent 的RAG 框架、大模型尝试应用等场景的结合;大模型厂商落地需结合自身版本迭代节奏,当前版本很难直接嵌入该技术,普遍需要完成两次版本迭代后才能实现落地,对应时间周期约为半年到8 个月。即使半年内能够看到技术的落地尝试,也很难达到Google 所宣称的完美效果,也未必能在半年内实现规模化对外提供服务的状态,技术在大模型版本中的落地节奏将与厂商整体大模型版本发布节奏保持一致。 存储需求拉动分析 TurboCount 技术对存储需求的影响呈现结构性特征,不会削弱存储的整体重要性,仅会改变存储需求的结构与形态。训练时代存储需求偏重于HBM,推理时代则需要HBM、DRAM、SSD 以及网络化KV Cache 的协同结构,该技术能够明确降低单位请求内的内存消耗,同时部署成本的降低会进一步拉动市场对大模型的整体需求,催生原有难以落地的应用场景。从需求总量来看,技术应用不会带来存储总需求的量级明显提升,存储需求将保持现有增长趋势,不会因TurboCount 出现明显下降或额外激增,整体波动仅来自产能、先发模型特性等因素带来的轻微影响,不会因该技术出现某个时间点的大幅波动。即使在6-8 个月后大模型厂商对该技术有落地反馈的节点,存储行业也不会出现明显的需求异动,判断存储行业走势应重点关注行业整体上升趋势,无需过度考虑该技术带来的额外波动影响。 厂商应用策略梳理 当前存储资源稀缺的背景下,大模型厂商应对存储瓶颈并非仅依靠单一技术,而是采用多类技术的组合拳,TurboCount 是其中重要的技术方向但并非唯一解。目前行业内主流的提升KV Cache 效率、量化效率的工具主要分为四类: a.压缩精度类,包括TurboCount、英伟达的NVFP4、F8KV、VLM 领域的FPR、KVR 等; b.自适应丢弃与剪枝类,典型为微软相关技术方案; c.分层卸载类,代表性方案为英伟达与Deepseek 合作的Ingress 技术; d.分页管理类,以Page 指令为核心代表。 四类技术均有实际应用效果,厂商实际落地时会采用压缩、分层、复用、调度相结合的组合策略,而非单独使用TurboCount。此外不同技术之间的融合也存在一定挑战,例如英伟达在NVFP4 与分层卸载领域有技术积累,TurboCount 想要融入已应用英伟达架构的框架中存在一定阻碍,但整体来看TurboCount 仍能为厂商存储瓶颈缓解带来明确利好。 落地挑战与趋势判断 TurboCount 技术落地存在较多工程化挑战,类似原研药与仿制药的差异,即使公开了核心技术逻辑,工程落地过程中的细节调整、潜在问题规避仍需要大量摸索,技术嵌入从压缩、自适应丢弃、剪枝到分层卸载、分页复用的全链路时,可能产生的影响、需要做的改进都尚未明确,短期之内无法完全解决存储短缺的燃眉之急。从长期趋势来看,该技术的应用也不会降低高端内存的重要性,当前英伟达官方仍将H100 的3TB 内存带宽、H200 的140GB HBM3 及4TB 带宽作为核心卖点,行业对于HBM 的需求依然旺盛,不会因TurboCount 的出现而下降,存储行业整体增长趋势保持稳定,不会因该技术出现明显的趋势性变动。 Q&A Q: 谷歌TurboQuant 技术推出的背景、核心作用及行业角色是什么? A: TurboQuant 论文最早于25 年4 月发布arXiv 预印本,后因入选2016 年ICLR 会议引发关注。该技术并非提升模型智力,而是聚焦提升大模型推理的经济性与可部署性,核心解决高维向量的低比特量化问题,在3.5 比特每通道时接近无损质量、2.5 比特时轻微退化,同时保持几何结构,满足在线可用、无需训练、硬件友好等要求,在量化多维度上达到理论最优平衡。该技术将推理压缩从工程技巧推进至具理论边界与工程可行性的方案,并具备跨场景复用潜力。 Q: TurboQuant 技术降低KV Cache 内存占用是否会导致存储消耗下降? A: 该技术会显著降低HBM 等存储消耗。实验数据显示,在3.5 至2.5 比特压缩率下,131K 上下文时KV Cache 每GPU 占用仅190MB,而全精度时消耗40–60GB;超长上下文场景下,全精度KV Cache 占用可达500GB,压缩后降至1–2GB。对于万亿参数模型,权重显存占用约1.2–1.4TB,KV Cache 压缩在上下文扩展时效果尤为突出,能有效推动大模型向长上下文发展。 Q: TurboQuant 技术提升上下文处理效率,但存储消耗总量是否不变? A: 从行业总量看,技术通过降低部署门槛与上下文成本,推动应用场景扩展与部署量增长。例如,原仅支持128K 上下文的算力未来可能支持1 兆上下文,提升模型可用性与好用性,进而刺激需求增长。存储消耗总量并非简单下降,而是可能因应用普及与调用量放大而增加,对行业整体影响偏利好。 Q: TurboQuant 技术是否会推动大模型行业进入需求与应用的正循环? A: 该技术对大模型行业构成绝对利好,能形成正向循环。不仅大模型厂商受益于推理成本降低与上下文扩展,应用端亦能提升检索效率、降低成本,技术覆盖范围广,整体推动行业生态发展,而非单纯抑制存储需求。 Q: 谷歌TurboQuant 技术的当前商业化落地进展如何? A: 截至当前,未见谷歌官方公布的独立客户采购或大规模商用案例,仅部分推理框架进行实验性集成,尚未形成大面积落地应用。 Q: 除谷歌外,市场上有哪些厂商在研发类似TurboQuant 的KV Cache 优化技术? A: 多家厂商布局同类技术:量化压缩路径包括英伟达TensorRT-LLM、VLLM、LMDeploy;分层卸载路径包括英伟达DiNormal、DeepSeek InGRAM;分页复用路径以VLLM PagedAttention 为代表;微软FastText 采用自适应压缩与Cache丢弃。TurboQuant 的独特优势在于同时实现高精度、实时性、无需训练及理论最优,并覆盖推理与向量检索场景,实验性能显著领先。 Q: 如何研判存储市场未来几个季度的价格走势? A: 受产能扩充周期影响,未来两至三季度存储价格中枢预计维持高位,但结构分化:HBM 需求最旺盛,表现最强劲,可能延续上涨或高位震荡;Server DRAM因产能偏紧且需求大,价格高位但上涨斜率放缓;消费级NAND 需求偏弱,价格走势可能承压。整体呈现HBM > DRAM/SSD > NAND 的强度梯度。 Q: KV Cache 能够被TurboQuant 技术大幅压缩的内在技术原理是什么? A: 压缩本质为量化技术,将元素存储从FP16 降至INT4 等,高维场景下效果显著。TurboQuant 通过两阶段框架解决量化不可能三角,实现高精度、实时、无需训练的压缩,而此前技术难以兼顾三者。 Q: 应用TurboQuant 技术进行存储压缩时,计算环节是否会引入额外开销? A: 不会增加计算开销,反而可能加速Attention 计算。原因包括:压缩空间内的向量内积估计算法效率更高;内存带宽需求降低减少IO 开销;支持Kernel融合,避免解压操作。整体计算效率提升,无额外算力消耗。 Q: 大模型公司集成TurboQuant 技术的工程实现难度与周期如何? A: 技术原理清晰,但工程化实现存在挑战。论文与博客未披露全部细节,类比原研药与仿制药,各厂商需自行优化实现细节与规避工程陷阱,达到谷歌实验效果需较长时间,但基础集成相对可行。 Q: TurboQuant 技术预计需要多长时间才能对大模型推理产生实质性影响? A: 因不涉及模型底层架构变更,落地速度较快。预计1 季度至半年内,部分应用框架将尝试集成;大模型厂商受版本迭代周期影响,可能需半年至8 个月后在新模型中应用。应用端落地速度可能快于大模型端。 Q: 在推理侧需求背景下,如何量化评估TurboQuant 技术对存储市场总需求的拉动规模? A: 该技术主要改变存储需求结构,但不会显著削弱存储重要性或引发需求量级突变。推理成本降低可能扩大应用场景,但存储需求增长仍与行业整体周期同步,技术本身不会导致存储需求快速拉升或下降,预计保持平稳增长态势。 Q: 在当前存储资源稀缺背景下,大模型厂商是否必须采用TurboQuant 等技术以对冲存储获取风险? A: TurboQuant 是重要工具但非唯一解决方案。大模型厂商面临系统级瓶颈,需组合应用四类技术:压缩精度、自适应丢弃、分层卸载、分页管理。高端内存需求依然旺盛,技术仅缓解部分压力,工程落地需时间验证,短期无法完全解决存储短缺问题。

温馨提示:内容源于第三方以及公开平台,仅供用户参考,恕本平台对内容合法性、真实性、准确性不承担责任。如有异议/反馈可与平台客服联系处理(微信:_LYSD_)。