本文由分布式资本提供研究支持,以及储迅信息技术、Crust Network等代表性企业的交流分享。
基于分布式存储的前景:分布式存储为互联网基础构架和商业模式带来的变革与创新空间,将开辟新的存储应用市场。分布式存储采用不同于传统中心化存储的资源和市场激励方式,可以解决中心化互联网架构下安全性、时效性及成本问题,将带来互联网基础架构变革。另一方面,分布式存储为个人节点加入市场交换创造了基础,可以深度挖掘数据内容价值,开辟全新的存储空间和应用市场。目前的分布式存储仍面临I/O性能问题、数据价值分层、应用服务质量等技术瓶颈,在实际应用中需要引入中心化组织进行弥补。
以IPFS协议为代表的分布式存储系统带来存储新思路,将成为下一代互联网基础设施。IPFS协议是一种文件存储和内容分发网络协议,整合了多种成功的分布式系统与区块链技术,为用户提供统一的可寻址数据存储。其本质是一个P2P的分布式存储系统,人人都可以作为存储文件的服务器,通过基于文件内容生成的唯一编码去访问网络中的文件资源。分布式存储系统可以与去中心化的区块链技术相结合,解决中心化互联网架构下数据存储的安全性、用户协作的时效性和存储与带宽成本的问题,将带来互联网基础架构的变革。
分布式存储将充分激发个人存储资源和内容贡献的市场价值,创新互联网商业模式。全球数据量的爆发式增长推动云存储市场的快速发展,边缘云计算和小型数据中心成为行业趋势,分布式存储有望率先打开个人云存储市场空间。个人可以将闲置的存储资源投入到分布式存储系统进行市场交换,可以在互联网上安全地进行内容发布、交换和价值共享,分布式存储就这样推动着个人存储资源市场的资源配置,而这在传统互联网巨头控制中心云模式下是无法实现的。
分布式存储已和传统存储不断融合应用,现有的技术瓶颈需引入中心化组织形式进行弥补。现有的存储解决方案通常将分布式技术与传统存储方案相结合:一方面,对数据进行分布式备份保存,使数据更接近边缘侧,同时避免数据的物理损坏和人为篡改;另一方面,通过一定程度的集中存储和集中管理来降低系统运维成本,提高服务质量。
现有的分布式存储仍面临若干技术瓶颈:
第一,目前的分布式存储暂时无法实现数据价值分层,难以实现有效激励,可以考虑将底层构架和应用层策略相结合;
第二,分布式存储从代码实现到协议层都有很大的优化空间,还会受到网络规模限制,存在I/O性能问题;
第三,存储数据价值较高的用户需要承担更大的服务质量风险,付费意愿较弱,需要应用层解决方案。总之,考虑到系统运维成本、服务质量和宏观监管等问题,未来的分布式存储系统需要引入中心化组织形式来弥补运营成本。
1 核心观点
1.1 核心推荐逻辑
基于分布式存储,将开辟新的存储应用市场。分布式存储采用不同于传统中心化存储的资源和市场激励方式,不仅仅是充分利用分布式节点资源,而是为个人节点贡献的内容投入市场交换创造了基础,从而深度挖掘数据内容价值、开辟全新的应用市场,这在传统的互联网公司控制中心云平台数据的情况下是无法实现的。同时,分布式存储与中心化存储将不断融合,改变现有的互联网构架和商业模式。
1.2 我们区别于市场的观点
1. 市场低估了分布式存储为互联网基础构架和商业模式带来的变革与创新空间。市场通常将分布式存储视为一种新的技术,而忽略了分布式存储带来的个人存储资源、用户内容贡献价值挖掘和市场交换的潜力。在分布式文件系统的互联网上,个人存储资源可以投入到市场进行资源交换,为用户贡献的内容在数据确权、安全的基础上进行内容价值提供市场交换的平台。因此,分布式文件系统将会催生更多的全新的互联网应用,而非传统互联网的技术迭代。
2. 分布式存储将成为下一代互联网基础设施
目前,互联网将海量计算机(智能移动)终端连接在一起,使得用户能够访问存储其他计算机终端上的海量数据。数据的传输与访问,是基于HTTP(超文本传输协议)为代表的互联网协议实现的,数据是以计算机(服务器)终端IP(或者说域名)为地址进行中心化存储的,具体存储数据的服务器节点就像一个集中式的仓库,要承担巨大流量访问、数据传输压力。能否将数据文件分散存在网络不同服务器节点上,革新互联网基础构架?
类似IPFS这种分布式存储协议逐渐兴起,作为HTTP的补充,打造面向全球、点对点的分布式版本文件系统,能将所有具有相同文件系统的计算设备连接在一起。就IPFS而言,用户寻找的是存储在某地方的内容(这些内容分散在不同的服务器节点),而不是某地址,就只需确认验证内容的哈希,这样就能过获得速度更快、安全、健壮、持久的网页。
我们将探讨分布式存储将如何带来互联网基础构架的变革,将创造怎样的新的应用场景和市场。
2.1以IPFS协议为代表的分布式存储带来新思路
IPFS协议是一个将多种成功的分布式系统思路与区块链相结合的文件存储和内容分发网络协议,为用户提供统一的可寻址数据存储。IPFS(Inter-Planetary File System)由Protocol Lab提出,字面意义是星际文件系统。其本质是一个P2P的分布式存储系统,将所有具有相同文件系统的计算设备连接在一起,目标是补充甚至替代超文本传输协议HTTP。
与现有Web协议不同的是,对于一个存放在IPFS网络的文件资源,不是用基于域名的地址去访问,而是通过基于文件内容生成的唯一编码去访问,不需要验证发送者的身份,只需要验证内容的哈希,可以让网页的速度更快、更安全。IPFS的网络上运行着一条区块链,即用来存储互联网文件的哈希值表,每次有网络访问,即要在链上查询该内容(文件)的地址。IPFS协议最大的特色是系统的耦合及设计的综合性,其整合的分布式技术包括BitTorrent协议、版本控制系统Git、MerkelDAG、分布式哈希表DHT和自认证文件系统SFS。因此在IPFS系统中,人人都可以作为存储文件的服务器。
IPFS协议借鉴了BitTorrent协议诸多优点,并进行了创新,打造持久且分布式存储和共享文件的网络传输协议。BitTorrent(简称BT)是一种广泛应用的内容分发协议,特点是充分利用用户的上载带宽,使得下载用户越多,下载速度越快。在中心化存储的FTP、HTTP协议中,每个用户下载所需文件,各个用户之间没有交互。如HTTP,每次当同时访问和下载文件的用户过多时,由于服务器处理能力和带宽的限制,下载速度会急剧下降,部分用户甚至会无法访问服务器。而BT协议下,分配器或文件持有者将文件发送给一名用户,再由这名用户转发给其它用户,用户之间相互转发自己所拥有的文件部分,直到每个用户的下载全部完成。这种方法可以使下载服务器同时处理多个大体积文件的下载请求,而无须占用大量带宽,因此常用于大型文档和自由软件的发布以降低服务器负担。
IPFS团队对BitTorrent进行了创新,增加了信用和帐单体系来激励每个节点分享数据,称为BitSwap协议。用户在BitSwap里分享数据会增加信用分,从其他节点接受数据则会降低信用分。如果用户只去检索数据而不分享数据,信用分就会越来越低,而被其它节点忽略。
类似于于互联网的七层协议模型,IPFS构架分为八层子协议栈。IPFS作为分布式存储协议,核心功能包括:文件内容多人协调和版本可回溯、不可篡改,DHT管理带来的离散性、伸缩性和良好的容错性,以及基于IPNS的文件域名系统。
内容版本方面,IPFS使用分布式版本控制系统Git,支持多人协同工作,记录每次更新并标记不同的版本号,一旦发生问题,可以将文件回溯到之前的任何一个版本。本地版本控制系统和集中化的版本控制系统都是由单一服务器保存所有文件的修订版本,一旦服务器发生故障,则面临丢失所有数据的风险。Git是分布式版本控制系统(DVCS)的一种,客户端除了保存最新版本的文件,还把代码仓库和历史记录都完整地镜像下来。这样,任何一处协同工作的服务器发生故障,都可以用任何一个本地仓库进行恢复。Git还可以比较文件变化细节,查出谁进行了什么修改,从而可以在发生问题时快速准确的找出原因。更进一步,许多DVCS系统都可以指定和若干不同的远端代码仓库进行交互,用户可以在同一个项目中和不同工作小组的人相互协作,根据需要设定不同的协作流程,而这在以前的系统中是无法实现的。
IPFS团队对Git数据结构进行改造,在Merkle Tree的基础上得到了Merkel DAG,拥有内容寻址、防篡改、去重三大功能。IPFS将文件划分成单个大小不超过256kB的数据块,每个数据块拥有唯一的哈希值,并构造一个Merkel DAG将所有文件碎片组织起来。Merkel DAG是实现版本化文件系统的一种核心数据结构,比Merkle Tree的限制更少,但是保留了其两点精髓:1)父节点哈希由子节点哈希决定,即父节点哈希由子节点哈希拼接的字符串再次哈希而成;2)父节点中包含指向子节点的信息。任何一个下层节点的改动都将导致上层节点哈希值的变动,最终根节点的哈希值也将变动,因此Merkle DAG的三大功能得以实现:1)内容寻址:使用多重哈希来唯一识别一个数据块的内容;2)防篡改:数据接受方只需一段Merkle路径上的哈希值,就可以检查数据是否被篡改;3)去重:内容相同的数据块的哈希是相同的,可据此删除重复数据,节省存储空间。
IPFS的路由功能采用分布式哈希列表DHT,帮助客户节点快速找到所需数据所在的节点,具有离散性、伸缩性和良好的容错性。DHT是一种分布式哈希表,通过存储的键值对提供查询服务:键值对存储在DHT中,节点可以检索给定键对应的值,键值对的映射由网络中所有的节点维护。在不需要服务器的情况下,每个节点负责一小部分路由和数据存储,从而实现整个DHT网络的寻址和存储。即使有节点加入或离开,对整个网络的影响也很小,因此DHT可以扩展到非常庞大的节点(上千万)。DHT具有以下性质:1)离散型:构成系统的节点之间都是对等的,没有中央控制机制进行协调;2)伸缩性:不论系统有多少节点,都要求高效工作;3)容错性:不断有节点加入和离开,不影响整个系统的工作。
IPNS是IPFS的文件域名系统,像HTTP系统的域名(网址)一样,使用户搜索文件时只需查询文件名,而不受文件内容变更的影响。IPFS中文件的哈希值完全取决于文件内容,不仅难以记忆,一旦修改文件内容其哈希值也会发生改变,每次更新文件后都需更新引用的哈希值,十分不便。为了能够在不破坏其链接的情况下更改文件内容,IPFS团队使用了一种标记更新网址哈希的域名系统,即星际名称系统IPNS。IPNS是一个去中心化的命名系统,使用类似哈希的地址安全地指向可变内容,每个文件都可以被协作命名为易读的名字,通过搜索就可以找到文件。自认证文件系统SFS对文件进行命名,同时提供了IPNS以解决传播问题,很好地解决了当前用户不习惯输入哈希值访问文件的问题,在现有的互联网系统和IPFS系统间搭建了一个桥梁。
简单的说,基于IPFS协议存储的文件是打散成许多可验证的碎片文件(数据通过哈希值编码进行唯一标记),分布在网络中,访问者通过内容编码找到这些文件的位置后进行下载,由于是分散存储(同一个内容可能多台服务器存储),不必须要求所有节点服务器都必须在线,以此IPFS希望达到创建持久且分布式存储和共享文件的网络传输协议的目标。而HTTP为代表传统的中心化存储差别十分明显——HTTP的文件是中心化的方式存储,通过文件的域名进行访问,且域名文件服务器需要保持在线,否则将无法访问。
2.2分布式存储将带来互联网基础架构变革
随着互联网与通信、人工智能、物联网、云计算/边缘计算等技术的发展,万事万物都可以被记录并用数据表达,数据从单一内部小数据向多元动态大数据转变。据IDC预测,全球数据圈的规模将由2018年的33ZB增长至2025年的175ZB,且文本、图片、视频等非结构化数据将拥有更高的增长率,在整体数据圈的占比也将持续增加。因此,需要更先进的互联网基础架构来对数据进行采集、存储和利用。
目前,中心化互联网架构下的主要问题集中在安全性、时效性和集中化三个方面,而以IPFS为代表的分布式存储协议将通过解决以下问题带来互联网构架的变革:
传统的HTTP协议使用非对称架构实现网络的高并发,但是中心服务器难以负担过大的传输数据量,影响用户体验,云计算厂商和电信运营商需要为此付出较大的设备成本。IPFS协议解决了热点文件的存储问题,但一个文件只有被不断访问才能确保其存储有效性,冷门且具有价值的文件容易丢失,主要原因是激励层缺失导致的节点不稳定性。目前,一种对标IPFS的分布式技术HTTPX(网格裂变系统)也在悄然崛起,提供去中心化的CDN服务、存储服务和GPU算力服务。HTTPX兼顾了HTTP协议的优势,对路由和传输逻辑进行重新定义,采用对称架构,将网络的分裂做到了前所未有的程度。
HTTPX是一种更轻量化、更灵活、性能更加完善的P2P技术。HTTPX的技术架构设计属于网格设计,每一个节点既是独立个体也是全局功能体,可以支持存储、计算和传输数据。用户连接最近的节点接入HTTPX网络,该节点将寻址找到临近节点,发现百万级别的信息,定位资源存储节点,并通过最优网络传输路径回传到用户临近节点。HTTPX和IPFS相比具有明显优势,有望将云计算服务推向新的高峰:
1)高性能:网格系统设计大幅缩短用户到节点的物理距离和网络距离,实际测试中TTL下降60%,提供更低延时的优质服务响应;
2)低成本:为产业链服务,定价较低;硬件兼容性高,可部署到家庭、社区、办公场所;
3)兼容性强:兼容HTTP、HTTPS协议,同时提供高级HTTPX开源代码接入模式;
4)实力雄厚:采用P2P思想,CDN支撑能力出众;提供存储、GPU资源的挖矿模式,真正做到一机多用。
5)快速发布:带宽需求大,发布周期短,资源提供方不用担心项目延期带来的资本周转问题。
3 分布式存储开辟互联网基础设施产业新格局
3.1分布式存储开发新的存储市场
全球数据量的爆发式增长推动云存储市场的快速发展。云存储是一种以数据存储和管理为核心的云计算服务,指通过集群应用、网络技术或分布式文件系统等,将网络中大量不同类型的存储设备通过应用软件集合起来协同工作,共同对外提供数据存储和业务访问功能的系统。换句话说,云存储就是将资源放到云上供人存取,用户可以在任何时间、任何地点,通过可连网装置连接到云上方便地存取数据。
根据云存储服务性质的不同,可以分为公有云、私有云和混合云。其中,公有云面向包括个人、家庭、企业在内的多种客户;私有云由企业或组织使用及维护,用户在个性化等方面有更多的控制权;混合云将公有云和私有云进行混合和匹配,达成相对高性价比解决方案。据IDC预测,2025年中国数据规模将达到48.6ZB,其中超过80%为非结构化数据,且由于发展滞后北美4-5年,中国云市场增速高于全球水平。2018年中国云计算整体市场规模达962.8亿元,增速为39.2%。其中,公有云市场规模达到437亿元,增速为65.2%,预计接下来三年内仍将快速增长。
分布式存储将开辟新的应用场景,充分激发个人存储资源和内容贡献的市场价值,创新互联网商业模式。随着分布式存储技术和生态的发展,将充分激发个人存储资源市场的资源配置,激励更多的个人存储资源进入市场——即个人可以将闲置的存储资源投入到分布式存储系统进行市场交换,这在传统互联网巨头控制中心云模式下是无法实现的。更重要的是,个人在互联网上的内容共享将可以安全地进行发布、交换和价值共享。如D.Tube是一个加密分布式视频平台,建立在STEEM区块链和IPFS点对点网络之上,目标是成为YouTube的替代品,允许用户在IPFS基础上观看或上传视频,并在不可变的STEEM区块链上进行分享或评论,同时赚取加密通证。D.Tube的所有数据都是公开的,任何有互联网连接的人都可以对其进行分析,无需广告即可运行,提供了最佳的用户体验。可以这样说,几乎任何现有的互联网应用都可以迁移到分布式文件系统上,获得新的体验和创新商业模式,这里面的想象空间是无限的。
边缘云计算和小型数据中心成为行业趋势,分布式存储有望率先打开个人云存储市场空间。2019年11月,手机上网用户规模达13.1亿,个人网盘月度活跃用户超1亿,个人存储市场仍有庞大的潜在用户基础和可利用存储空间。面对数据规模的高速增长,边缘云计算和分布式存储成为行业趋势,利用分布式文件系统将个人闲置的存储资源投入到网络中,进行市场交换,将成为分布式存储率先进入的领域之一,目前已有这方面的初创应用。
3.2分布式存储已和传统存储不断融合应用
在分布式存储的实际应用中无法避免一定程度的中心化,因此常和传统存储方案融合应用。分布式存储会带来系统性能和管理成本的问题,因此现有的存储解决方案通常将分布式技术与传统存储方案相结合:一方面,对数据进行分布式备份保存,使数据更接近边缘侧,同时避免数据的物理损坏和人为篡改;另一方面,通过一定程度的集中存储和集中管理来降低系统运维成本,提高服务质量。
案例1):储迅的分布式存储云服务
上海储迅信息技术有限公司(StorSwift)是一家专注于企业生产数据存储和管理的高新技术企业,核心团队来自于美国存储公司Rasilient,有超过15年的存储行业研发和运维经验。储迅在大规模存储运维、存储安全及性能优化领域拥有核心的硬件软件技术,迄今为止已部署和存储超过300PB的关键业务存储数据,其中对图像数据的存储和处理在业界处于领先地位。储迅已在安防、医疗、媒资等行业提供了成功的存储解决方案,和因特尔、中国移动等多家企业开展业务合作。
储迅为企业提供专业的分布式数据存储方案,在数据存储优化、I/O优化、大规模系统运维管理等方面经验丰富。主打产品有高性能分布式文件系统、分布式块存储、分布式对象存储网关等,同时提供从硬件选型到挖矿程序优化、存储性能优化、运维调度等一整套的Filecoin解决方案。和传统的集中数据中心存储相比,分布式存储的优点在于数据存储更加分散,对地理位置的依赖性更弱,可以规避多种风险,实现企业轻资产运营,降低运维成本。
案例2):CRUST链接分布式云
CRUST是基于有意义工作量证明机制(MPoW)和担保权益证明共识(GPoS)构建的数字加密应用层,同时也是一种支持去中心化存储与计算的新一代区块链技术。CRUST实现了去中心化存储的激励层协议,适配包括IPFS在内的多种存储层协议,并对应用层提供支持:第一层量化资源和工作量,提供了一个让所有人都能认可的计算方式MPoW,这是解决问题的根本;第二层利用GPoS达成共识,共同维护网络;第三层为用户提供去中心化的存储服务和检索服务,同时CRUST的架构也有能力对去中心化计算层提供支持,构建分布式云生态。
CRUST与Filecoin最大的不同点是采用了可信执行环境(TEE),核心概念是用一个第三方硬件为载体,保证其中创建和运行的数据不可被攻击和篡改。主流的芯片厂家如Intel、AMD、ARM等,生产的CPU内都有TEE空间,可以在其中运行开源的、通过CRUST社区成员认可的程序包,实现对资源量化工作的监督,进而把量化证明通过签名发送到区块链网络。
Filecoin对节点工作量的证明采用的方法是零知识证明和网络交叉验证,同样是开源算法,但是带来了硬件消耗和带宽需求的问题,还需要刻意提高算法的复杂度来保证节点短时间内不能作弊。TEE则解决了这些问题,在本地就可以完成资源证明过程,降低网络资源占用,简化工作量量化的过程。另外,由于TEE内程序对数据进行封装保存时无须担心被篡改,算法效率更高,用户可以获得更好的使用体验。
4 分布式存储面临的技术瓶颈与发展机遇
4.1 数据价值分层是分布式存储经济激励的关键
不同数据的市场价值是不同的,不同个体对相同数据的价值判断也并不一致。而存储节点并不知道数据的内容、难以评判数据价值的情况下,如何有效将存储激励与数据市场价值做到优化配置?
数据价值分层是甄别数据价值以及实现有效激励的关键。分布式的节点负责存储数据碎片,但并不知道数据内容以及数据的价值,也就是说,矿工的工作量衡量如果不能考虑数据价值的因素,就很难实现更优化的市场激励调节。以Filecoin采用的时空证明(PoST)机制为例,矿工节点的存储工作量衡量,与文件碎片内容的数据价值无关。Filecoin目前并没有对数据价值进行具体分层,只做了垃圾数据和可验证数据的区分。目前现存的共识机制,均仅限于矿工的存储工作量衡量,而无法代表数据价值。矿工节点的物理损毁、网络服务质量差的成本是以经济激励来衡量,但因此造成的用户数据服务质量和数据价值损失并不对等。简单说,矿工最多损失的是系统经济激励,而用户损失的可能是数据的损毁或极差业务服务质量——毕竟对于矿工来说,数据的价值是的核心衡量因素是存储容量。
应考虑底层构架和应用层结合的方式解决数据分层问题。解决数据价值分层,对分布式存储的经济激励十分关键。在基础构架层面难以单独解决,必须结合应用层来实现。结合应用场景,在应用层实现数据的分层,从而实现矿工节点的分层;如,对于一些服务质量、内容价值较高的数据,则可以圈定一个激励价格较高的矿工市场,同时对矿工节点的硬件配置、服务质量做更高的要求。这类应用在私有网络、局域网更方便实现。针对不同的应用场景,采用不同的应用层策略。也就是说,广泛而统一的分布式存储网络很难满足各个场景和用户个体的需求,针对不同场景采取不同的应用层解决方案来完成数据价值分层是可行的方案。
4.2 I/O性能瓶颈需要底层和应用层联合优化解决
分布式存储会带来系统I/O性能问题。和传统存储系统相比,分布式存储需要将文件打碎、多节点备份保存,在查询使用数据时需要进行大量碎片文件的调度工作,工程量极大。另外,当文件较大时,用于内容寻址的哈希表也会很大,寻址时间也会更长。更为关键的是,矿工节点的网络资源状况对网络I/O性能的影响也存在诸多不确定性,尤其是那些流媒体数据,若某些数据碎片的节点网络状况较差,则会影响整个数据文件的访问服务质量。中心化存储下,通过CDN等手段可以解决这些问题,拥有较好的客户体验。因此,现有的分布式存储系统的I/O效率是技术性能方面首要考虑的问题之一,从代码实现到协议层都有很大的优化空间,还需要进一步突破。
实验测试显示IPFS的I/O性能还有待进一步改善。由于采用分布式存储,文件的读取受到节点自身及全网其它节点的影响,主要包括:节点数量和稳定性、带宽、网络(地理)位置等。来自复旦大学的研究人员对IPFS的I/O性能做了一项实验,并和HTTP进行对比,以验证IPFS网络处理请求时的延迟和吞吐量表现。远程读取操作的平均延迟方面,当请求是小的请求时,在1k-4k间,HTTP延迟比IPFS低。遇到16-256k之间的文件,IPFS的延迟状况优于HTTP。当处理大文件请求时,IPFS在延迟上的表现不尽人意,尤其是请求大小超过16MB时,IPFS的处理时间接近了20秒。超过64MB时,延迟更是可以达到70秒,是HTTP(10秒)的7倍。当然,这是实验室测试条件下的结果,在实际应用过程中,尚未有具有说服性的案例;无论如何,IPFS等分布式存储方案若想替代HTTP等中心化方式,还有很多底层技术构架、协议和应用生态方面的改进与探索。
分布式网络的传输效率还非常依赖网络规模,激励机制有待完善。P2P的文件交互传输协议采用的是打散文件、多点续传的方式,传输效率十分依赖分布式网络中的节点数量。因此,需要完善激励机制,使节点用户在自己无下载需求时仍积极接入网络,为其他用户提供存储服务。当去中心化网络中在线的节点数比较稳定之后,传输速度会更快。从长远来看,协调好多点续传以后的去中心化存储系统拥有十万甚至百万级的节点数量,系统I/O效率才有望比拟当下中心化+CDN存储的系统效率。
4.3 服务质量保障
去中心化系统的服务质量还有很大的优化空间。分布式存储市场上现有的落地应用不多,普遍面临节点数量规模不足、应用层开发不够完善等问题,用户使用体验无法和成熟的中心化存储产品相比,因此付费意愿也较弱。因此,要解决如何用不可靠的分布式节点提供可靠的存储服务这个问题,首先要设定共同认可激励和惩罚机制,其次还需要通过经济激励之外的手段(如运营机制检查)来规范矿工行为。
存储数据价值较高的用户需要承担更大的服务质量风险,亟待应用层解决方案。区块链只负责监控矿工工作量的完成情况并予以奖惩,但是无法弥补用户损失,因此服务质量问题交由应用层来解决。比如,可以根据矿工的历史惩罚记录区分服务质量等级,用户需要存储重要数据时,可以资源选择收费更多的、质量更高的存储服务。只有当越来越多的用户愿意消费,网络中的节点越来越多时,去中心化存储系统的整体效率才能提升,服务质量才更有保障。因此,考虑到系统运维成本、服务质量和宏观监管等问题,分布式存储系统无可避免地会存在一定程度的集中管理和控制。
4.4 在应用、运营层面中心化组织与分布式存储将进一步融合
显然,分布式存储在I/O瓶颈、数据价值分层和应用服务质量方面需要引入中心化组织形式来弥补运营成本。分布式存储所面临的上述问题,给应用带来了较高的运营成本,因此可以引入中心化的组织方式来弥补高昂的运营成本,就像BitTorrent采用中心化的方式来管理哈希表DHT一样。简单说,数据碎片可以分布式存储,但在不同的应用场景可以引入一些限制。例如,I/O瓶颈方面,针对那些对I/O性能较高的应用,如流媒体数据,则以激励方式鼓励节点在适当的物理位置或提高节点I/O性能。在数据价值分层方面,对于一些特别重要的数据,核心数据采用中心化的存储、一般数据采用分布式存储,这类相结合的方式是较为现实的解决方案。应用服务质量方面,限制数据文件存储的物理和网络位置、QoS保障,来确保数据文件的安全,因此,需要对此类矿工进行一些激励补偿。另外,在应用层面,复杂且较长IPNS对于用户是较难记忆和操作的,类似于DNS服务实现IP地址和域名之间的管理一样,利用中心化的方式解决IPNS用户不友好的,引入类似文件存储域名的服务,这也是中心化与分布式存储进一步融合的方向。