HDFS混合加密保护方案的设计.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
HDFS混合加密保护方案的设计.doc

HDFS混合加密保护方案的设计   摘 要: 如何有效解决云计算中存在的安全问题是关系到云计算产业发展的关键。针对Hadoop云计算系统在数据共享中存在的安全问题,采用了一种基于RC4和RSA的混合加密保护方案,该方案在云存储数据共享过程中,紧密结合Hadoop云计算系统的特性,能够实现数据的安全共享,同时兼顾保密性与效率。   关键词: HDFS; 数据安全; RC4; RSA; 混合加密   中图分类号:TP309.2 文献标志码:A 文章编号:1006-8228(2014)07-17-03   Abstract: Security is becoming a huge concern for users. How to solve the security problems has been the top priority for the cloud computing industry. In this paper, a hybrid encryption scheme based on RC4 and RSA is presented. This encryption addresses the security problems in data sharing of Hadoop system. Combined with the characteristics of Hadoop cloud computing system, the new approach ensures both the security and efficiency.   Key words: HDFS; data security; RC4; RSA; hybrid encryption   0 引言   2006年,Google首次提出“云计算”(Cloud Computing)的概念,云计算被看作是IT领域的第三次重要变革。Apache基金会在Google云模型的基础上开发了著名的开源云计算平台Hadoop,它实现了HDFS(分布式文件系统)和MapReduce(编程模型)。云计算通过将计算分布在大量分布式计算机上,以按需服务模式向用户提供计算力、存储空间和应用服务,是一种具有极高“性价比”的资源。然而,用户数据存储在云环境中,由于其虚拟化的特点,用户无法获知存储细节,并且用户信息的所有权与管理权相分离,这成为了用户数据安全的潜在威胁[1]。据悉,用户对托管在云端数据的安全性仍有担忧,并认为安全问题将成为云计算发展的巨大瓶颈[2-3]。本文主要分析了Hadoop云存储中存在的数据安全问题,结合Hadoop系统的特性,设计了一种基于RC4和RSA的混合加密数据保护方案,该方案对静态存储在HDFS中的数据进行混合加密,从而可有效地避免数据泄露问题。   1 Hadoop系统及其存在的安全问题   随着大数据时代的到来,规模庞大的数据正成为人类新的资产和财富,如何针对海量数据进行科学的处理已成为国家、企业应对大数据时代的关键问题之一。Hadoop作为世界上著名的开源云计算系统,将对海量数据的存储和处理提供极大支持和便利。但Hadoop系统本身存在的安全问题不容忽视,成为人们对其应用的重要考量。   1.1 Hadoop主要结构分析   Hadoop是由Apache基金会发展的开源云计算系统,是一个在计算机集群上使用简单编程模型来处理大数据集的软件框架,其中的海量数据分别存储在集群中的每个节点上,每个节点负责处理存储在自己本地硬盘上的数据。Hadoop主要由HDFS(Hadoop分布式文件系统)和Hadoop MapReduce两大部分组成。其中的HDFS直接存储着用户数据信息,为Hadoop的所有应用提供极其重要的分布式存储服务,因此HDFS对整个Hadoop系统的安全性具有重要意义。HDFS采用Master/Slave架构,一个HDFS集群是由一个NameNode和一定数目的DataNodes组成,NameNode是一个负责管理存储文件元数据信息的中心服务器,而DataNode则存储文件的Block。   1.2 HDFS数据存储与删除过程   客户端在HDFS中存储数据的基本流程如图1所示。   当客户端存储数据文件到HDFS中时,文件最终以Block的形式被DataNode接收并保存在本地文件系统当中,并由DataNode负责管理和维护存储在本地的文件。当客户端需要删除文件时,本地的文件通过Java的文件删除机制将其删除,这与单机状态下文件的删除原理相同[4]。用户在使用普通删除命令删除文件时系统只是修改文件的文件目录项的第一个字节为特殊字符,去除目录区的文件名和数据区的文件数据之间的索引链接,

文档评论(0)

jingpinwedang + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档