当前位置:小说BT吧>科幻灵异>脑回路清奇的主角们> 第一百五十四章 幻大数据压缩研究
阅读设置(推荐配合 快捷键[F11] 进入全屏沉浸式阅读)

设置X

第一百五十四章 幻大数据压缩研究(1 / 2)

 任何一个随机大数据,都有两种可能,一种是可以用极少数的算式就能得出,比如1024的1024次方;另一种是可以用极少数的算式就能近似得出,也就是用一个算式,能够得出重合率达到百分之八十的数值,只需要一些不重合区域的表达式就可以还原。

按照进制,分为十进制大数据,十六进制大数据,二进制大数据。

数据的进制可以转换,而当数据足够大时,进制的转换会导致运算资源占用,也就需要有对应的进制的数据压缩方法。

二进制无理数专用处理器:生成二进制的圆周率,生成二进制的黄金分割率,生成任意正整数的以自身为开方数的数值,阶除——也就是1除以2除以3除以4除以5一直到特定中止位置的取小数部分。

随机重合排列关系专用处理器:在二进制中,随机找出一个无理数(数据卡尺)和一个有理数数据(需要被转化为最短表达式的原始数据)的数据重合部分,把这些重合表达为最短表达式,当然,一个原始数据不可能只采用一个数据卡尺。

发展下去,大数据就需要有专用的数据卡尺服务器,也就是小的数据卡尺服务器,可以常备1000多个数据卡尺,而大的数据卡尺服务器,可以常备千万亿级别的数据卡尺。

数据卡尺越多,越容易生成最短表达式。

上一章 目录 +书签 下一页