读书人

分式算的一些思忖

发布时间: 2013-10-28 11:21:45 作者: rapoo

分式算的一些思考

  距上次文字又有一段矣,期都是以主的工作,用Python一些,一用SVM成的AI算法打了包,一些其他,比如深入HTTP,WSGI等等,再,而今期使我最得感悟的是於,分式算之一些思考。
  P.S.改人家的代真是一件蛋痛事,但每次我想有所抱怨之,又想起有人看我的代,反而更自地去反思如何代思上做得更好。

  起上需要理十TB的文件,而各子分用到十T,所以哥也一直在想用hadoop搞蛋些究竟行不行。我也一直在查找著各可能出的情。包括以下篇文字:http://121.52.208.248/mwiki/index.php/MapReduce:_%E4%B8%80%E4%B8%AA%E5%B7%A8%E5%A4%A7%E7%9A%84%E5%80%92%E9%80%80 。

  完篇文字,,真的受,使我得hadoop其是“一次性”的工具。一次性何物呢?我指的是用框架你是不用到索引等等一些高的技巧,而也使得我信mapreduce的是一倒退,或者是十年前的那分叉路口第二路用貌的方法重新走一遍。而在的由mapreduce展出也有的一些理和方法去使mapreduce更加高效。
  同,我一直有留意和用如mongodb、redis等nosql,特是mongodb,有索引,是很特的一,而redis也被用在我的一信息,用作列服,然後我一些好像也不的列服件,但我是意用pythonredis一小小的,包括一其的插入和取出列制=。=
  扯回hadoop、DBMS、nosql些keyword。其nosql出是DBMS的重,有一路是hadoop,生硬的方法,有像redis,也是一生硬的方法,唯有mongodb,是nosql,其一定程度上是有系“解”了。

  了一些文字之後,我我一向hadoop就是解超大型的良方一思想改了。我非就是真正解大不是依靠硬生生耗大量源行mapreduce,到最後,是行索引,一步的,不是nosql就是只用keyvalue,而是以key基,以索引基,行分式存取,甚至大的索引做成分式索引(我得未一段肯定有分式索引的出),解成和索引部分。

  我也不否mapreduce的用途,用在那些不知道怎生的PB的文本,想要提取一些什西,是非常有用的,如果你不考集成本的。

读书人网 >其他数据库

热点推荐