java实现随机森林RandomForest的示例代码
随机森林是由多棵树组成的分类或回归方法。主要思想来源于Bagging算法,Bagging技术思想主要是给定一弱分类器及训练集,让该学习算法训练多轮,每轮的训练集由原始训练集中有放回的随机抽取,大小一般跟原始训练集相当,这样依次训练多个弱分类器,最终的分类由这些弱分类器组合,对于分类问题一般采用多数投票法,对于回归问题一般采用简单平均法。随机森林在bagging的基础上,每个弱分类器都是决策树,决策树的生成过程中中,在属性的选择上增加了依一定概率选择属性,在这些属性中选择最佳属性及分割点,传统做法一般是全部属性中去选择最佳属性,这样随机森林有了样本选择的随机性,属性选择的随机性,这样一来增加了每个分类器的差异性、不稳定性及一定程度上避免每个分类器的过拟合(一般决策树有过拟合现象),由此组合分类器增加了最终的泛化能力。下面是代码的简单实现
/** *随机森林回归问题 *@authorysh1208706282 * */ publicclassRandomForest{ ListmSamples; List mCarts; doublemFeatureRate; intmMaxDepth; intmMinLeaf; RandommRandom; /** *加载数据回归树 *@parampath *@paramregex *@throwsException */ publicvoidloadData(Stringpath,Stringregex)throwsException{ mSamples=newArrayList (); BufferedReaderreader=newBufferedReader(newFileReader(path)); Stringline=null; Stringsplits[]=null; Samplesample=null; while(null!=(line=reader.readLine())){ splits=line.split(regex); sample=newSample(); sample.label=Double.valueOf(splits[0]); sample.feature=newArrayList (splits.length-1); for(inti=0;i (iters); Cartcart=null; for(intiter=0;iter s=newArrayList (mSamples.size()); for(inti=0;i samples=Cart.loadTestData("F:/2016-contest/20161001/valid_data_1.csv",true,","); doublesum=0; for(Samples:samples){ doubleval=forest.classify(s); sum+=(val-s.label)*(val-s.label); System.out.println(val+""+s.label); } System.out.println(sum/samples.size()+""+sum); System.out.println(System.currentTimeMillis()); } }
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持毛票票。