下载此文档

数据仓库与数据挖掘技术-试题答案.pdf


文档分类:IT计算机 | 页数:约7页 举报非法文档有奖
1/7
下载提示
  • 1.该资料是网友上传的,本站提供全文预览,预览什么样,下载就什么样。
  • 2.下载该文档所得收入归上传者、原创者。
  • 3.下载的文档,不会出现我们的网址水印。
1/7 下载此文档
文档列表 文档介绍
该【数据仓库与数据挖掘技术-试题答案 】是由【青山代下】上传分享,文档一共【7】页,该文档可以免费在线阅读,需要了解更多关于【数据仓库与数据挖掘技术-试题答案 】的内容,可以使用淘豆网的站内搜索功能,选择自己适合的文档,以下文字是截取该文章内的部分文字,如需要获得完整电子版,请下载此文档到您的设备,方便您编辑和打印。:..?(1)现实世界的数据是杂乱的,数据多了什么问题会浮现。数据库极易受到噪音数据(包含错误或者孤立点)、遗漏数据(有些感兴趣的属性缺少属性值或者仅包含会萃数据)和不一致数据(在编码或者命名上存在差异)的侵扰,因为数据库太大,往往多达几G或者更多。进行数据预处理,提高数据质量,从而提高挖掘结果质量。(2)数据预处理主要包括:数据清理:去除数据中的噪音、纠正不一致;数据集成:将数据由多个源合并成一致的数据存储,如数据仓库或者数据方;数据交换:规范化或者会萃可以改进涉及距离度量的挖掘算法精度和有效性;数据归约:通过会萃、删除冗余特征或者聚类等方法来压缩数据。数据离散化:属于数据归约的一部份,通过概念分层和数据的离散化来规约数据,对数字型数据特殊重要。监督学****Supervisedlearning)是通过发现数据属性和类别属性之间的关联模式,并通过利用这些模式来预测未知数据实例的类别属性。监督学****又称为分类Classification或者归纳学****InductiveLearning。无监督学****Unsupervisedlearning)即聚类技术。在一些应用中,数据的类别属性是缺失的,用户希翼通过浏览数据来发现其的某些内在结构。聚类就是发现这种内在结构的技术。雪花模式与星形模式不同在于:雪花模式的维表可能是规范化形式,以便减少冗余。这种表易于维护,并节省存储空间,因为当维结构作为列包含在内时,大维表可能非常大。然而,与巨大的事实表相比,这种空间的节省可以忽略。此外,由于执行查询更多的连接操作,雪花结构可能降低浏览的性能。这样系统的性能可能受影响。因此,在数据仓库设计中,雪花模式不如星形模式流行。:..答:(1)所有频繁项集为:[E,K,O][K,M][K,Y]关联规则(2)[O]->[E,K]:..[K,O]->[E][M]->[K][Y]->[K])决策树表示一种树型结构,它由它的分来对该类型对象依靠属性进行分类。每一个决策树可以依靠对源数据库的分割进行数据测试。这个过程以递归的方式对树进行修剪。当不能再分割时,递归完成。因此决策树不会无限循环。b)0c)sized)Children,SIN,class:..lassBayesClassifier{privateTrainingDataManagertdm;//privateStringtrainnigDataPath;//训练集路径privatestaticdoublezoomFactor=;/***默认的构造器,初始化训练集*/publicBayesClassifier(){tdm=newTrainingDataManager();}/***计算给定的文本属性向量X在给定的分类Cj中的类条件概率*<code>ClassConditionalProbability</code>连乘值****@paramX给定的文本属性向量****@paramCj给定的类别****@return分类条件概率连乘值,即<br>*/floatcalcProd(String[]X,StringCj){floatret=;//类条件概率连乘for(inti=0;i<;i++){StringXi=X[i];:..}//ret*=(Cj);returnret;}/***去掉停用词****@paramtext给定的文本****@return去停用词后结果*/publicString[]DropStopWords(String[]oldWords){Vector<String>v1=newVector<String>();for(inti=0;i<;++i){if((oldWords[i])=alse){//(oldWords[i]);}}String[]newWords=newString[()];(newWords);returnnewWords;}/***对给定的文本进行分类****@paramtext给定的文本****@return分类结果*/publicStringclassify(Stringtext){String[]terms=null;/中文分词处理(分词后结果可能还包含有停用词)terms=DropStopWords(terms)/去掉停用词,以免影响分类String[]Classes=()/分类floatprobility=;List<ClassifyResult>crs=newArrayList<ClassifyResult>();//分类结果for(inti=0;i<;i++){StringCi=Classes[i];//第i个分类:..//terms在给定的分类Ci中的分类条件概率//保存分类结果ClassifyResultcr=newClassifyResult();=Ci;//=probility;//关键字在分类的条件概率:(cr);}//(crs,parator(){pare(finalObjecto1,finalObjecto2){finalClassifyResultm1=(ClassifyResult)o1;finalClassifyResultm2=(ClassifyResult)o2;finaldoubleret=-;if(ret<0){return1;}else{return-1;}}});//(0).classification;}}(1)最临近分类是基于要求的或者懒散的学****法。因为它存放所有训练样本,并且直至新的样本需要分类时才建立分类。begin初始化nxn距离矩阵D,初始化混淆矩阵C,设置t=0,=0,NumIterations为要迭代次数。计算所有输入样本和存储在D矩阵中的距离。:..Setc=0,Ntotal=0将输入样本划分为k个同等大小的分组Forfold=1tokdo指定第fold个样本进行测试,并且使用原来训练样本。设置Ntest为要测试样本数量。SetNtotal=Ntotal+NtestFori=1toNtestdo基于样本计算距离确定k个最邻近训练样本。确定在k个最邻近样本中最频繁的分类标记。在w为真并且对于预测测试样本分类标记为时,对混淆矩阵C进行递增1存储为。如果,则在混淆矩阵对角线上加1,否则在非对角线上加1。当为混淆矩阵对角线元素时,使用确定分类器的精确度。

数据仓库与数据挖掘技术-试题答案 来自淘豆网www.taodocs.com转载请标明出处.

相关文档 更多>>
非法内容举报中心
文档信息
  • 页数7
  • 收藏数0 收藏
  • 顶次数0
  • 上传人青山代下
  • 文件大小1.30 MB
  • 时间2024-04-17