物联网数据处理---实验指导书资料.doc
《物联网数据处理---实验指导书资料.doc》由会员分享,可在线阅读,更多相关《物联网数据处理---实验指导书资料.doc(73页珍藏版)》请在咨信网上搜索。
1、物联网数据处理-实验指导书(完整版)资料(可以直接使用,可编辑 优秀版资料,欢迎下载)物联网数据处理实 验 指 导 书实验一:熟悉常用的Linux操作(2学时)一、实验目的与要求1、熟悉安装和配置Linux。2、熟悉常用的Linux操作。6、总结在调试过程中的错误。二、实验类型验证型三、实验原理及说明通过实际操作,使学生对Linux的使用有一个更深刻的理解;熟悉Linux的开发环境及程序结构。四、实验仪器安装操作系统:Linux 五、实验内容和步骤熟悉常用的Linux操作请按要求上机实践如下linux基本命令。cd命令:切换目录(1)切换到目录 /usr/local(2)去到目前的上层目录(3
2、)回到自己的主文件夹ls命令:查看文件与目录(4)查看目录/usr下所有的文件mkdir命令:新建新目录(5)进入/tmp目录,创建一个名为a的目录,并查看有多少目录存在(6)创建目录a1/a2/a3/a4rmdir命令:删除空的目录(7)将上例创建的目录a(/tmp下面)删除(8)删除目录a1/a2/a3/a4,查看有多少目录存在cp命令:复制文件或目录(9)将主文件夹下的.bashrc复制到/usr下,命名为bashrc1(10)在/tmp下新建目录test,再复制这个目录内容到/usrmv命令:移动文件与目录,或更名(11)将上例文件bashrc1移动到目录/usr/test(12)将上
3、例test目录重命名为test2rm命令:移除文件或目录(13)将上例复制的bashrc1文件删除(14)rm -rf 将上例的test2目录删除cat命令:查看文件内容(15)查看主文件夹下的.bashrc文件内容tac命令:反向列示(16)反向查看主文件夹下.bashrc文件内容more命令:一页一页翻动查看(17)翻页查看主文件夹下.bashrc文件内容head命令:取出前面几行(18)查看主文件夹下.bashrc文件内容前20行(19)查看主文件夹下.bashrc文件内容,后面50行不显示,只显示前面几行tail命令:取出后面几行(20)查看主文件夹下.bashrc文件内容最后20行(
4、21) 查看主文件夹下.bashrc文件内容,只列出50行以后的数据touch命令:修改文件时间或创建新文件(22)在/tmp下创建一个空文件hello并查看时间(23)修改hello文件,将日期调整为5天前chown命令:修改文件所有者权限(24)将hello文件所有者改为root帐号,并查看属性find命令:文件查找(25)找出主文件夹下文件名为.bashrc的文件tar命令:压缩命令(27)解压缩到/tmp目录grep命令:查找字符串(28)从/.bashrc文件中查找字符串examples(29)配置Java环境变量,在/.bashrc中设置(30)查看JAVA_HOME变量的值六、注
5、意事项命令的名称。七、预习与思考题1、Linux 操作系统的安装和使用2、常用的命令实验二:安装Hadoop开发环境(2学时)一、实验目的与要求1.掌握Linux虚拟机安装方法或者双操作系统安装方法。Hadoop在Linux操作系统上运行可以发挥最佳性能,鉴于目前很多读者可能正在使用Windows操作系统,因此,为了完成本书的后续实验,这里有必要通过本实验让读者掌握在Windows操作系统上搭建Linux虚拟机的方法,以及安装双操作系统的方法(同时安装Windows和Linux系统,电脑开机时,可以选择登录哪个系统)。2.掌握Hadoop的伪分布式安装方法。很多读者并不具备集群环境,需要在一台
6、机器上模拟一个小的集群,因此,需要通过本实验让读者掌握在单机上进行Hadoop的伪分布式安装方法。二、实验类型综合型三、实验原理及说明通过实际操作,使学生对Hadoop的使用有一个更深刻的理解;熟悉Hadoop的开发环境及程序结构。四、实验仪器操作系统:Windows系统或者Ubuntu(推荐)。虚拟机软件:推荐使用的开源虚拟机软件为VirtualBox 。VirtualBox是一款功能强大的免费虚拟机软件,它不仅具有丰富的特色,而且性能也很优异,简单易用,可虚拟的系统包括Windows、Mac OS X、Linux、OpenBSD、Solaris、IBM OS2甚至Android 4.0系统
7、等操作系统。读者可以在Windows系统上安装VirtualBox软件,然后在VirtualBox上安装并且运行Linux操作系统。本次实验默认的Linux发行版为Ubuntu14.04。五、实验内容和步骤共享文件夹设置virtualbox中ubuntu和windows共享文件夹设置先关闭ubuntu,在virtualbox“设置”中找到“共享文件夹”,点击进入,点击右边添加目录按钮,添加windows中要共享的目录,取一个名。比如我在D盘建一个名为share的文件夹,如下图:重启ubuntu,在ubuntu系统最上端“设备”中找到“共享文件夹”,点击进入,点击右边添加目录按钮,添加第二步操作
8、的共享目录,如进入虚拟Ubuntu,在命令行终端下输入:sudo mkdir /mnt/sharedsudo mount -t vboxsf share /mnt/shared其中share是之前创建的共享文件夹的名字。OK,现在Ubuntu和主机可以互传文件了。要想自动挂载的话,可以在/etc/fstab中添加一项share /mnt/shared vboxsf rw,gid=100,uid=1000,auto 0 0Java安装第一步 获取安装包。到oracle官方去下载jdk安装包,选择版本时注意选择自己的系统的版本。第二步:解压安装cd /usr/lib/jvm 第三步:修改环境变量v
9、i /.bashrc 添加:export JAVA_HOME=/usr/lib/jvm/java-7-sun export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib export PATH=$JAVA_HOME/bin:$PATH 保存退出,输入以下命令使之立即生效。source /.bashrc 第四步:配置默认JDK版本由于ubuntu中可能会有默认的JDK,如openjdk,所以,为了将我们安装的JDK设置为默认JDK版本,还要进行如下工作。执行代码:sudo update-altern
10、atives -install /usr/bin/java java /usr/lib/jvm/java-7-sun/bin/java 300 sudo update-alternatives -install /usr/bin/javac javac /usr/lib/jvm/java-7-sun/bin/javac 300 sudo update-alternatives -install /usr/bin/jar jar /usr/lib/jvm/java-7-sun/bin/jar 300 sudo update-alternatives -install /usr/bin/javah
11、 javah /usr/lib/jvm/java-7-sun/bin/javah 300 sudo update-alternatives -install /usr/bin/javap javap /usr/lib/jvm/java-7-sun/bin/javap 300 执行代码:sudo update-alternatives -config java 系统会列出各种JDK版本,如下所示:baidubaidu:$ sudo update-alternatives -config java 有 3 个候选项可用于替换 java (提供 /usr/bin/java)。 选择 路径 优先级 状
12、态 - * 0 /usr/lib/jvm/java-6-openjdk/jre/bin/java 1061 自动模式 1 /usr/lib/jvm/java-6-openjdk/jre/bin/java 1061 手动模式 2 /usr/lib/jvm/java-6-sun/jre/bin/java 63 手动模式 3 /usr/lib/jvm/java-7-sun/bin/java 300 手动模式 要维持当前值*请按回车键,或者键入选择的编号:3 update-alternatives: 使用 /usr/lib/jvm/java-7-sun/bin/java 来提供 /usr/bin/ja
13、va (java),于 手动模式 中。第五步:测试baidubaidu:$ java -version Java HotSpot(TM) Server VM (build 21.0-b17, mixed mode) Hadoop安装1、创建hadoop用户安装 Ubuntu 的时候不是用的 “hadoop” 用户,那么需要增加一个名为 hadoop 的用户。首先按 ctrl+alt+t 打开终端窗口,输入如下命令创建新用户 :sudo useradd -m hadoop -s /bin/bash接着使用如下命令设置密码,可简单设置为 hadoop,按提示输入两次密码: sudo passwd
14、hadoop可为 hadoop 用户增加管理员权限,方便部署,避免一些对新手来说比较棘手的权限问题:sudo adduser hadoop sudo最后注销当前用户(点击屏幕右上角的齿轮,选择注销),返回登陆界面。在登陆界面中选择刚创建的 hadoop 用户进行登陆。2. 安装SSH、配置SSH无密码登陆集群、单节点模式都需要用到 SSH 登陆(类似于远程登陆,你可以登录某台 Linux 主机,并且在上面运行命令),Ubuntu 默认已安装了 SSH client,此外还需要安装 SSH server:安装后,可以使用如下命令登陆本机:ssh localhost利用 ssh-keygen 生成
15、密钥,并将密钥加入到授权中:$exit # 退出刚才的 ssh localhost$cd /.ssh/ # 若没有该目录,请先执行一次ssh localhost$ssh-keygen -t rsa # 会有提示,都按回车就可以$cat ./id_rsa.pub ./authorized_keys # 加入授权$cd /usr/local/$sudo chown -R hadoop ./hadoop # 修改文件权限$cd /usr/local/hadoop$./bin/hadoop version六、注意事项七、预习与思考题1、在Linux环境下完成伪分布式环境的搭建,并运行Hadoop自带的
16、WordCount实例检测是否运行正常。实验三:熟悉Hadoop平台(2学时)一、实验目的与要求1、理解 Hadoop平台运行原理。2、熟悉Hadoop的操作二、实验类型设计型三、实验原理及说明通过实际操作,使学生对Hadoop的使用有一个更深刻的理解;熟悉Hadoop的开发环境及程序结构。四、实验仪器安装Ubuntu系统的计算机若干台五、实验内容和步骤1. Hadoop单机配置(非分布式)Hadoop 默认模式为非分布式模式(本地模式),无需进行其他配置即可运行。非分布式即单 Java 进程,方便进行调试。Hadoop 附带了丰富的例子(运行 . 可以看到所有例子),包括 wordcount
17、、terasort、join、grep 等。在此我们选择运行 grep 例子,我们将 input 文件夹中的所有文件作为输入,筛选当中符合正则表达式 dfsa-z.+ 的单词并统计出现的次数,最后输出结果到 output 文件夹中。执行成功后如下所示,输出了作业的相关信息,输出的结果是符合正则的单词 dfsadmin 出现了1次注意,Hadoop 默认不会覆盖结果文件,因此再次运行上面实例会提示出错,需要先将 ./output 删除。2. Hadoop伪分布式配置Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也
18、作为 DataNode,同时,读取的是 HDFS 中的文件。Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml 和 hdfs-site.xml 。Hadoop的配置文件是 xml 格式,每个配置以声明 property 的 name 和 value 的方式来实现。修改配置文件 core-site.xml (通过 gedit 编辑会比较方便: gedit ./etc/hadoop/core-site.xml),将当中的修改为下面配置:同样的,修改配置文件 hdfs-site.xml:Hadoop配
19、置文件说明Hadoop 的运行方式是由配置文件决定的(运行 Hadoop 时会读取配置文件),因此如果需要从伪分布式模式切换回非分布式模式,需要删除 core-site.xml 中的配置项。配置完成后,执行 NameNode 的格式化:成功的话,会看到 “successfully formatted” 和 “Exitting with status 0” 的提示,若为 “Exitting with status 1” 则是出错。如果在这一步时提示 Error: JAVA_HOME is not set and could not be found. 的错误,则说明之前设置 JAVA_HOME
20、环境变量那边就没设置好,请先设置好 JAVA_HOME 变量,否则后面的过程都是进行不下去的。接着开启 NameNode 和 DataNode 守护进程。若出现如下SSH提示,输入yes即可。启动时可能会出现如下 WARN 提示:WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform using builtin-java classes where applicable WARN 提示可以忽略,并不会影响正常使用。启动 Hadoop 时提示 Could not resolve host
21、name如果启动 Hadoop 时遇到输出非常多“ssh: Could not resolve hostname xxx”的异常情况,如下图所示:这个并不是 ssh 的问题,可通过设置 Hadoop 环境变量来解决。首先按键盘的 ctrl + c 中断启动,然后在 /.bashrc 中,增加如下两行内容(设置过程与 JAVA_HOME 变量一样,其中 HADOOP_HOME 为 Hadoop 的安装目录):保存后,务必执行 source /.bashrc 使变量设置生效,然后再次执行 ./sbin/start-dfs.sh 启动 Hadoop。启动完成后,可以通过命令 jps 来判断是否成功启
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 联网 数据处理 实验 指导书 完整版 资料
1、咨信平台为文档C2C交易模式,即用户上传的文档直接被用户下载,收益归上传人(含作者)所有;本站仅是提供信息存储空间和展示预览,仅对用户上传内容的表现方式做保护处理,对上载内容不做任何修改或编辑。所展示的作品文档包括内容和图片全部来源于网络用户和作者上传投稿,我们不确定上传用户享有完全著作权,根据《信息网络传播权保护条例》,如果侵犯了您的版权、权益或隐私,请联系我们,核实后会尽快下架及时删除,并可随时和客服了解处理情况,尊重保护知识产权我们共同努力。
2、文档的总页数、文档格式和文档大小以系统显示为准(内容中显示的页数不一定正确),网站客服只以系统显示的页数、文件格式、文档大小作为仲裁依据,个别因单元格分列造成显示页码不一将协商解决,平台无法对文档的真实性、完整性、权威性、准确性、专业性及其观点立场做任何保证或承诺,下载前须认真查看,确认无误后再购买,务必慎重购买;若有违法违纪将进行移交司法处理,若涉侵权平台将进行基本处罚并下架。
3、本站所有内容均由用户上传,付费前请自行鉴别,如您付费,意味着您已接受本站规则且自行承担风险,本站不进行额外附加服务,虚拟产品一经售出概不退款(未进行购买下载可退充值款),文档一经付费(服务费)、不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
4、如你看到网页展示的文档有www.zixin.com.cn水印,是因预览和防盗链等技术需要对页面进行转换压缩成图而已,我们并不对上传的文档进行任何编辑或修改,文档下载后都不会有水印标识(原文档上传前个别存留的除外),下载后原文更清晰;试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓;PPT和DOC文档可被视为“模板”,允许上传人保留章节、目录结构的情况下删减部份的内容;PDF文档不管是原文档转换或图片扫描而得,本站不作要求视为允许,下载前自行私信或留言给上传者【二***】。
5、本文档所展示的图片、画像、字体、音乐的版权可能需版权方额外授权,请谨慎使用;网站提供的党政主题相关内容(国旗、国徽、党徽--等)目的在于配合国家政策宣传,仅限个人学习分享使用,禁止用于任何广告和商用目的。
6、文档遇到问题,请及时私信或留言给本站上传会员【二***】,需本站解决可联系【 微信客服】、【 QQ客服】,若有其他问题请点击或扫码反馈【 服务填表】;文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“【 版权申诉】”(推荐),意见反馈和侵权处理邮箱:1219186828@qq.com;也可以拔打客服电话:4008-655-100;投诉/维权电话:4009-655-100。