hadoop root@localhos hadoop root - 电脑|办公 - 电脑办公-杀毒安全-网络-V3学习网
微商网
 
 
导航:首页 |电脑|办公|正文

hadoop root@localhos hadoop root

时间:2020-06-29 10:10:22
怎么用root用户登录"master hadoop"机器下载一个spfdisk,这是因为新机器预装的是Linux导致的MBR和Windows的不一样用SPFdisk从Dos启动,重置一下MBR exe
作者:

hadoop root@localhos

怎么用root用户登录"master.hadoop"机器

下载一个spfdisk,这是因为新机器预装的是Linux导致的MBR和Windows的不一样用SPFdisk从Dos启动,重置一下MBR.exe放进去开机从U盘启动 运行spfdisk,进行MBR重置 再安装Windows就可以找到驱动盘了.exe 一个可启动到DOS的U盘。

步骤,把spfdisk.exe

部署hadoop时,需要在系统中创建哪些属于hadoop组的用户

home/hadoop/.xml,版本随意 然后配置Hadoop.xml 和mapred-site.xml 4 修改/,它们位于conf子目录下,分别是hadoop-env.sh,需要修改hadoop的配置文件、hdfs-site、core-site1 用root用户安装jdk1.6以上 2 用root用户 创建hadoop用户 3 在hadoop用户下安装hadoop 安装Hadoop...

hadoop如何恢复namenode

1.修改conf/core-site.xml 增加 fs.checkpoint.period 3600 The number of seconds between two periodic checkpoints. fs.checkpoint.size 67108864 The size of the current edit log (in bytes) that triggers a periodic checkpoint even if the fs.checkpoint.period hasn"t expired. fs.checkpoint.dir /data/work/hdfs/namesecondary Determines where on the local filesystem the DFS secondary name node should store the temporary images to merge. If this is a comma-delimited list of directories then the image is replicated in all of the directories for redundancy. fs.checkpoint.period表示多长时间记录一次hdfs的镜像。

默认是1小时。

fs.checkpoint.size表示一次记录多大的size,默认64M2.修改conf/hdfs-site.xml 增加 dfs.http.address master:50070 The address and the base port where the dfs namenode web ui will listen on. If the port is 0 then the server will start on a free port. 0.0.0.0改为namenode的IP地址3.重启hadoop,然后检查是否启动是否成功 登录secondarynamenode所在的机器,输入jps查看secondarynamenode进程 进入secondarynamenode的目录/data/work/hdfs/namesecondary 正确的结果: 如果没有,请耐心等待,只有到了设置的checkpoint的时间或者大小,才会生成。

4.恢复 制造namenode宕机的情况 1) kill 掉namenode的进程 [root@master name]# jps 11749 NameNode 12339 Jps 11905 JobTracker [root@master name]# kill 117492)删除dfs.name.dir所指向的文件夹,这里是/data/work/hdfs/name [root@master name]# rm -rf * 删除name目录下的所有内容,但是必须保证name这个目录是存在的3)从secondarynamenode远程拷贝namesecondary文件到namenode的namesecondary [root@master hdfs]# scp -r slave-001:/data/work/hdfs/namesecondary/ ./4)启动namenode [root@master /data]# hadoop namenode –importCheckpoint 正常启动以后,屏幕上会显示很多log,这个时候namenode就可以正常访问了

hadoop HDFS有提供查看空间总大小以及剩余空间大小的接口吗?

是能查看的: 看src/webapps/hdfs/dfshealth.jsp,对应50070查看到的那个页面,里面搜就有了例如: Configured Capacity对应:org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getCapacityTotal()剩下的自己用同样的方法找一下就都有了能查看的,各节点的都可以,查一下命令就能看web或者命令都行,命令: hadoop dfsadmin -report[root@chinadaas01 ~]# hadoop fs -count /hbase1/zzjg_detail文件夹数 文件数 这个目录下的文件bytes查看文件夹下 各个目录的总大小:hdfs dfs -du -h /user/hive/warehouse/ste_qyjs.db/能看到这个库下所有表的总大小 并以G 或者K 显示直接看第三个命令:[bigdata@task1-sandbox tfb]$ hadoop fs -du -s -h /user/hive/warehouse/dev_treasury.db1.1 T 3.3 T /user/hive/warehouse/dev_treasury.db...

如何部署hadoop分布式文件系统

一、实战环境 系统版本:CentOS 5.8x86_64 JAVA版本:JDK-1.7.0_25 Hadoop版本:hadoop-2.2.0 192.168.149.128namenode (充当namenode、secondary namenode和ResourceManager角色) 192.168.149.129datanode1 (充当datanode、nodemanager角色) 192.168.149.130datanode2 (充当datanode、nodemanager角色) 二、系统准备 1、Hadoop可以从Apache官方网站直接下载最新版本Hadoop2.2。

官方目前是提供了linux32位系统可执行文件,所以如果需要在64位系统上部署则需要单独下载src 源码自行编译。

(如果是真实线上环境,请下载64位hadoop版本,这样可以避免很多问题,这里我实验采用的是32位版本) 1234 Hadoop Java 2、我们这里采用三台CnetOS服务器来搭建Hadoop集群,分别的角色如上已经注明。

第一步:我们需要在三台服务器的/etc/hosts里面设置对应的主机名如下(真实环境可以使用内网DNS解析) [root@node1 hadoop]# cat /etc/hosts # Do not remove the following line, or various programs # that require network functionality will fail. 127.0.0.1localhost.localdomain localhost 192.168.149.128node1 192.168.149.129node2 192.168.149.130node3 (注* 我们需要在namenode、datanode三台服务器上都配置hosts解析) 第二步:从namenode上无密码登陆各台datanode服务器,需要做如下配置: 在namenode 128上执行ssh-keygen,一路Enter回车即可。

然后把公钥/root/.ssh/id_rsa.pub拷贝到datanode服务器即可,拷贝方法如下: ssh-copy-id -i .ssh/id_rsa.pub root@192.168.149.129 ssh-copy-id -i .ssh/id_rsa.pub root@192.168.149.130 三、Java安装配置 tar -xvzf jdk-7u25-linux-x64.tar.gz &&mkdir -p /usr/java/ ; mv /jdk1.7.0_25 /usr/java/ 即可。

安装完毕并配置java环境变量,在/etc/profile末尾添加如下代码: export JAVA_HOME=/usr/java/jdk1.7.0_25/ export PATH=$JAVA_HOME/bin:$PATH export CLASSPATH=$JAVE_HOME/lib/dt.jar:$JAVE_HOME/lib/tools.jar:./ 保存退出即可,然后执行source /etc/profile 生效。

在命令行执行java -version 如下代表JAVA安装成功。

[root@node1 ~]# java -version java version "1.7.0_25" Java(TM) SE Runtime Environment (build 1.7.0_25-b15) Java HotSpot(TM) 64-Bit Server VM (build 23.25-b01, mixed mode) (注* 我们需要在namenode、datanode三台服务器上都安装Java JDK版本) 四、Hadoop版本安装 官方下载的hadoop2.2.0版本,不用编译直接解压安装就可以使用了,如下: 第一步解压: tar -xzvf hadoop-2.2.0.tar.gz &&mv hadoop-2.2.0/data/hadoop/ (注* 先在namenode服务器上都安装hadoop版本即可,datanode先不用安装,待会修改完配置后统一安装datanode) 第二步配置变量: 在/etc/profile末尾继续添加如下代码,并执行source /etc/profile生效。

export HADOOP_HOME=/data/hadoop/ export PATH=$PATH:$HADOOP_HOME/bin/ export JAVA_LIBRARY_PATH=/data/hadoop/lib/native/ (注* 我们需要在namenode、datanode三台服务器上都配置Hadoop相关变量) 五、配置Hadoop 在namenode上配置,我们需要修改如下几个地方: 1、修改vi /data/hadoop/etc/hadoop/core-site.xml 内容为如下: fs.default.name hdfs://192.168.149.128:9000 hadoop.tmp.dir /tmp/hadoop-${user.name} A base forother temporary directories. 2、修改vi /data/hadoop/etc/hadoop/mapred-site.xml内容为如下: mapred.job.tracker 192.168.149.128:9001 3、修改vi /data/hadoop/etc/hadoop/hdfs-site.xml内容为如下: /data/hadoop/data_name1,/data/hadoop/data_name2 dfs.data.dir /data/hadoop/data_1,/data/hadoop/data_2 dfs.replication 2 4、在/data/hadoop/etc/hadoop/hadoop-env.sh文件末尾追加JAV_HOME变量: echo "export JAVA_HOME=/usr/java/jdk1.7.0_25/">> /data/hadoop/etc/hadoop/hadoop-env.sh 5、修改 vi /data/hadoop/etc/hadoop/masters文件内容为如下: 192.168.149.128 6、修改vi /data/hadoop/etc/hadoop/slaves文件内容为如下: 192.168.149.129 192.168.149.130 如上配置完毕,以上的配置具体含义在这里就不做过多的解释了,搭建的时候不明白,可以查看一下相关的官方文档。

如上namenode就基本搭建完毕,接下来我们需要部署datanode,部署datanode相对简单,执行如下操作即可。

1 fori in`seq 129130` ; doscp -r /data/hadoop/ root@192.168.149.$i:/data/ ; done 自此整个集群基本搭建完毕,接下来就是启动hadoop集群了。

如何用eclipse安装hadoop

1)在Windows下安装虚拟机Vmware,并新建一个虚拟机装好centos系统;首先,下载VMware-workstation并安装,这步骤和一般windows下安装软件的过程是一样的,入门小白也会熟练操作,这里就节省点儿空间给后面重要的步骤了~然后,在Vmware的主页上新建一个虚拟机,如下图:一路下一步,直到让你选择系统镜像路径,我们选择centos系统映像,如上图,点击下一步。

然后,需要你输入linux的用户名,这个比较重要,最好填写hadoop,因为这个名字在后面要用到好多次!后面还是一路的“下一步”,直到让你设置虚拟机的内存大小,建议为1024M。

如上图。

后面就是要选择和虚拟机的网络类型有关的设置了,建议为“使用网络地址转换NAT”,如下图。

这一步我当时选择了自动桥接的功能,找了一个晚上的错误。

时间就这样白花花的没了~~之后还是一路的“下一步”,几乎都是使用它推荐的设置,我们就可以新建一个centos,等待个几分钟然后就可以进入centos界面了。

看到那一抹科技蓝,有没有让你心动了呢~~哈哈哈,你确实走好了第一步!2)centos下设置ssh服务无密码登录;在桌面右击,选择openin Terminal,这个就是linux的终端了。

希望读者有一些linux操作系统的基础,这样子上手更快一些。

不过要是没有的话,也没有关系,我们是面向新手的教程。

2.1. 先在linux命令行中输入su,提示密码,输入你自己设置的密码,这样子你后面的操作都具有了linux系统下的最高权限——root权限。

2.2. 在设置ssh无密码登录之前,有一个特别重要的要先出好:关闭SELinux。

这是因为centos会自动阻止你修改sshservice,我们只有关闭SELinux,重启才能生效。

如何做,如下:修改/etc/selinux/config文件将SELINUX=enforcing改为SELINUX=disabled重启机器即可(note:在linux下修改文件,vi命令后会进入到文件窗口,按i进入insert,修改完毕之后再按esc推出insert,输入;:wq!保存并退出~这里要感谢泡哥,改了半天都不行,还是泡哥指点迷津了~~)2.3. 在linux命令行里输入:ssh-keygen -t rsa,然后一路回车。

root@hadoopName-desktop:~$ssh-keygen -t rsaGenerating public/private rsakey pair.Enterfile in which to save the key (/home/zhangtao/.ssh/id_rsa): //密钥保存位置,直接回车保持默认;Createddirectory "/home/zhangtao/.ssh".Enter passphrase(empty for no passphrase): //设置密钥的密码,空密码直接回车即可;Enter samepassphrase again: //确认上一步设置的密码。

然后进入 /root/.ssh/下面,会看到两个文件 id_rsa.pub,id_rsa,然后执行cp id_rsa.pub authorized_keys然后 ssh localhost 验证是否成功,第一次要你输入yes,以后就不需要了。

如下图,由于我又验证了一次,所以还需要输入y,如果你是第一次验证是不要的。

至此,ssh服务无密码登录设置完毕!3)centos下安装jdk,并配置环境变量;这一步中可以分为两步:安装jdk、配置jdk环境变量。

大家还关注
    
阅读排行
推荐阅读