NFS+SSH访问要求输入密码

回复 收藏
本帖最后由 Kry1702 于 2016-8-6 19:48 编辑

A:192.168.0.103
B:192.168.0.135

先简单的介绍一个我操作过程,在搭建hadoop集群的时候,需要要求每台机器都能免密登录其他机器,为了避免重复的上传公钥,想到一个办法,利用NFS共享公钥,然后其他机器通过软连接关联共享公钥

在A机器的操作:
1.搭建好NFS
2.用hadoop用户创建密钥
3.用root创建nfs共享文件,并修改所属主跟群组为hadoop,权限为777
4.将公钥CP到nfs共享目录,并修改名字为authorized_keys,修改权限为600

在B机器上的操作
1.用root,创建用于挂载NFS共享目录
2.挂载NFS共享目录
3.用hadoop在家目录下,创建.ssh 修改权限700
4.在.ssh中创建名为authorized_keys的软连接 指向挂载目录中的authorized_keys文件


NFS配置
/data/nfsdata 192.168.0.3(rw,sync,all_squash,anonuid=502,anongid=502)

另外A/B机器的hadoop用户UID跟GID都为502


那么问题来
在A机器上使用hadoop用户执行以下命令,要求我输入密码,第一次输入了,在执行还是要求我输入。。。。
[hadoop@Master ~]$ scp test.txt hadoop@192.168.0.3:/home/hadoop/
hadoop@192.168.0.135's password:

怎么回事啊。。搞了一下午啊。{:7_177:}{:7_177:}{:7_177:}

不使用NFS测试测试链接
[hadoop@Master ~]$
[hadoop@Master ~]$ ssh  hadoop@slave.hadoop
Last login: Thu Aug  4 18:07:50 2016 from master.hadoop
[hadoop@Slave ~]$
[hadoop@Slave ~]$

[hadoop@Master ~]$ scp test.txt hadoop@192.168.0.135:/home/hadoop/
test.txt                                                                                    100%   13     0.0KB/s   00:00   
[hadoop@Master ~]$

2016-08-05 16:17 举报
已邀请:
0

Kry1702

赞同来自:

补充 :关闭SELinux  
0

GaryHuang0113 - 世上无难事,只怕有心人

赞同来自:

scp 是采用ssh进行远程拷贝文件,需要创建ssh无密钥登录, 才能使用scp 无密码拷贝功能
0

GaryHuang0113 - 世上无难事,只怕有心人

赞同来自:

如果是nfs,应该  直接 用cp 到挂载的目录就好了。
0

Kry1702

赞同来自:

13431077311 发表于 2016-8-5 16:23
scp 是采用ssh进行远程拷贝文件,需要创建ssh无密钥登录, 才能使用scp 无密码拷贝功能

不结合NFS共享公钥 我SCP 是免密的
0

Kry1702

赞同来自:

13431077311 发表于 2016-8-5 16:24
如果是nfs,应该  直接 用cp 到挂载的目录就好了。

CP过去了 但是SCP的老是提示输入密码
0

阿铭 管理员

赞同来自:

你想过软连接文件的权限没有?  777啊!
0

Kry1702

赞同来自:

本帖最后由 Kry1702 于 2016-8-11 14:23 编辑
阿铭 发表于 2016-8-11 10:35
你想过软连接文件的权限没有?  777啊!

客户端:
[root@Slave2 ~]# ll -a /home/hadoop/
total 32
drwx------. 4 hadoop hadoop 4096 Aug 11 22:10 .
drwxr-xr-x. 3 root   root   4096 Aug 11 18:40 ..
-rw-------. 1 hadoop hadoop  245 Aug 11 22:14 .bash_history
-rw-r--r--. 1 hadoop hadoop   18 Jul 24  2015 .bash_logout
-rw-r--r--. 1 hadoop hadoop  176 Jul 24  2015 .bash_profile
-rw-r--r--. 1 hadoop hadoop  124 Jul 24  2015 .bashrc
drwxr-xr-x. 2 hadoop hadoop 4096 Nov 12  2010 .gnome2
drwx------. 2 hadoop hadoop 4096 Aug 11 22:03 .ssh
[root@Slave2 ~]# ll /home/hadoop/.ssh/authorized_keys
lrwxrwxrwx. 1 hadoop hadoop 29 Aug 11 22:03 /home/hadoop/.ssh/authorized_keys -> /data/nfsdata/authorized_keys
[root@Slave2 ~]# ll /data/nfsdata/
total 4
-rw-------. 1 hadoop hadoop 402 Aug  5 15:37 authorized_keys
[root@Slave2 ~]# ll /data/
total 4
drwxrwxrwx. 2 hadoop hadoop 4096 Aug  5 15:37 nfsdata
[root@Slave2 ~]#



NFS服务端
[root@Master ~]# ll /home/hadoop/.ssh/
total 16
-rw-------. 1 hadoop hadoop  402 Aug  5 14:48 authorized_keys
-rw-------. 1 hadoop hadoop 1675 Aug  5 14:47 id_rsa
-rw-r--r--. 1 hadoop hadoop  402 Aug  5 14:47 id_rsa.pub
-rw-r--r--. 1 hadoop hadoop 1579 Aug 11 10:54 known_hosts
[root@Master ~]# ll -a /home/hadoop/
total 56
drwx------. 5 hadoop hadoop 4096 Aug 11 10:33 .
drwxr-xr-x. 4 root   root   4096 Aug  3 15:26 ..
-rw-rw-r--. 1 hadoop hadoop    9 Aug  3 15:38 1.txt
-rw-rw-r--. 1 hadoop hadoop    7 Aug  3 15:38 2.txt
-rw-------. 1 hadoop hadoop 2458 Aug  8 15:50 .bash_history
-rw-r--r--. 1 hadoop hadoop   18 Feb 22  2013 .bash_logout
-rw-r--r--. 1 hadoop hadoop  176 Feb 22  2013 .bash_profile
-rw-r--r--. 1 hadoop hadoop  124 Feb 22  2013 .bashrc
drwxrwxr-x. 2 hadoop    502 4096 Aug  5 16:01 nfsdata
drwx------. 2 hadoop hadoop 4096 Aug  5 14:54 .ssh
-rw-rw-r--. 1 hadoop hadoop   13 Aug  5 11:52 test.txt
drwxr-xr-x. 2 hadoop    502 4096 Aug  5 16:01 .vim
-rw-------. 1 hadoop    502 6363 Aug 11 10:33 .viminfo
[root@Master ~]# ll /data/
total 12
drwxr-xr-x. 4 root   root 4096 Aug  4 10:39 hadoop
drwxrwxrwx. 2 hadoop  502 4096 Aug  5 15:37 nfsdata
drwxr-xr-x. 2 root   root 4096 Jun  2  2015 tomcatweb
[root@Master ~]# ll /data/nfsdata/
total 4
-rw-------. 1 hadoop hadoop 402 Aug  5 15:37 authorized_keys

回复帖子,请先登录注册

退出全屏模式 全屏模式 回复
评分
可选评分理由: