存档

‘Linux’ 分类的存档

mac下的crontab任务

2016年6月17日 评论已被关闭

因为要写日报,需要每天创建一个日期命名的文件,而在mac的键盘上输入数字对我是一件痛苦的事情,于是我想到mac也是类Unix系统,能不能用crontab来做呢?

其实做了才发现,crontab每次保存退出的时候都会说:

QQ20160617-1@2x

 

而Linux下exited status 如果不是0的话说明之前的bash执行失败了:QQ20160617-2@2x

于是Google了一下,对此,在这篇文章有详细的介绍,mac把crontab改成了他自己的“launchd”服务,详细内容请看原文章。

简单来说就是

 

step1,进入目录

进入该目录:$HOME/Library/LaunchAgents

 

step2,创建plist文件,形如下,我创建的文件名叫:com.xue135.cron.plist

QQ20160617-3@2x

 

step3,修改配置,

[pcsh lang=”xml” tab_size=”4″ message=”” hl_lines=”” provider=”manual”]

<!DOCTYPE plist PUBLIC "-//Apple//DTD PLIST 1.0//EN" "http://www.apple.com/DTDs/PropertyList-1.0.dtd">
<plist version="1.0">
<dict>
  <key>Label</key>
  <string>com.xue135.cron</string>

  <key>ProgramArguments</key>
  <array>
    <string>/Users/danny/touchDailyFile.sh</string>
  </array>

  <key>Nice</key>
  <integer>1</integer>

  <key>StartInterval</key>
  <integer>86400</integer>

  <key>RunAtLoad</key>
  <true/>

  <key>StandardErrorPath</key>
  <string>/tmp/dailyReport.err</string>

  <key>StandardOutPath</key>
  <string>/tmp/dailyReport.out</string>
</dict>
</plist>

[/pcsh]

 

意思就是每个86400秒执行/Users/danny/touchDailyFile.sh一次这个脚本,

脚本内容如下:

[pcsh lang=”bash” tab_size=”4″ message=”” hl_lines=”” provider=”manual”]

#!/bin/bash
/usr/bin/touch /User/danny/Document/dailyReport/`date '+%Y-%m-%d'`.txt

[/pcsh]

分类: Linux 标签:

Linux下rsync+sersync实现数据实时同步

2016年6月6日 评论已被关闭

前言:
一、为什么要用Rsync+sersync架构?

1、sersync是基于Inotify开发的,类似于Inotify-tools的工具
2、sersync可以记录下被监听目录中发生变化的(包括增加、删除、修改)具体某一个文件或某一个目录的名字,然后使用rsync同步的时候,只同步发生变化的这个文件或者这个目录。
二、Rsync+Inotify-tools与Rsync+sersync这两种架构有什么区别?

1、Rsync+Inotify-tools
(1):Inotify-tools只能记录下被监听的目录发生了变化(包括增加、删除、修改),并没有把具体是哪个文件或者哪个目录发生了变化记录下来;
(2):rsync在同步的时候,并不知道具体是哪个文件或者哪个目录发生了变化,每次都是对整个目录进行同步,当数据量很大时,整个目录同步非常耗时(rsync要对整个目录遍历查找对比文件),因此,效率很低。
2、Rsync+sersync
(1):sersync可以记录下被监听目录中发生变化的(包括增加、删除、修改)具体某一个文件或某一个目录的名字;
(2):rsync在同步的时候,只同步发生变化的这个文件或者这个目录(每次发生变化的数据相对整个同步目录数据来说是很小的,rsync在遍历查找比对文件时,速度很快),因此,效率很高。
小结:当同步的目录数据量不大时,建议使用Rsync+Inotify-tools;当数据量很大(几百G甚至1T以上)、文件很多时,建议使用Rsync+sersync。
说明:
操作系统:CentOS 7
源服务器:192.168.3.135
目标服务器:192.168.3.134
目的:把源服务器上/tmp/rsync_bak2目录实时同步到目标服务器的/tmp/rsync_bak2下

具体操作:
第一部分:分别在两台目标服务器192.168.3.134上操作
一、分别在目标服务器安装Rsync服务端
1、关闭SELINUX 略

2、开启防火墙tcp 873端口(Rsync默认端口)略

3、安装Rsync服务端软件
centos7 默认已安装,并且不由xinetd管理
4、创建rsyncd.conf配置文件
vi /etc/rsyncd.conf #创建配置文件,添加以下代码
log file = /var/log/rsyncd.log #日志文件位置,启动rsync后自动产生这个文件,无需提前创建
pidfile = /var/run/rsyncd.pid #pid文件的存放位置
lock file = /var/run/rsync.lock #支持max connections参数的锁文件
secrets file = /etc/rsync.pass #用户认证配置文件,里面保存用户名称和密码,后面会创建这个文件
motd file = /etc/rsyncd.Motd #rsync启动时欢迎信息页面文件位置(文件内容自定义)
[rstest] #自定义名称
path = /tmp/rsync_bak2/ #rsync服务端数据目录路径
comment = rstest #模块名称与[rstest]自定义名称相同
uid = root #设置rsync运行权限为root
gid = root #设置rsync运行权限为root
port=873 #默认端口
use chroot = no #默认为true,修改为no,增加对目录文件软连接的备份
read only = no #设置rsync服务端文件为读写权限
list = no #不显示rsync服务端资源列表
max connections = 200 #最大连接数
timeout = 600 #设置超时时间
auth users = ruser #执行数据同步的用户名,可以设置多个,用英文状态下逗号隔开
hosts allow = 192.168.3.134 #允许进行数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开
hosts deny = 192.168.21.254 #禁止数据同步的客户端IP地址,可以设置多个,用英文状态下逗号隔开

5、创建用户认证文件
vi /etc/rsync.pass #配置文件,添加以下内容
ruser:1q2w3e #格式,用户名:密码,可以设置多个,每行一个用户名:密码

6、设置文件权限
chmod 600 /etc/rsyncd.conf #设置文件所有者读取、写入权限
chmod 600 /etc/rsync.pass #设置文件所有者读取、写入权限

7、启动rsync

systemctl restart rsyncd
第二部分:在源服务器192.168.3.135上操作
一、安装Rsync客户端
1、关闭SELINUX

2、开启防火墙tcp 873端口(Rsync默认端口,做为客户端的Rsync可以不用开启873端口)

3、安装Rsync客户端端软件
whereis rsync #查看系统是否已安装rsync,出现下面的提示,说明已经安装
rsync: /usr/bin/rsync /usr/share/man/man1/rsync.1.gz
yum install xinetd #只安装xinetd即可,CentOS中是以xinetd来管理rsync服务的
yum install rsync xinetd #如果默认没有rsync,运行此命令进行安装rsync和xinetd
vi /etc/xinetd.d/rsync #编辑配置文件,设置开机启动rsync
disable = no #修改为no
/etc/init.d/xinetd start #启动(CentOS中是以xinetd来管理rsync服务的)
4、创建认证密码文件
vi /etc/passwd.txt #编辑文件,添加以下内容
1q2w3e #密码
chmod 600 /etc/passwd.txt #设置文件权限,只设置文件所有者具有读取、写入权限即可

5、测试源服务器192.168.3.135到目标服务器192.168.3.134之间的数据同步
mkdir /tmp/rsync_bak2/ceshi #在源服务器上创建测试文件夹,然后在源服务器运行下面2行命令
rsync -avH –port=873 –progress –delete /tmp/rsync_bak2/ ruser@192.168.21.127::rstest –password-file=/etc/passwd.txt

运行完成后,分别在目标服务器192.168.3.134上查看,在/tmp/rsync_bak2目录下有ceshi文件夹,说明数据同步成功。

二、安装sersync工具,实时触发rsync进行同步
1、查看服务器内核是否支持inotify
ll /proc/sys/fs/inotify #列出文件目录,出现下面的内容,说明服务器内核支持inotify
-rw-r–r– 1 root root 0 Mar 7 02:17 max_queued_events
-rw-r–r– 1 root root 0 Mar 7 02:17 max_user_instances
-rw-r–r– 1 root root 0 Mar 7 02:17 max_user_watches
备注:Linux下支持inotify的内核最小为2.6.13,可以输入命令:uname -a查看内核
CentOS 5.X 内核为2.6.18,默认已经支持inotify
2、修改inotify默认参数(inotify默认内核参数值太小)
查看系统默认参数值:
sysctl -a | grep max_queued_events
结果是:fs.inotify.max_queued_events = 16384
sysctl -a | grep max_user_watches
结果是:fs.inotify.max_user_watches = 8192
sysctl -a | grep max_user_instances
结果是:fs.inotify.max_user_instances = 128
修改参数:
sysctl -w fs.inotify.max_queued_events=”99999999″
sysctl -w fs.inotify.max_user_watches=”99999999″
sysctl -w fs.inotify.max_user_instances=”65535″
vi /etc/sysctl.conf #添加以下代码
fs.inotify.max_queued_events=99999999
fs.inotify.max_user_watches=99999999
fs.inotify.max_user_instances=65535

参数说明:
max_queued_events:
inotify队列最大长度,如果值太小,会出现”** Event Queue Overflow **”错误,导致监控文件不准确
max_user_watches:
要同步的文件包含多少目录,可以用:find /tmp/rsync_bak2 -type d | wc -l 统计,必须保证max_user_watches值大于统计结果(这里/tmp/rsync_bak2为同步文件目录)
max_user_instances:
每个用户创建inotify实例最大值
3、安装sersync
sersync下载地址:https://sersync.googlecode.com/files/sersync2.5.4_64bit_binary_stable_final.tar.gz
上传sersync2.5.4_64bit_binary_stable_final.tar.gz到/usr/local/src目录下
cd /usr/local/src
tar zxvf sersync2.5.4_64bit_binary_stable_final.tar.gz #解压
mv GNU-Linux-x86 /usr/local/sersync #移动目录到/usr/local/sersync
4、配置sersync
cd /usr/local/sersync #进入sersync安装目录
cp confxml.xml confxml.xml-bak #备份原文件
vi confxml.xml #编辑,修改下面的代码

<?xml version=”1.0″ encoding=”ISO-8859-1″?>
<head version=”2.5″>
<host hostip=”localhost” port=”8008″></host>
<debug start=”false”/>
<fileSystem xfs=”false”/>
<filter start=”false”>
<exclude expression=”(.*)\.svn”></exclude>
<exclude expression=”(.*)\.gz”></exclude>
<exclude expression=”^info/*”></exclude>
<exclude expression=”^static/*”></exclude>
</filter>

<inotify>
<delete start=”true”/>
<createFolder start=”true”/>
<createFile start=”false”/>
<closeWrite start=”true”/>
<moveFrom start=”true”/>
<moveTo start=”true”/>
<attrib start=”false”/>
<modify start=”false”/>
</inotify>

<sersync>

<localpath watch=”/tmp/rsync_bak2“>
<remote ip=”192.168.3.134” name=”rstest“/>
</localpath>

<rsync>
<commonParams params=”-artuz”/>
<auth start=”true” users=”ruser” passwordfile=”/etc/passwd.txt“/>
<userDefinedPort start=”false” port=”874″/><!– port=874 –>
<timeout start=”false” time=”100″/><!– timeout=100 –>
<ssh start=”false”/>
</rsync>

<failLog path=”/tmp/rsync_fail_log.log” timeToExecute=”60″/><!–default every 60mins execute once–>

<crontab start=”true” schedule=”600“><!–600mins–>
<crontabfilter start=”false”>
<exclude expression=”*.php”></exclude>
<exclude expression=”info/*”></exclude>
</crontabfilter>
</crontab>
<plugin start=”false” name=”command”/>
</sersync>

<plugin name=”command”>
<param prefix=”/bin/sh” suffix=”” ignoreError=”true”/> <!–prefix /opt/tongbu/mmm.sh suffix–>
<filter start=”false”>
<include expression=”(.*)\.php”/>
<include expression=”(.*)\.sh”/>
</filter>
</plugin>

<plugin name=”socket”>
<localpath watch=”/opt/tongbu”>
<deshost ip=”192.168.138.20″ port=”8009″/>
</localpath>
</plugin>
<plugin name=”refreshCDN”>
<localpath watch=”/data0/htdocs/cms.xoyo.com/site/”>
<cdninfo domainname=”ccms.chinacache.com” port=”80″ username=”xxxx” passwd=”xxxx”/>
<sendurl base=”http://pic.xoyo.com/cms”/>
<regexurl regex=”false” match=”cms.xoyo.com/site([/a-zA-Z0-9]*).xoyo.com/images”/>
</localpath>
</plugin>
</head>
参数说明:
localpath watch=”/tmp/rsync_bak2″:#源服务器同步目录
192.168.21.127,192.168.21.128:#目标服务器IP地址
name=”rstest”: #目标服务器rsync同步目录模块名称
users=”ruser”: #目标服务器rsync同步用户名
passwordfile=”/etc/passwd.txt”: #目标服务器rsync同步用户的密码在源服务器的存放路径
remote ip=”192.168.3.134″: #目标服务器ip,每行一个
failLog path=”/tmp/rsync_fail_log.sh” #脚本运行失败日志记录
start=”true” #设置为true,每隔600分钟执行一次全盘同步

5、设置sersync监控开机自动执行
vi /etc/rc.d/rc.local #编辑,在最后添加一行
/usr/local/sersync/sersync2 -d -r -o /usr/local/sersync/confxml.xml #设置开机自动运行脚本

6、添加脚本监控sersync是否正常运行
vi /home/crontab/check_sersync.sh #编辑,添加以下代码
#!/bin/sh
sersync=”/usr/local/sersync/sersync2″
confxml=”/usr/local/sersync/confxml.xml”
status=$(ps aux |grep ‘sersync2’|grep -v ‘grep’|wc -l)
if [ $status -eq 0 ];
then
$sersync -d -r -o $confxml &
else
exit 0;
fi
chmod +x /home/crontab/check_sersync.sh #添加脚本执行权限
vi /etc/crontab #编辑,在最后添加下面一行
*/5 * * * * root /home/crontab/check_sersync.sh > /dev/null 2>&1 #每隔5分钟执行一次脚本
service crond reload #重新加载服务

7、测试sersync实时触发rsync同步脚本是否正常运行
在源服务器192.168.21.129上创建文件inotify_rsync_ceshi
mkdir /tmp/rsync_bak2/inotify_rsync_ceshi
重新启动源服务器:192.168.21.129
等系统启动之后,查看两台目标服务器192.168.21.127,192.168.21.128的/tmp/rsync_bak2下是否有inotify_rsync_ceshi文件夹
然后再在源服务器192.168.21.129创建文件夹inotify_rsync_ceshi_new
mkdir /tmp/rsync_bak2/inotify_rsync_ceshi_new
继续查看两台目标服务器192.168.21.127,192.168.21.128的/tmp/rsync_bak2下是否有inotify_rsync_ceshi_new文件夹
如果以上测试都通过,说明inotify实时触发rsync同步脚本运行正常。
至此,Linux下Rsync+sersync实现数据实时同步完成。
扩展阅读:
sersync开发者网站:http://blog.johntechinfo.com/sersyncguild
rsync参数
-v, –verbose 详细模式输出
-q, –quiet 精简输出模式
-c, –checksum 打开校验开关,强制对文件传输进行校验
-a, –archive 归档模式,表示以递归方式传输文件,并保持所有文件属性,等于-rlptgoD
-r, –recursive 对子目录以递归模式处理
-R, –relative 使用相对路径信息
-b, –backup 创建备份,也就是对于目的已经存在有同样的文件名时,将老的文件重新命名为~filename。可以使用–suffix选项来指定不同的备份文件前缀。
–backup-dir 将备份文件(如~filename)存放在在目录下。
-suffix=SUFFIX 定义备份文件前缀
-u, –update 仅仅进行更新,也就是跳过所有已经存在于DST,并且文件时间晚于要备份的文件。(不覆盖更新的文件)
-l, –links 保留软链结
-L, –copy-links 想对待常规文件一样处理软链结
–copy-unsafe-links 仅仅拷贝指向SRC路径目录树以外的链结
–safe-links 忽略指向SRC路径目录树以外的链结
-H, –hard-links 保留硬链结
-p, –perms 保持文件权限
-o, –owner 保持文件属主信息
-g, –group 保持文件属组信息
-D, –devices 保持设备文件信息
-t, –times 保持文件时间信息
-S, –sparse 对稀疏文件进行特殊处理以节省DST的空间
-n, –dry-run现实哪些文件将被传输
-W, –whole-file 拷贝文件,不进行增量检测
-x, –one-file-system 不要跨越文件系统边界
-B, –block-size=SIZE 检验算法使用的块尺寸,默认是700字节
-e, –rsh=COMMAND 指定使用rsh、ssh方式进行数据同步
–rsync-path=PATH 指定远程服务器上的rsync命令所在路径信息
-C, –cvs-exclude 使用和CVS一样的方法自动忽略文件,用来排除那些不希望传输的文件
–existing 仅仅更新那些已经存在于DST的文件,而不备份那些新创建的文件
–delete 删除那些DST中SRC没有的文件
–delete-excluded 同样删除接收端那些被该选项指定排除的文件
–delete-after 传输结束以后再删除
–ignore-errors 及时出现IO错误也进行删除
–max-delete=NUM 最多删除NUM个文件
–partial 保留那些因故没有完全传输的文件,以是加快随后的再次传输
–force 强制删除目录,即使不为空
–numeric-ids 不将数字的用户和组ID匹配为用户名和组名
–timeout=TIME IP超时时间,单位为秒
-I, –ignore-times 不跳过那些有同样的时间和长度的文件
–size-only 当决定是否要备份文件时,仅仅察看文件大小而不考虑文件时间
–modify-window=NUM 决定文件是否时间相同时使用的时间戳窗口,默认为0
-T –temp-dir=DIR 在DIR中创建临时文件
–compare-dest=DIR 同样比较DIR中的文件来决定是否需要备份
-P 等同于 –partial
–progress 显示备份过程
-z, –compress 对备份的文件在传输时进行压缩处理
–exclude=PATTERN 指定排除不需要传输的文件模式
–include=PATTERN 指定不排除而需要传输的文件模式
–exclude-from=FILE 排除FILE中指定模式的文件
–include-from=FILE 不排除FILE指定模式匹配的文件
–version 打印版本信息
–address 绑定到特定的地址
–config=FILE 指定其他的配置文件,不使用默认的rsyncd.conf文件
–port=PORT 指定其他的rsync服务端口
–blocking-io 对远程shell使用阻塞IO
-stats 给出某些文件的传输状态
–progress 在传输时现实传输过程
–log-format=formAT 指定日志文件格式
–password-file=FILE 从FILE中得到密码
–bwlimit=KBPS 限制I/O带宽,KBytes per second
-h, –help 显示帮助信息

分类: Linux 标签:

centos7在vm fusion下克隆

2016年6月5日 评论已被关闭

centos6到centos7的网络管理的变化很大,其中之一就是方便了虚拟机的克隆。

在新机器里边,删除网卡文件的uuid和hwaddr配置重启网络,

systemctl restart network

如果要指定分配ip的话,可以在mac Pro的/Library/Preferences/VMware Fusion/vmnet8路径下,修改dhcpd.conf文件

增加

host es1 {
hardware ethernet 00:50:56:2F:0A:23;
fixed-address 192.168.3.135;
}

即可。

分类: Linux 标签:

Centos7的改变

2016年5月31日 评论已被关闭

1、CentOS的Services使用了systemd来代替sysvinit管理

比如5和6时代的“service vsftpd start”,现在应该是“systemctl start postfix.service”。

systemctl是主要的工具,它融合之前service和chkconfig的功能于一体。

启动一个服务:systemctl start postfix.service
关闭一个服务:systemctl stop postfix.service
重启一个服务:systemctl restart postfix.service
显示一个服务的状态:systemctl status postfix.service
在开机时启用一个服务:systemctl enable postfix.service
在开机时禁用一个服务:systemctl disable postfix.service
查看服务是否开机启动:systemctl is-enabled postfix.service;echo $?
查看已启动的服务列表:systemctl list-unit-files|grep enabled

 

2、修改系统运行级别

systemd使用比sysvinit的运行级更为自由的target替代,

使用下面的命令切换到“运行级别3”:

systemctl isolate multi-user.target或systemctl isolate runlevel3.target,

使用下面的命令切换到“运行级别5”

systemctl isolate graphical.target或systemctl isolate runlevel5.target,

改变默认运行级别,默认启动运行级别3:
ln -sf /lib/systemd/system/multi-user.target /etc/systemd/system/default.target
默认启动运行级别5 :
ln -sf /lib/systemd/system/graphical.target /etc/systemd/system/default.target

 

3、修改主机名

hostnamectl set-hostname NAME

 

4、修改开机选择系统时间

第一:vim /etc/default/grub,修改GRUB_TIMEOUT=0

第二:grub2-mkconfig -o /etc/grub2.cfg

 

 

 

分类: Linux 标签:

PHP使用zookeeper

2016年5月16日 评论已被关闭

貌似使用zk的php必须是非线程安全的,编译的时候不能加“–enable-maintainer-zts”参数,已验证。

 

1、安装zookeeper

在http://download.nus.edu.sg/mirror/apache/zookeeper/页面选择最近的稳定版本下载

当前的稳定版本是3.4.8

cd /tmp/

wget http://download.nus.edu.sg/mirror/apache/zookeeper/stable/zookeeper-3.4.8.tar.gz

tar xzf zookeeper-3.4.8.tar.gz -C /xuef/apps/

 

2、安装zookeeper c client(安装zk for php扩展时需要)

进入/xuef/apps/zookeeper-3.4.8/src/c/下,

./configure –prefix=/xuef/apps/zookeeper-c-client

make

make install

 

3、到https://pecl.php.net/package/zookeeper页面下载最新的稳定版,当前是0.2.2

tar xzf zookeeper-0.2.2.tgz

cd zookeeper-0.2.2

phpize

./configure –with-libzookeeper-dir=/xuef/apps/zookeeper-c-client/

make

make install

 

4、配置&启动

cp conf/zoo_sample.cfg conf/zoo.cfg

/xuef/apps/zookeeper-3.4.8/bin/zkServer.sh start & > /dev/null 2>&1

 

5、ps -ef | grep zookeeper可以看到zk进程再跑

 

 

 

 

 

 

分类: Linux 标签:

nginx使用lua扩展,做自己的telize

2016年1月28日 评论已被关闭

一直以来都在用www.telize.com下的ip,geo数据,但是15年底以后不能用了,登录官网以后,人家说要用的话必须要付费了,“subscribe to a paid plan”,但是国外的developer还是有良心的,告诉你人家是用RESTful API写的,要用的话,自己写啊~~~,干脆一不做二不休,试试自己搞一个。

图1

图1,15年底前一直这样用,后来就收费了

 

 

第一部分就是安装nginx + lua

telize的安装instruction:https://github.com/fcambus/telize

github上的lua_nginx介绍:https://github.com/openresty/lua-nginx-module

luajit下载:http://luajit.org/download.html

lua下载:http://www.lua.org/versions.html

nginx下载:http://nginx.org/en/download.html(使用lua的nginx必须1.7.3+)

ndk下载:https://github.com/simpl/ngx_devel_kit/tags

lua_nginx模块下载:https://github.com/chaoslawful/lua-nginx-module/tags

 

0、本来,这里说用lua5.0或者luajit2.1都可以,但是本人安装的时候用lua5.0编译安装发现nginx没有装上lua相关模块,于是用luajit2.1的方式。

1、不管是lua还是luajit,源码都不需要configure,如果想要修改默认的安装路径可以修改Makefile中文档前部的prefix。

阅读全文…

分类: Linux, nginx 标签:

服务器中毒log1

2015年12月30日 评论已被关闭

从12-28日开始青云频繁的暂停我的路由器,直到29日下午被强制暂停主机。因为正好正在研究docker相关东西,没有在意。

30日经查看监控发现有瞬间异常流量(峰值60M),安装了nethogs以后查看发现

/.s进程和/usr/bin/bsd-port/getty进程异常,大量的请求广东电信80端口。

查看目录发现诸多异常文件

解决办法是把这些文件取消x权限,简单的木马用这种办法即可。

1.pic

 

2.pic

 

3.pic

分类: Linux 标签:

mysql定时备份&同步

2015年12月29日 评论已被关闭

cd /data/bak/ &&

mysqldump -udumpUser -pdumpPass –all-databases > all`date +%Y%m%d-%H%M`.sql

&& /usr/bin/rsync  -avP /data/bak/ 192.168.0.17::backup/192.168.0.5/

&& find . -name “*.sql”  -ctime +7 | xargs rm -rf  > /dev/null 2>&1

 

或者删除60天前的文件:find /path/of/your/backup/ -mtime +60 -exec rm -rf {} \;

分类: db, Linux 标签:

OSI七层模型详解

2015年10月7日 评论已被关闭

来源于网络:http://blog.csdn.net/yaopeng_2005/article/details/7064869

osi

OSI 七层模型通过七个层次化的结构模型使不同的系统不同的网络之间实现可靠的通讯,因此其最主要的功能就是帮助不同类型的主机实现数据传输

完成中继功能的节点通常称为中继系统。在OSI七层模型中,处于不同层的中继系统具有不同的名称。   

一个设备工作在哪一层,关键看它工作时利用哪一层的数据头部信息。网桥工作时,是以MAC头部来决定转发端口的,因此显然它是数据链路层的设备。
具体说:
物理层:网卡,网线,集线器,中继器,调制解调器

数据链路层:网桥,交换机

网络层:路由器

网关工作在第四层传输层及其以上

集线器是物理层设备,采用广播的形式来传输信息。

交换机就是用来进行报文交换的机器。多为链路层设备(二层交换机),能够进行地址学习,采用存储转发的形式来交换报文.

路由器的一个作用是连通不同的网络,另一个作用是选择信息传送的线路。选择通畅快捷的近路,能大大提高通信速度,减轻网络系统通信负荷,节约网络系统资源,提高网络系统畅通率。

交换机和路由器的区别

交换机拥有一条很高带宽的背部总线和内部交换矩阵。交换机的所有的端口都挂接在这条总线上,控制电路收到数据包以后,处理端口会查找内存中的地址对 照表以确定目的MAC(网卡的硬件地址)的NIC(网卡)挂接在哪个端口上,通过内部交换矩阵迅速将数据包传送到目的端口,目的MAC若不存在则广播到所 有的端口,接收端口回应后交换机会学习新的地址,并把它添加入内部MAC地址表中。
使用交换机也可以把网络分段,通过对照MAC地址表,交换机只允许必要的网络流量通过交换机。通过交换机的过滤和转发,可以有效的隔离广播风暴,减少误包和错包的出现,避免共享冲突。
交换机在同一时刻可进行多个端口对之间的数据传输。每一端口都可视为独立的网段,连接在其上的网络设备独自享有全部的带宽,无须同其他设备竞争使用。当节 A向节点D发送数据时,节点B可同时向节点C发送数据,而且这两个传输都享有网络的全部带宽,都有着自己的虚拟连接。假使这里使用的是10Mbps的以 太网交换机,那么该交换机这时的总流通量就等于2×10Mbps20Mbps,而使用10Mbps的共享式HUB时,一个HUB的总流通量也不会超出 10Mbps
总之,交换机是一种基于MAC地址识别,能完成封装转发数据包功能的网络设备。交换机可以学习”MAC地址,并把其存放在内部地址表中,通过在数据帧的始发者和目标接收者之间建立临时的交换路径,使数据帧直接由源地址到达目的地址。

从过滤网络流量的角度来看,路由器的作用与交换机和网桥非常相似。但是与工作在网络物理层,从物理上划分网段的交换机不同,路由器使用专门的软件协 议从逻辑上对整个网络进行划分。例如,一台支持IP协议的路由器可以把网络划分成多个子网段,只有指向特殊IP地址的网络流量才可以通过路由器。对于每一 个接收到的数据包,路由器都会重新计算其校验值,并写入新的物理地址。因此,使用路由器转发和过滤数据的速度往往要比只查看数据包物理地址的交换机慢。但 是,对于那些结构复杂的网络,使用路由器可以提高网络的整体效率。路由器的另外一个明显优势就是可以自动过滤网络广播。

集线器与路由器在功能上有什么不同?

首先说HUB,也就是集线器。它的作用可以简单的理解为将一些机器连接起来组成一个局域网。而交换机(又名交换式集线器)作用与集线器大体相同。但是两者 在性能上有区别:集线器采用的式共享带宽的工作方式,而交换机是独享带宽。这样在机器很多或数据量很大时,两者将会有比较明显的。而路由器与以上两者有明 显区别,它的作用在于连接不同的网段并且找到网络中数据传输最合适的路径。路由器是产生于交换机之后,就像交换机产生于集线器之后,所以路由器与交换机也 有一定联系,不是完全独立的两种设备。路由器主要克服了交换机不能路由转发数据包的不足。

总的来说,路由器与交换机的主要区别体现在以下几个方面:

1)工作层次不同
最初的的交换机是工作在数据链路层,而路由器一开始就设计工作在网络层。由于交换机工作在数据链路层,所以它的工作原理比较简单,而路由器工作在网络层,可以得到更多的协议信息,路由器可以做出更加智能的转发决策。

2)数据转发所依据的对象不同
交换机是利用物理地址或者说MAC地址来确定转发数据的目的地址。而路由器则是利用IP地址来确定数据转发的地址。IP地址是在软件中实现的,描述的是设 备所在的网络。MAC地址通常是硬件自带的,由网卡生产商来分配的,而且已经固化到了网卡中去,一般来说是不可更改的。而IP地址则通常由网络管理员或系 统自动分配。

3)传统的交换机只能分割冲突域,不能分割广播域;而路由器可以分割广播域
由交换机连接的网段仍属于同一个广播域,广播数据包会在交换机连接的所有网段上传播,在某些情况下会导致通信拥挤和安全漏洞。连接到路由器上的网段会被分 配成不同的广播域,广播数据不会穿过路由器。虽然第三层以上交换机具有VLAN功能,也可以分割广播域,但是各子广播域之间是不能通信交流的,它们之间的 交流仍然需要路由器。

4)路由器提供了防火墙的服务
路由器仅仅转发特定地址的数据包,不传送不支持路由协议的数据包传送和未知目标网络数据包的传送,从而可以防止广播风暴。 阅读全文…

分类: Linux 标签:

在linux上用dd命令实现ghost功能

2015年9月19日 评论已被关闭

来源于网络:伯乐在线

ghost和g4l

安装操作系统,速度太慢,整个过程太冗长乏味了。

安装过程中,需要回答若干问题,系统需要安装无数个软件,创建和写入无数的文件。因为涉及到大量的文件定位和读写,速度一定是快不起来的。

Windows下我们常常使用ghost系统来备份和刻录操作系统。ghost可以clone整个系统的镜像,然后在新的电脑上恢复,相当简单。用ghost系统安装操作系统比使用安装光盘安装系统要快捷多了,也不需要回答任何问题了。

那么,我们能不能用ghost来备份和恢复Linux系统呢。

答案是不行。因为ghost只能识别很少的老旧Linux文件系统,也无法识别grub和LILO等引导加载程序。

其实,Linux下也有ghost工具,最著名的有g4l—ghostForLinux。

用了一下ghostForLinux。如果是整个磁盘的复制和恢复,还算简单。但是,我试了半天,也没办法实现对一个或者几个分区的恢复。

g4l,还是太弱了,无法满足我的要求!

神奇的fdisk和dd命令

深深的苦恼中,灵光乍现:神奇的ghost的原理是什么呢?不就是数据复制吗?Linux下的dd命令不就是最强大的数据复制工具!

既然如此,我为什么要使用g4l这样复杂的工具呢?一条dd命令不就可以帮我实现任意复杂的镜像复制和恢复的需求了吗?管他是grub,还是ext4,btrfs,FAT32,NTFS…dd面前众生平等。

进入Linux操作系统,打开命令行,执行如下命令:

1
sudo  fdisk -u -l

可以查看所有磁盘上的所有分区的尺寸和布局情况。

-u,让start和end中数字的单位是512字节,也就是一个sector扇区的大小。

假设我有一个/dev/sda磁盘,有100GB大小。我安装了一个Ubuntu操作系统。使用了如下分区:

/dev/sda1 5GB

/dev/sda2 1GB扩展分区

/dev/sda5 1GB扩展分区

/dev/sda2是所有扩展分区,它的大小和/dev/sda5重合。

/dev/sda1是ext4格式的文件系统。用于安装ubuntu操作系统。

/dev/sda5是swap格式的文件系统,作为交换分区。

如果我用弱智的g4l工具制作系统的镜像,就需要备份整个磁盘100GB,而不是我需要的6GB。

g4l也可以单独备份分区,但是在恢复时,就需要在目标计算机上安装好grub,并进行了适当的分区。很麻烦!

我这里,可以使用一条dd命令就生成6GB的镜像。然后可以在任意硬盘大于6GB的计算机上恢复出完整的系统,包括MBR和3个分区sda1,sda2,sda5。

具体步骤

找一个U盘,安装UbuntuLive Cd系统。【具体如何制作U盘启动的UbuntuLive CD,可以参考Ubuntu官方网站的帮助。】

UbuntuLive Cd和WindowsPE系统类似,是光盘/U盘引导的Ubuntu操作系统,不需要安装就可以直接使用。

U盘启动,进入盘上的Ubuntu系统,打开命令行,执行:

1
sudo  fdisk -u -l /dev/sda

查看硬件的分区情况。

然后执行:

1
dd   bs=512 count=[fdisk命令中最大的end数+1] if=/dev/sda of=/ghost.img

这样,就可以把我需要的分区数据全部copy到ghost.img文件中。镜像制作完成了!

然后,我们就可以把U盘插到其他系统上,用U盘启动,进入UbuntuLiveCD,打开命令行,执行如下命令:

1
dd if=/ghost.img of=/dev/sda

完成后,拔掉U盘,启动计算机,就可以看到我们的Linux系统已经安装完毕了!

注意:

不要直接在计算机上用本地磁盘启动系统后执行dd命令生成本地磁盘的镜像。而应该使用livecd启动计算机。

因此计算机运行时会对系统盘产生大量写操作。 直接对运行中的系统盘生成的镜像,在恢复到其他硬盘上时,很可能会无法启动!

一样适用于非Linux操作系统

在linux上用dd命令实现系统镜像备份和恢复,是不是很简单呢?

对于Windows系统,甚至Mac等等任意系统,其实都可以用dd命令实现系统镜像的备份和恢复。

因为,Linux的fdisk命令能够识别任意系统下的分区格式。fdisk并不关系分区上的文件系统,甚至有无文件系统都不关心。fdisk总是可以报告分区占用了哪些扇区。

dd命令也不关心磁盘的文件系统格式,它只是简单地按照要求从指定的位置,复制多少字节数据而已。

dd命令实现镜像备份和恢复,比Ghost软件简单和强大多了。使用ghost软件,依然需要用户进行复杂而危险的磁盘分区操作。

而使用fdisk和dd这两条命令,一切都免了!

压缩和解压缩

可能我们需要备份的分区很大,使用dd命令生成的镜像文件也就很大。存储和传输这些镜像不太方便。  我们也可以使用压缩程序压缩生成的镜像文件。 这里,我选择使用gzip程序,配合dd命令一起使用。

gzip参数:

-c 表示输出到stdout
-d  表示解压缩
-1 表示最快压缩
-9 表示最好压缩
默认使用的是-6压缩级别。

要使用 dd 和 gzip 生成压缩的镜像文件,可以执行命令:

1
dd   bs=512 count=[fdisk命令中最大的end数+1] if=/dev/sda | gzip -6 > /ghost.img.gz

还原时,可以执行下列命令:

1
gzip -dc /ghost.img.gz.gz | dd of=/dev/sda

提醒:

如果你把镜像恢复到另一台计算机上,你可能会发现你的网卡是eth1,而不是eth0。这是因为/etc/udev/rules.d/70-persistent-net.rules文件把你做镜像的计算机的网卡作为eth0登记了。

如果你的网络脚本对eth0进行了处理,而没有对eth1进行处理,那么不修改网络脚本,你可能就无法上网了。

也许你会希望在做镜像之前,先删除 /etc/udev/rules.d/70-persistent-net.rules 文件。这样你恢复镜像时,网卡的名字就是eth0。   就不会造成你在恢复后的计算机上无法上网的问题了。

注意:

最好在dd生成镜像之前,先umount所有 if和of 设备的分区。这样可以确保在dd的过程中文件系统没有被改变。

在完成dd(生成镜像和恢复镜像)后,执行sudo sync,确保数据被真正写入到硬盘上。

另外,如果你想要对整个硬盘进行备份和恢复,而不是只备份和恢复部分分区,那么就请把dd命令中的 count=[fdisk命令中最大的end数+1]   去掉。bs=512也可以去掉。

分类: Linux 标签: