MYSQL开发实践8问8答

chris 发表了文章 • 0 个评论 • 31 次浏览 • 1 天前 • 来自相关话题

最近研发的项目对 DB 依赖比较重,梳理了这段时间使用MySQL遇到的8个比较具有代表性的问题,答案也比较偏自己的开发实践,没有 DBA专业和深入,有出入的请使劲拍砖!
 

一、MySQL读写性能是多少,有哪些性能相关的重要参数?​

这里做了几个简单压测实验,结果如下:
机器:8核CPU,8G内存
表结构(尽量模拟业务):12个字段(1个bigint(20)为自增primary key,5个int(11),5个varchar(512),1个timestamp),InnoDB存储引擎。
实验1(写):insert => 6000/s
前提:连接数100,每次insert单条记录
分析:CPU跑了50%,这时磁盘为顺序写,故性能较高实验2(写):update(where条件命中索引) => 200/s
前提:连接数100,10w条记录,每次update单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑2%,瓶颈明显在IO的随机写实验3(读):select(where条件命中索引) => 5000/s
前提:连接数100,10w条记录,每次select单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑6%,瓶颈在IO,和db的cache大小相关实验4(读):select(where条件没命中索引) => 60/s
前提:连接数100,10w条记录,每次select单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑到80%,每次select都需遍历所有记录,看来索引的效果非常明显!几个重要的配置参数,可根据实际的机器和业务特点调整
max_connecttions:最大连接数

table_cache:缓存打开表的数量

key_buffer_size:索引缓存大小

query_cache_size:查询缓存大小

sort_buffer_size:排序缓存大小(会将排序完的数据缓存起来)

read_buffer_size:顺序读缓存大小

read_rnd_buffer_size:某种特定顺序读缓存大小(如order by子句的查询)PS:查看配置方法:show variables like '%max_connecttions%';
 

二、MySQL负载高时,如何找到是由哪些SQL引起的?

方法:慢查询日志分析(MySQLdumpslow)
 
慢查询日志例子,可看到每个慢查询SQL的耗时:
# User@Host: edu_online[edu_online] @ [10.139.10.167]
# Query_time: 1.958000 Lock_time: 0.000021 Rows_sent: 254786 Rows_examined: 254786
SET timestamp=1410883292;
select * from t_online_group_records;日志显示该查询用了1.958秒,返回254786行记录,一共遍历了254786行记录。及具体的时间戳和SQL语句。

使用MySQLdumpslow进行慢查询日志分析:

MySQLdumpslow -s t -t 5 slow_log_20140819.txt输出查询耗时最多的Top5条SQL语句
 
-s:排序方法,t表示按时间 (此外,c为按次数,r为按返回记录数等)
-t:去Top多少条,-t 5表示取前5条
 
执行完分析结果如下:
Count: 1076100 Time=0.09s (99065s) Lock=0.00s (76s) Rows=408.9 (440058825), edu_online[edu_online]@28hosts
select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > N
Count: 1076099 Time=0.05s (52340s) Lock=0.00s (91s) Rows=62.6 (67324907), edu_online[edu_online]@28hosts
select * from t_online_course where UNIX_TIMESTAMP(c_updatetime) > N
Count: 63889 Time=0.78s (49607s) Lock=0.00s (3s) Rows=0.0 (18), edu_online[edu_online]@[10x.213.1xx.1xx]
select f_uin from t_online_student_contact where f_modify_time > N
Count: 1076097 Time=0.02s (16903s) Lock=0.00s (72s) Rows=52.2 (56187090), edu_online[edu_online]@28hosts
select * from t_online_video_info where UNIX_TIMESTAMP(v_update_time) > N
Count: 330046 Time=0.02s (6822s) Lock=0.00s (45s) Rows=0.0 (2302), edu_online[edu_online]@4hosts
select uin,cid,is_canceled,unix_timestamp(end_time) as endtime,unix_timestamp(update_time) as updatetime
from t_kick_log where unix_timestamp(update_time) > N以第1条为例,表示这类SQL(N可以取很多值,这里MySQLdumpslow会归并起来)在8月19号的慢查询日志内出现了1076100次,总耗时99065秒,总返回440058825行记录,有28个客户端IP用到。

通过慢查询日志分析,就可以找到最耗时的SQL,然后进行具体的SQL分析

慢查询相关的配置参数:
log_slow_queries:是否打开慢查询日志,得先确保=ON后面才有得分析

long_query_time:查询时间大于多少秒的SQL被当做是慢查询,一般设为1S

log_queries_not_using_indexes:是否将没有使用索引的记录写入慢查询日志

slow_query_log_file:慢查询日志存放路径

三、如何针对具体的SQL做优化?

使用Explain分析SQL语句执行计划
MySQL> explain select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789;
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
| 1 | SIMPLE | t_online_group_records | ALL | NULL | NULL | NULL | NULL | 47 | Using where |
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
1 row in set (0.00 sec)如上面例子所示,重点关注下type,rows和Extra:

type:使用类别,有无使用到索引。结果值从好到坏:... > range(使用到索引) > index > ALL(全表扫描),一般查询应达到range级别

rows:SQL执行检查的记录数

Extra:SQL执行的附加信息,如"Using index"表示查询只用到索引列,不需要去读表等

使用Profiles分析SQL语句执行时间和消耗资源:
MySQL> set profiling=1; (启动profiles,默认是没开启的)
MySQL> select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789; (执行要分析的SQL语句)
MySQL> show profiles;
+----------+------------+----------------------------------------------------------------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+----------------------------------------------------------------------------------------------+
| 1 | 0.00043250 | select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789 |
+----------+------------+----------------------------------------------------------------------------------------------+
1 row in set (0.00 sec)
MySQL> show profile cpu,block io for query 1; (可看出SQL在各个环节的耗时和资源消耗)
+----------------------+----------+----------+------------+--------------+---------------+
| Status | Duration | CPU_user | CPU_system | Block_ops_in | Block_ops_out |
+----------------------+----------+----------+------------+--------------+---------------+
...
| optimizing | 0.000016 | 0.000000 | 0.000000 | 0 | 0 |
| statistics | 0.000020 | 0.000000 | 0.000000 | 0 | 0 |
| preparing | 0.000017 | 0.000000 | 0.000000 | 0 | 0 |
| executing | 0.000011 | 0.000000 | 0.000000 | 0 | 0 |
| Sending data | 0.000076 | 0.000000 | 0.000000 | 0 | 0 |
...
SQL优化的技巧 (只提一些业务常遇到的问题)
 
1、最关键:索引,避免全表扫描
对接触的项目进行慢查询分析,发现TOP10的基本都是忘了加索引或者索引使用不当,如索引字段上加函数导致索引失效等(如where UNIX_TIMESTAMP(gre_updatetime)>123456789)
+----------+------------+---------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+---------------------------------------+
| 1 | 0.00024700 | select * from mytable where id=100 |
| 2 | 0.27912900 | select * from mytable where id+1=101 |
+----------+------------+---------------------------------------+另外很多同学在拉取全表数据时,喜欢用select xx from xx limit 5000,1000这种形式批量拉取,其实这个SQL每次都是全表扫描,建议添加1个自增id做索引,将SQL改为 select xx from xx where id>5000 and id<6000;
+----------+------------+-----------------------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+-----------------------------------------------------+
| 1 | 0.00415400 | select * from mytable where id>=90000 and id<=91000 |
| 2 | 0.10078100 | select * from mytable limit 90000,1000 |
+----------+------------+-----------------------------------------------------+合理用好索引,应该可解决大部分SQL问题。当然索引也非越多越好,过多的索引会影响写操作性能。
 
1.1 只select出需要的字段,避免select
+----------+------------+-----------------------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+-----------------------------------------------------+
| 1 | 0.02948800 | select count(1) from ( select id from mytable ) a |
| 2 | 1.34369100 | select count(1) from ( select * from mytable ) a |
+----------+------------+-----------------------------------------------------+1.2 尽量早做过滤,使Join或者Union等后续操作的数据量尽量小
 
1.3 把能在逻辑层算的提到逻辑层来处理,如一些数据排序、时间函数计算等
 
PS:关于SQL优化,已经有足够多文章了,所以就不讲太全面了,只重点说自己1个感受:索引!基本都是因为索引!
 

四、SQL层面已难以优化,请求量继续增大时的应对策略?

下面是我能想到的几个方法,每个方法又都是一篇大文章了,这里就不展开。
分库分表使用集群(master-slave),读写分离增加业务的cache层使用连接池

五、MySQL如何做主从数据同步?

复制机制(Replication)
master通过复制机制,将master的写操作通过binlog传到slave生成中继日志(relaylog),slave再将中继日志redo,使得主库和从库的数据保持同步。
 
复制相关的3个MySQL线程:
slave上的I/O线程:向master请求数据master上的Binlog Dump线程:读取binlog事件并把数据发送给slave的I/O线程slave上的SQL线程:读取中继日志并执行,更新数据库
属于slave主动请求拉取的模式
 
实际使用可能遇到的问题
数据非强一致:CDB默认为异步复制,master和slave的数据会有一定延迟(称为主从同步距离,一般 < 1s)
主从同步距离变大:可能是DB写入压力大,也可能是slave机器负载高,网络波动等原因,具体问题具体分析
 
相关监控命令
show processlist:查看MySQL进程信息,包括3个同步线程的当前状态

show master status :查看master配置及当前复制信息

show slave status:查看slave配置及当前复制信息

六、如何防止DB误操作和做好容灾?

业务侧应做到的几点:
重要DB数据的手工修改操作,操作前需做到2点:1 先在测试环境操作 2 备份数据根据业务重要性做定时备份,考虑系统可承受的恢复时间进行容灾演练,感觉很必要
 
MySQL备份和恢复操作
 
1、备份:使用MySQLdump导出数据
MySQLdump -u 用户名 -p 数据库名 [表名] > 导出的文件名
MySQLdump -uxxx -p xxx mytable > mytable.20140921.bak.sql2、恢复:导入备份数据
MySQL -uxxx -p xxxx < mytable.20140921.bak.sql3、恢复:导入备份数据之后发送的写操作。先使用MySQLbinlog导出这部分写操作SQL(基于时间点或位置)
如导出2014-09-21 09:59:59之后的binlog:
MySQLbinlog --database="test" --start-date="2014-09-21 09:59:59" /var/lib/MySQL/mybinlog.000001 > binlog.data.sql如导出起始id为123456之后的binlog:
MySQLbinlog --database="test" --start-position="123456" /var/lib/MySQL/mybinlog.000001 > binlog.data.sql最后把要恢复的binlog导入db
MySQL -uxxxx -p xxxx < binlog.data.sql

七、该选择MySQL哪种存储引擎,Innodb具有什么特性?

存储引擎简介:
插件式存储引擎是MySQL的重要特性,MySQL支持多种存储引擎以满足用户的多种应用场景
存储引擎解决的问题:如何组织MySQL数据在介质中高效地读取,需考虑存储机制、索引设计、并发读写的锁机制等
MySQL5.0支持的存储引擎有MyISAM、InnoDB、Memory、Merge等
 
MyISAM和InnoDB的区别(只说重点了)
 
1. InnoDB,MySQL5.5之后及CDB的默认引擎
支持行锁:并发性能好支持事务:故InnoDB称为事务性存储引擎,支持ACID,提供了具有提交、回滚和崩溃恢复能力的事务安全支持外键:当前唯一支持外键的引擎
 
2. MyISAM,MySQL5.5之前默认引擎
支持表锁:插入+查询速度快,更新+删除速度慢不支持事务
 
使用show engines可查看当前MySQL支持的存储引擎详情:




 

八、MySQL内部结构有哪些层次?

 
非专业DBA,这里只简单贴个结构图说明下。MySQL是开源系统,其设计思路和源代码都出自大牛之手,有空可以学习下。




Connectors:连接器。接收不同语言的Client交互Management Serveices & Utilities:系统管理和控制工具Connection Pool: 连接池。管理用户连接SQL Interface: SQL接口。接受用户的SQL命令,并且返回用户需要查询的结果Parser: 解析器。验证和解析SQL语句成内部数据结构Optimizer: 查询优化器。为查询语句选择合适的执行路径Cache和Buffer:查询缓存。缓存查询的结果,有命中即可直接返回Engine:存储引擎。MySQL数据最后组织并存储成具体文件
 
作者:王昂 
原文地址:https://www.qcloud.com/community/article/233  查看全部
最近研发的项目对 DB 依赖比较重,梳理了这段时间使用MySQL遇到的8个比较具有代表性的问题,答案也比较偏自己的开发实践,没有 DBA专业和深入,有出入的请使劲拍砖!
 


一、MySQL读写性能是多少,有哪些性能相关的重要参数?​


这里做了几个简单压测实验,结果如下:
机器:8核CPU,8G内存
表结构(尽量模拟业务):12个字段(1个bigint(20)为自增primary key,5个int(11),5个varchar(512),1个timestamp),InnoDB存储引擎。
实验1(写):insert => 6000/s
前提:连接数100,每次insert单条记录
分析:CPU跑了50%,这时磁盘为顺序写,故性能较高
实验2(写):update(where条件命中索引) => 200/s
前提:连接数100,10w条记录,每次update单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑2%,瓶颈明显在IO的随机写
实验3(读):select(where条件命中索引) => 5000/s
前提:连接数100,10w条记录,每次select单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑6%,瓶颈在IO,和db的cache大小相关
实验4(读):select(where条件没命中索引) => 60/s
前提:连接数100,10w条记录,每次select单条记录的4个字段(2个int(11),2个varchar(512))
分析:CPU跑到80%,每次select都需遍历所有记录,看来索引的效果非常明显!
几个重要的配置参数,可根据实际的机器和业务特点调整
max_connecttions:最大连接数

table_cache:缓存打开表的数量

key_buffer_size:索引缓存大小

query_cache_size:查询缓存大小

sort_buffer_size:排序缓存大小(会将排序完的数据缓存起来)

read_buffer_size:顺序读缓存大小

read_rnd_buffer_size:某种特定顺序读缓存大小(如order by子句的查询)
PS:查看配置方法:show variables like '%max_connecttions%';
 


二、MySQL负载高时,如何找到是由哪些SQL引起的?


方法:慢查询日志分析(MySQLdumpslow)
 
慢查询日志例子,可看到每个慢查询SQL的耗时:
# User@Host: edu_online[edu_online] @  [10.139.10.167]
# Query_time: 1.958000 Lock_time: 0.000021 Rows_sent: 254786 Rows_examined: 254786
SET timestamp=1410883292;
select * from t_online_group_records;
日志显示该查询用了1.958秒,返回254786行记录,一共遍历了254786行记录。及具体的时间戳和SQL语句。

使用MySQLdumpslow进行慢查询日志分析:

MySQLdumpslow -s t -t 5 slow_log_20140819.txt
输出查询耗时最多的Top5条SQL语句
 
-s:排序方法,t表示按时间 (此外,c为按次数,r为按返回记录数等)
-t:去Top多少条,-t 5表示取前5条
 
执行完分析结果如下:
Count: 1076100  Time=0.09s (99065s)  Lock=0.00s (76s)  Rows=408.9 (440058825), edu_online[edu_online]@28hosts
select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > N
Count: 1076099 Time=0.05s (52340s) Lock=0.00s (91s) Rows=62.6 (67324907), edu_online[edu_online]@28hosts
select * from t_online_course where UNIX_TIMESTAMP(c_updatetime) > N
Count: 63889 Time=0.78s (49607s) Lock=0.00s (3s) Rows=0.0 (18), edu_online[edu_online]@[10x.213.1xx.1xx]
select f_uin from t_online_student_contact where f_modify_time > N
Count: 1076097 Time=0.02s (16903s) Lock=0.00s (72s) Rows=52.2 (56187090), edu_online[edu_online]@28hosts
select * from t_online_video_info where UNIX_TIMESTAMP(v_update_time) > N
Count: 330046 Time=0.02s (6822s) Lock=0.00s (45s) Rows=0.0 (2302), edu_online[edu_online]@4hosts
select uin,cid,is_canceled,unix_timestamp(end_time) as endtime,unix_timestamp(update_time) as updatetime
from t_kick_log where unix_timestamp(update_time) > N
以第1条为例,表示这类SQL(N可以取很多值,这里MySQLdumpslow会归并起来)在8月19号的慢查询日志内出现了1076100次,总耗时99065秒,总返回440058825行记录,有28个客户端IP用到。

通过慢查询日志分析,就可以找到最耗时的SQL,然后进行具体的SQL分析

慢查询相关的配置参数:
log_slow_queries:是否打开慢查询日志,得先确保=ON后面才有得分析

long_query_time:查询时间大于多少秒的SQL被当做是慢查询,一般设为1S

log_queries_not_using_indexes:是否将没有使用索引的记录写入慢查询日志

slow_query_log_file:慢查询日志存放路径


三、如何针对具体的SQL做优化?


使用Explain分析SQL语句执行计划
MySQL> explain select * from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789;
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
| 1 | SIMPLE | t_online_group_records | ALL | NULL | NULL | NULL | NULL | 47 | Using where |
+----+-------------+------------------------+------+---------------+------+---------+------+------+-------------+
1 row in set (0.00 sec)
如上面例子所示,重点关注下type,rows和Extra:

type:使用类别,有无使用到索引。结果值从好到坏:... > range(使用到索引) > index > ALL(全表扫描),一般查询应达到range级别

rows:SQL执行检查的记录数

Extra:SQL执行的附加信息,如"Using index"表示查询只用到索引列,不需要去读表等

使用Profiles分析SQL语句执行时间和消耗资源:
MySQL> set profiling=1; (启动profiles,默认是没开启的)
MySQL> select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789; (执行要分析的SQL语句)
MySQL> show profiles;
+----------+------------+----------------------------------------------------------------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+----------------------------------------------------------------------------------------------+
| 1 | 0.00043250 | select count(1) from t_online_group_records where UNIX_TIMESTAMP(gre_updatetime) > 123456789 |
+----------+------------+----------------------------------------------------------------------------------------------+
1 row in set (0.00 sec)
MySQL> show profile cpu,block io for query 1; (可看出SQL在各个环节的耗时和资源消耗)
+----------------------+----------+----------+------------+--------------+---------------+
| Status | Duration | CPU_user | CPU_system | Block_ops_in | Block_ops_out |
+----------------------+----------+----------+------------+--------------+---------------+
...
| optimizing | 0.000016 | 0.000000 | 0.000000 | 0 | 0 |
| statistics | 0.000020 | 0.000000 | 0.000000 | 0 | 0 |
| preparing | 0.000017 | 0.000000 | 0.000000 | 0 | 0 |
| executing | 0.000011 | 0.000000 | 0.000000 | 0 | 0 |
| Sending data | 0.000076 | 0.000000 | 0.000000 | 0 | 0 |
...

SQL优化的技巧 (只提一些业务常遇到的问题)
 
1、最关键:索引,避免全表扫描
对接触的项目进行慢查询分析,发现TOP10的基本都是忘了加索引或者索引使用不当,如索引字段上加函数导致索引失效等(如where UNIX_TIMESTAMP(gre_updatetime)>123456789)
+----------+------------+---------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+---------------------------------------+
| 1 | 0.00024700 | select * from mytable where id=100 |
| 2 | 0.27912900 | select * from mytable where id+1=101 |
+----------+------------+---------------------------------------+
另外很多同学在拉取全表数据时,喜欢用select xx from xx limit 5000,1000这种形式批量拉取,其实这个SQL每次都是全表扫描,建议添加1个自增id做索引,将SQL改为 select xx from xx where id>5000 and id<6000;
+----------+------------+-----------------------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+-----------------------------------------------------+
| 1 | 0.00415400 | select * from mytable where id>=90000 and id<=91000 |
| 2 | 0.10078100 | select * from mytable limit 90000,1000 |
+----------+------------+-----------------------------------------------------+
合理用好索引,应该可解决大部分SQL问题。当然索引也非越多越好,过多的索引会影响写操作性能。
 
1.1 只select出需要的字段,避免select
+----------+------------+-----------------------------------------------------+
| Query_ID | Duration | Query |
+----------+------------+-----------------------------------------------------+
| 1 | 0.02948800 | select count(1) from ( select id from mytable ) a |
| 2 | 1.34369100 | select count(1) from ( select * from mytable ) a |
+----------+------------+-----------------------------------------------------+
1.2 尽量早做过滤,使Join或者Union等后续操作的数据量尽量小
 
1.3 把能在逻辑层算的提到逻辑层来处理,如一些数据排序、时间函数计算等
 
PS:关于SQL优化,已经有足够多文章了,所以就不讲太全面了,只重点说自己1个感受:索引!基本都是因为索引!
 


四、SQL层面已难以优化,请求量继续增大时的应对策略?


下面是我能想到的几个方法,每个方法又都是一篇大文章了,这里就不展开。
  • 分库分表
  • 使用集群(master-slave),读写分离
  • 增加业务的cache层
  • 使用连接池


五、MySQL如何做主从数据同步?


复制机制(Replication)
master通过复制机制,将master的写操作通过binlog传到slave生成中继日志(relaylog),slave再将中继日志redo,使得主库和从库的数据保持同步。
 
复制相关的3个MySQL线程
  1. slave上的I/O线程:向master请求数据
  2. master上的Binlog Dump线程:读取binlog事件并把数据发送给slave的I/O线程
  3. slave上的SQL线程:读取中继日志并执行,更新数据库

属于slave主动请求拉取的模式
 
实际使用可能遇到的问题
数据非强一致:CDB默认为异步复制,master和slave的数据会有一定延迟(称为主从同步距离,一般 < 1s)
主从同步距离变大:可能是DB写入压力大,也可能是slave机器负载高,网络波动等原因,具体问题具体分析
 
相关监控命令
show processlist:查看MySQL进程信息,包括3个同步线程的当前状态

show master status :查看master配置及当前复制信息

show slave status:查看slave配置及当前复制信息


六、如何防止DB误操作和做好容灾?


业务侧应做到的几点:
  • 重要DB数据的手工修改操作,操作前需做到2点:1 先在测试环境操作 2 备份数据
  • 根据业务重要性做定时备份,考虑系统可承受的恢复时间
  • 进行容灾演练,感觉很必要

 
MySQL备份和恢复操作
 
1、备份:使用MySQLdump导出数据
MySQLdump -u 用户名 -p 数据库名 [表名] > 导出的文件名
MySQLdump -uxxx -p xxx mytable > mytable.20140921.bak.sql
2、恢复:导入备份数据
MySQL -uxxx -p xxxx < mytable.20140921.bak.sql
3、恢复:导入备份数据之后发送的写操作。先使用MySQLbinlog导出这部分写操作SQL(基于时间点或位置)
如导出2014-09-21 09:59:59之后的binlog:
MySQLbinlog --database="test" --start-date="2014-09-21 09:59:59" /var/lib/MySQL/mybinlog.000001 > binlog.data.sql
如导出起始id为123456之后的binlog:
MySQLbinlog --database="test" --start-position="123456" /var/lib/MySQL/mybinlog.000001 > binlog.data.sql
最后把要恢复的binlog导入db
MySQL -uxxxx -p xxxx < binlog.data.sql


七、该选择MySQL哪种存储引擎,Innodb具有什么特性?


存储引擎简介:
插件式存储引擎是MySQL的重要特性,MySQL支持多种存储引擎以满足用户的多种应用场景
存储引擎解决的问题:如何组织MySQL数据在介质中高效地读取,需考虑存储机制、索引设计、并发读写的锁机制等
MySQL5.0支持的存储引擎有MyISAM、InnoDB、Memory、Merge等
 
MyISAM和InnoDB的区别(只说重点了)
 
1. InnoDB,MySQL5.5之后及CDB的默认引擎
  • 支持行锁:并发性能好
  • 支持事务:故InnoDB称为事务性存储引擎,支持ACID,提供了具有提交、回滚和崩溃恢复能力的事务安全
  • 支持外键:当前唯一支持外键的引擎

 
2. MyISAM,MySQL5.5之前默认引擎
  • 支持表锁:插入+查询速度快,更新+删除速度慢
  • 不支持事务

 
使用show engines可查看当前MySQL支持的存储引擎详情:
engine.png

 


八、MySQL内部结构有哪些层次?


 
非专业DBA,这里只简单贴个结构图说明下。MySQL是开源系统,其设计思路和源代码都出自大牛之手,有空可以学习下。
connect.png

  1. Connectors:连接器。接收不同语言的Client交互
  2. Management Serveices & Utilities:系统管理和控制工具
  3. Connection Pool: 连接池。管理用户连接
  4. SQL Interface: SQL接口。接受用户的SQL命令,并且返回用户需要查询的结果
  5. Parser: 解析器。验证和解析SQL语句成内部数据结构
  6. Optimizer: 查询优化器。为查询语句选择合适的执行路径
  7. Cache和Buffer:查询缓存。缓存查询的结果,有命中即可直接返回
  8. Engine:存储引擎。MySQL数据最后组织并存储成具体文件

 
作者:王昂 
原文地址:https://www.qcloud.com/community/article/233 

如何管理大数据

OT学习平台 发表了文章 • 0 个评论 • 23 次浏览 • 3 天前 • 来自相关话题

随着应用BI系统的广泛应用,数据治理的话题也越来越受到企业的关注和讨论,有专家表示,如果想让用户进入真正的商业智能时代,就必须建立一定的数据治理体系;而大数据治理能够在短期内成为业内的焦点,这和企业对大数据质量的理解和密切关注有很大关系。

大数据治理面临的挑战:规模庞大,标准不一

过去几年,企业的IT系统经历了数据量高速膨胀的一个时期,这些海量的,分散在不同服务器的数据提高了数据资源利用的复杂性和管理难度;另外,各个企业内部的业务区分和行政区分也对企业数据的交互造成了一定的断层,而企业与外部业务交互所产生的“体外循环”数据与企业的核心数据体系并不能自然地融合。当这种数据的异构化所导致的应用冲突达到一定临界点时,数据治理便成为了规范企业数据的必要步骤。

大数据治理技术:主题众多,元数据管理先行

数据治理涉及的IT技术主题众多,包括元数据管理、主数据管理、数据质量、数据集成、监控与报告等。在很多国际企业中,元数据管理的重要性在全部技术主题中位列第一。

元数据管理是语义工具,其重要性在于,它能够为数据治理建立一套数据资料库,存储治理范围内的数据定义,负责人,来源,转换关系,目标,质量等级,依赖关系,安全权限等。这些信息对于商业整合,数据质量,可审计性等数据治理目标的实现至关重要。

元数据管理是实施数据治理的核心IT技术,有效的元数据管理将为数据质量、数据集成等技术的实施,以及数据治理目标的最终实现奠定坚实的基础。

大数据治理的意义:发掘数据资产的商业价值

大数据治理是为了将数据作为企业商业资产进行应用和管理的一套数据管理机制,能够通过建立规范的数据应用标准,消除数据的不一致性,来提高数据的质量,并能合理的将数据应用于企业的业务管理和战略决策中,充分的发挥数据的商业价值,良好的数据治理必将为信息化时代的企业带来不可替代的竞争优势。
 
了解更多大数据相关知识请进入OTPUB官网:www.otpub.com 查看全部
随着应用BI系统的广泛应用,数据治理的话题也越来越受到企业的关注和讨论,有专家表示,如果想让用户进入真正的商业智能时代,就必须建立一定的数据治理体系;而大数据治理能够在短期内成为业内的焦点,这和企业对大数据质量的理解和密切关注有很大关系。

大数据治理面临的挑战:规模庞大,标准不一

过去几年,企业的IT系统经历了数据量高速膨胀的一个时期,这些海量的,分散在不同服务器的数据提高了数据资源利用的复杂性和管理难度;另外,各个企业内部的业务区分和行政区分也对企业数据的交互造成了一定的断层,而企业与外部业务交互所产生的“体外循环”数据与企业的核心数据体系并不能自然地融合。当这种数据的异构化所导致的应用冲突达到一定临界点时,数据治理便成为了规范企业数据的必要步骤。

大数据治理技术:主题众多,元数据管理先行

数据治理涉及的IT技术主题众多,包括元数据管理、主数据管理、数据质量、数据集成、监控与报告等。在很多国际企业中,元数据管理的重要性在全部技术主题中位列第一。

元数据管理是语义工具,其重要性在于,它能够为数据治理建立一套数据资料库,存储治理范围内的数据定义,负责人,来源,转换关系,目标,质量等级,依赖关系,安全权限等。这些信息对于商业整合,数据质量,可审计性等数据治理目标的实现至关重要。

元数据管理是实施数据治理的核心IT技术,有效的元数据管理将为数据质量、数据集成等技术的实施,以及数据治理目标的最终实现奠定坚实的基础。

大数据治理的意义:发掘数据资产的商业价值

大数据治理是为了将数据作为企业商业资产进行应用和管理的一套数据管理机制,能够通过建立规范的数据应用标准,消除数据的不一致性,来提高数据的质量,并能合理的将数据应用于企业的业务管理和战略决策中,充分的发挥数据的商业价值,良好的数据治理必将为信息化时代的企业带来不可替代的竞争优势。
 
了解更多大数据相关知识请进入OTPUB官网:www.otpub.com

SDN开发工程师招聘

savage_yang 发表了文章 • 0 个评论 • 32 次浏览 • 4 天前 • 来自相关话题

公司名:深圳某智能计算科技有限公司
职位:SDN开发工程师
薪资:20K-30K/月
岗位职责:
1、承担SDN交换机软件开发(基于DPDK和OVS开发),性能优化。
2、负责软件代码编写,能够独立完成软件模块的编码、测试等工作。参与技术攻关,协助解决各种编程难题。
3、负责软件开发文档编写,配合测试人员完成系统测试及改进工作。
4、参与市场开局的技术支持。
任职要求:
1、具有全日制本科及以上学历。
2、计算机、通信、信息系统等相关专业。
3、三年以上前后端软件开发经验,熟练掌握C/C++,Java等前后端编程语言。
4、熟悉或者了解二、三层路由交换原理,TCP/IP协议,有数通产品开发经验优先。
5、精通 SDN相关技术:Openflow协议,Openvswitch的原理和实现,DPDK技术原理。
 
有意思者可以加我微信:
18502322670 查看全部
公司名:深圳某智能计算科技有限公司
职位:SDN开发工程师
薪资:20K-30K/月
岗位职责:
1、承担SDN交换机软件开发(基于DPDK和OVS开发),性能优化。
2、负责软件代码编写,能够独立完成软件模块的编码、测试等工作。参与技术攻关,协助解决各种编程难题。
3、负责软件开发文档编写,配合测试人员完成系统测试及改进工作。
4、参与市场开局的技术支持。
任职要求:
1、具有全日制本科及以上学历。
2、计算机、通信、信息系统等相关专业。
3、三年以上前后端软件开发经验,熟练掌握C/C++,Java等前后端编程语言。
4、熟悉或者了解二、三层路由交换原理,TCP/IP协议,有数通产品开发经验优先。
5、精通 SDN相关技术:Openflow协议,Openvswitch的原理和实现,DPDK技术原理。
 
有意思者可以加我微信:
18502322670

梭子鱼云安全解决方案为企业保驾护航

OT学习平台 发表了文章 • 0 个评论 • 23 次浏览 • 4 天前 • 来自相关话题

随着云、终端、移动化的快速推进,企业用户最担心的还是关于技术架构层、网络层管控等方面的难题。而通过第三方调研报告的反馈,也表明企业向公有云迁移最担心的还是安全问题。

迁移至云端面临哪些挑战?

安全、隐私和合规问题
关键任务管理或者工作负载均衡问题
数据中心迁徙至公有云可能遇到的难题
BYOD、Web 2.0应用程序、远程访问等安全隐患

面对上述难题,梭子鱼云安全解决方案都能为您化解,为用户在云环境下所运行或建立的应用或网络提供企业级安全解决方案和服务。

梭子鱼Web应用防火墙

梭子鱼Web应用防火墙,阻断以您的 Web 服务器上的应用为目标,不断涌现和复杂的基于 Web 的入侵和攻击—和保护敏感的或者机密的数据免遭窃取。

综合应用安全:
1、持续防御新兴威胁
2、可拓展的应用安全
3、细粒度身份和访问管理
梭子鱼下一代防火墙F系列
梭子鱼下一代防火墙F系列是梭子鱼防火墙的云时代。它将先进的下一代防火墙、链路平衡和 WAN 优化技术整合到一个能够进行内部部署、云和虚拟部署的易于管理的设备中。F系列允许组织和托管服务提供商安全地启用远程 Internet 分支,而无需回程流量。

下一代防火墙为公/私有云提供:
1、安全的访问 AWS
2、完整应用控制
3、智能流量管理
4、细粒度安全策略管理

梭子鱼始终为用户在云环境下所运行、建立的应用或网络提供企业级安全解决方案和服务。
企业迁移至云端面临的安全、隐私及合规问题如何解决?梭子鱼如何利用 Web 防火墙化解企业数据迁移至云端难题?答案尽在8月22日14:00由OTPUB举行的“梭子鱼云安全解决方案”线上直播活动。
 
点击后方字体进入直播间:“梭子鱼云安全解决方案” 查看全部
随着云、终端、移动化的快速推进,企业用户最担心的还是关于技术架构层、网络层管控等方面的难题。而通过第三方调研报告的反馈,也表明企业向公有云迁移最担心的还是安全问题。

迁移至云端面临哪些挑战?

安全、隐私和合规问题
关键任务管理或者工作负载均衡问题
数据中心迁徙至公有云可能遇到的难题
BYOD、Web 2.0应用程序、远程访问等安全隐患

面对上述难题,梭子鱼云安全解决方案都能为您化解,为用户在云环境下所运行或建立的应用或网络提供企业级安全解决方案和服务。

梭子鱼Web应用防火墙

梭子鱼Web应用防火墙,阻断以您的 Web 服务器上的应用为目标,不断涌现和复杂的基于 Web 的入侵和攻击—和保护敏感的或者机密的数据免遭窃取。

综合应用安全:
1、持续防御新兴威胁
2、可拓展的应用安全
3、细粒度身份和访问管理
梭子鱼下一代防火墙F系列
梭子鱼下一代防火墙F系列是梭子鱼防火墙的云时代。它将先进的下一代防火墙、链路平衡和 WAN 优化技术整合到一个能够进行内部部署、云和虚拟部署的易于管理的设备中。F系列允许组织和托管服务提供商安全地启用远程 Internet 分支,而无需回程流量。

下一代防火墙为公/私有云提供:
1、安全的访问 AWS
2、完整应用控制
3、智能流量管理
4、细粒度安全策略管理

梭子鱼始终为用户在云环境下所运行、建立的应用或网络提供企业级安全解决方案和服务。
企业迁移至云端面临的安全、隐私及合规问题如何解决?梭子鱼如何利用 Web 防火墙化解企业数据迁移至云端难题?答案尽在8月22日14:00由OTPUB举行的“梭子鱼云安全解决方案”线上直播活动。
 
点击后方字体进入直播间:“梭子鱼云安全解决方案

OVM免费虚拟化管理平台

workingmom 发表了文章 • 2 个评论 • 39 次浏览 • 5 天前 • 来自相关话题

OVM作为完全免费、公益的一款产品,不仅拥有商业软件同样的稳定性、易用性、高性能,而且还拥有开源软件一样的开放性、可扩展性。面向中小型虚拟化环境,打造简单易用的虚拟化管理平台。让零基础的用户在几个小时内可以部署、使用自己的虚拟化系统。

OVM从设计之初就决定要做一款完全符合国人使用习惯和特点的“新国货”Iaas产品。OVM产品架构的设计严格按照商业产品架构的高标准要求,始终把产品的稳定性、易用性、可扩展性,以及产品的高性能放在第一位。OVM采用分布式、松耦合的模块化架构,分布式特点可以规避单点故障,松耦合的模块化特点让产品在扩展性方面不受任何限制。

产品理念

目前市场上一些比较成熟的开源产品,发现这些产品大多是有国外开发者主导的社区产品,既然这些开源产品是国外开发者主导的,那么这些产品里面就肯定没有太多中国元素,国内的企业要想使用这些产品,首页要对其中文化,其二还要花费相当多的时间来苦读英文文档来学习这些产品;另外我们发现目前市场上的这类开源产品更加偏向于拥有大规模数据中心的企业采用,中小企业用起来有些大材小用了。一般中小企业拥有的数据中心规模并不大,运维团队一般也比较小,对于Openstack、Cloudstack这些产品的确不适合这类中小企业使用。另外还有一个严重的问题就是,在使用开源产品过程中,如果遇到Bug或者重大安全隐患,中小企业并不具备解决问题的能力,那么对于他们来说只能等待开源社区推出Bug补丁包。基于以上的原因,我们决定筹备一个团队开发OVM产品,OVM定位为一个企业级的虚拟化管理平台,完全基于国内企业特点开发,更多的关注中小企业用户的产品需求,OVM想要带给用户的是一个稳定、简单、易用、易扩展的企业级Iaas产品。

OVM架构设计

OVM采用分布式、松耦合的模块化插件架构,分布式特点可以使管理平台规避单点故障,达到业务持续高可用,松耦合的模块化特点让产品在后期的扩展性方面不受任何限制,使其向下可以兼容数据中心所有硬件(通过OVM标准的Rest API接口),向上可以实现插件式的工作流引擎、计费引擎、报表引擎、桌面云引擎和自动化运维引擎。

OVM产品目前由三大组件、七大模块组成。其中三大组件分别为OVMUI、OVMAPI和OVM数据中心组件,OVMUI提供WEB自服务界面,OVMAPI负责UI和数据中心组件之间的交互,OVM数据中心组件分别提供不同的功能。七大模块分别负责不同的功能实现,和三大组件之间分别交互。下图所示是OVM的总体架构图,体现了OVM三大组件与七大模块之间相辅相成的关系,由于每个模块各司其职,即使单个模块出现了故障也只是影响到该模块功能的使用,而不会影响平台整体使用。

易用性

OVM的易用性首先体现在安装部署方面。传统的开源软件安装部署相信对于运维人员来说不会陌生,他们大多只会提供安装包和简单的安装文档,而这些安装过程大多会涉及到数据库、redis、rabbitmq、ruby等环境的配置,这些环境的配置也要求运维人员必须先去熟悉这些相关软件的安装部署,毕竟一步配置错误就会导致整体的安装部署失败,整个安装部署少则也需要2-3天时间才可搞定,多则需要1-2周,复杂的安装部署过程让运维人员疲惫不堪。

OVM安装部署全部(包括管理平台和计算节点)采用一键式的ISO安装部署,整个安装过程就像是在安装一个Centos操作系统一样的简单,只用花费10-20分钟的过程就可以完成OVM的安装部署,极大的方便了运维人员,为他们省去了很多的宝贵时间。因为我们觉得真正易用的软件不会在安装部署上让运维人员为难,OVM要做的就是即使是一个刚进入运维行业的新人,通过OVM提供的iso镜像也可在1小时内完成整个产品的安装部署。

OVM的易用性其次还体现在升级方面。对于一个产品来说,迭代升级是必然的事情,因为一个产品总是要向前发展的,OVM在设计之初就在考虑如何可以让用户不费吹灰之力就可以升级使用中的版本到最新版本。经过我们OVM团队多次的讨论,最终将升级与UI无缝结合,用户只用点击WEB管理平台中的一键升级按钮就可轻松实现版本的快速升级,整个升级过程用户几乎感知不到,丝毫不会影响到用户业务的运行。

稳定性、可扩展性

OVM从架构设计之初就充分考虑到产品的稳定性,把产品的稳定放在第一位。因为作为一款Iaas虚拟化管理软件,其本身不仅仅是一个软件,而是连接用户数据中心的中枢(包括物理机、存储、网络、防火墙、灾备等)。在架构设计上,OVM分别参考了同行业开源软件、商业软件的产品架构,作为一款Iaas软件首先要保证产品无单点故障,即管理平台高可用;其次支持分布式部署,将不可预估因素造成的损失降到最小。因此OVM架构设计之一就是分布式、插件式,分布式和插件式的特点可以允许用户将不同的模块和服务,既可以部署在同一台Server上面,也可以将其分开部署在多台Server上,大大了提高了部署的灵活性,同时也可将单点故障的风险降到最小。另外OVM也引入了Zookeeper、Pacemaker等软件来为OVM提供高可用,避免单点故障的发生。此外,OVM的每个版本均经过严格的内测——OVM核心测试团队测试——市场公测——正式版发布,每一个环节我们都严把质量关,将稳定性自始至终贯穿到OVM的每个环节。

分布式和插件式的特点也为OVM的扩展提供了无限大的可能。模块化的插件式架构允许用户根据自己的需求来定制自己所需的模块,毕竟不同行业的用户还是存在不少差异的,即使是相同行业不同企业的用户也是会有所差距的,此时每个用户都可能会有自己的不同需求,获益于OVM插件式的架构,用户只需要根据自己的需求增加不同的模块来实现自己所需的功能就可以,可谓是真正的无限扩展,另外OVM完善的API可以助力用户、商业软件生产商集成第三方软件到OVM平台。比如IDC运营商想要的是一个公有云门户对外提供有偿服务,那么就可以根据自己的需要增加一个公有云模块到OVM平台,一般企业用户想要的是一个私有云,那么可以直接使用OVM轻松构建自己的私有云平台,而政府、事业单位、以及大规模企业则想要的是一个混合云环境,因为这类单位既有自己内部的高保密业务,也有对外提供服务的公有云业务,那么此类单位则可以使用OVM的API借口对接阿里云、腾讯云、亚马逊云、Openstack等,实现自己的混合办公需求。

高效

高效是检验一个平台设计是否优秀的关键。大家都希望管理平台能为自己的工作带来高效率,这也是选择使用一个平台的初衷,OVM设计之初就将平台的高效性视为关键,整体采用全异步、无等待、无锁架构来确保平台的每个任务都是独立执行,即使同时有存储任务、网络任务、虚拟机任务等都在执行也互不干扰,从此避免了多任务同时执行带来的阻塞问题。另外OVM全异步架构也可以为一些批量任务的执行带来高效率,比如虚拟机的批量创建、监控数据的采集、节点状态的检测等,这些任务都可以为用户节省大量的时间,全异步架构说简单点就是各干各的事情,极大的提高了完成工作的效率。OVM无锁、无等待架构既保证了高并发,也兼顾了整体的性能。

功能特点

1、一站式自服务门户

OVM提供了一个完整的门户,单一控制台管理全球基础设施,利用OVMAPI,自助创建虚拟企业租户、虚拟数据中心的分租户和虚拟应用程序,完全自定义“快速”的实施,并提供一个简单的服务目录。门户还支持可选的审批工作流,包括完整的电子邮件集成的”一键式”管理。

2、基于角色的多租户权限

基于角色的访问控制提供可定义无限数量的独立用户角色,并指定权限到任意组合,选择从一个全局的范围或局部(虚拟企业、数据中心、虚拟数据中心)的范围,提供了无限的细粒度用户权限控制。集成LDAP,允许企业通过LDAP或Active Directory完全管理OVM用户。

3、云应用商店平台

OVM提供了一个基于Web的最终用户的门户网站,企业可以建立一个服务目录,只需在目录中点击一下按钮,即能以预配置虚拟设备的形式部署和使用多层应用,包括虚拟机、操作系统映像和其他介质,也可以从移动设备如iphone和ipad。可建立公共、共享和私有库,允许建立企业私有标准或预定义镜像库。允许把复杂的多层应用程序融合在一个易用的用户界面,只需从镜像库拖拽单个虚拟机,自定义资源,一键多批VM部署。

4、网络

OVM管理两种网络:

内部网络OVM默认网络。OVM完全可以管理这些网络,用户也可以在自助服务的基础上创建他们自己的私人网络。OVM机架配置定义Vlan可用池,OVM会自动将未使用的 VLAN 分配给一个新的内部网络。内部网络适用于OVM云不提供对外部通信的状况。允许用户VM在同一虚拟数据中心互相沟通。

外部网络外部网络允许基础设施的通信,云管理员必须分配ip地址范围和Vlan,每个外部网络被分配到OVM虚拟企业,可为每个云租客分配VLAN,以连接到外部基础设施。服务提供商可分配每个客户用的VLAN,通过现有的MPLS或VPN无缝连接到云或公司的局域网。

5、存储

OVM支持自动配置多种存储类型,包括NFS,ISCSI,光纤通道等八种存储类型。通过hypervisior,OVM可以提供新的虚拟机到任何存储类型包括光纤通道、iSCSi和NFS。

深度集成的iSCSiOVM现成集成与存储解决方案包括NetApp OnTap、Nexenta和 Linux LVM。集成的iSCSi为用户提供一个完整的自助服务经验,无需管理员便能创建他们自己的卷,并附加到虚拟机或删除这些卷。

存储池及层可以将多个存储设备添加到OVM以分配给存储层中的云用户。存储层能够为多个存储类型提供不同的性能、功能和价格点。允许云用户选择适合他们的要求或其价格点的存储层。iSCSi存储SDK允许第三方创建自己集成的存储插件和额外的存储平台。

6、监控

7×24小时全天候可用性和性能监控,并自动收集一套全面的可用性能指数和利用率的指标,比如CPU,内存,存储,网络I/O,通过高度可定制的的交互式图表,能够快速识别性能趋势,提前布局; 查看全部
OVM作为完全免费、公益的一款产品,不仅拥有商业软件同样的稳定性、易用性、高性能,而且还拥有开源软件一样的开放性、可扩展性。面向中小型虚拟化环境,打造简单易用的虚拟化管理平台。让零基础的用户在几个小时内可以部署、使用自己的虚拟化系统。

OVM从设计之初就决定要做一款完全符合国人使用习惯和特点的“新国货”Iaas产品。OVM产品架构的设计严格按照商业产品架构的高标准要求,始终把产品的稳定性、易用性、可扩展性,以及产品的高性能放在第一位。OVM采用分布式、松耦合的模块化架构,分布式特点可以规避单点故障,松耦合的模块化特点让产品在扩展性方面不受任何限制。

产品理念

目前市场上一些比较成熟的开源产品,发现这些产品大多是有国外开发者主导的社区产品,既然这些开源产品是国外开发者主导的,那么这些产品里面就肯定没有太多中国元素,国内的企业要想使用这些产品,首页要对其中文化,其二还要花费相当多的时间来苦读英文文档来学习这些产品;另外我们发现目前市场上的这类开源产品更加偏向于拥有大规模数据中心的企业采用,中小企业用起来有些大材小用了。一般中小企业拥有的数据中心规模并不大,运维团队一般也比较小,对于Openstack、Cloudstack这些产品的确不适合这类中小企业使用。另外还有一个严重的问题就是,在使用开源产品过程中,如果遇到Bug或者重大安全隐患,中小企业并不具备解决问题的能力,那么对于他们来说只能等待开源社区推出Bug补丁包。基于以上的原因,我们决定筹备一个团队开发OVM产品,OVM定位为一个企业级的虚拟化管理平台,完全基于国内企业特点开发,更多的关注中小企业用户的产品需求,OVM想要带给用户的是一个稳定、简单、易用、易扩展的企业级Iaas产品。

OVM架构设计

OVM采用分布式、松耦合的模块化插件架构,分布式特点可以使管理平台规避单点故障,达到业务持续高可用,松耦合的模块化特点让产品在后期的扩展性方面不受任何限制,使其向下可以兼容数据中心所有硬件(通过OVM标准的Rest API接口),向上可以实现插件式的工作流引擎、计费引擎、报表引擎、桌面云引擎和自动化运维引擎。

OVM产品目前由三大组件、七大模块组成。其中三大组件分别为OVMUI、OVMAPI和OVM数据中心组件,OVMUI提供WEB自服务界面,OVMAPI负责UI和数据中心组件之间的交互,OVM数据中心组件分别提供不同的功能。七大模块分别负责不同的功能实现,和三大组件之间分别交互。下图所示是OVM的总体架构图,体现了OVM三大组件与七大模块之间相辅相成的关系,由于每个模块各司其职,即使单个模块出现了故障也只是影响到该模块功能的使用,而不会影响平台整体使用。

易用性

OVM的易用性首先体现在安装部署方面。传统的开源软件安装部署相信对于运维人员来说不会陌生,他们大多只会提供安装包和简单的安装文档,而这些安装过程大多会涉及到数据库、redis、rabbitmq、ruby等环境的配置,这些环境的配置也要求运维人员必须先去熟悉这些相关软件的安装部署,毕竟一步配置错误就会导致整体的安装部署失败,整个安装部署少则也需要2-3天时间才可搞定,多则需要1-2周,复杂的安装部署过程让运维人员疲惫不堪。

OVM安装部署全部(包括管理平台和计算节点)采用一键式的ISO安装部署,整个安装过程就像是在安装一个Centos操作系统一样的简单,只用花费10-20分钟的过程就可以完成OVM的安装部署,极大的方便了运维人员,为他们省去了很多的宝贵时间。因为我们觉得真正易用的软件不会在安装部署上让运维人员为难,OVM要做的就是即使是一个刚进入运维行业的新人,通过OVM提供的iso镜像也可在1小时内完成整个产品的安装部署。

OVM的易用性其次还体现在升级方面。对于一个产品来说,迭代升级是必然的事情,因为一个产品总是要向前发展的,OVM在设计之初就在考虑如何可以让用户不费吹灰之力就可以升级使用中的版本到最新版本。经过我们OVM团队多次的讨论,最终将升级与UI无缝结合,用户只用点击WEB管理平台中的一键升级按钮就可轻松实现版本的快速升级,整个升级过程用户几乎感知不到,丝毫不会影响到用户业务的运行。

稳定性、可扩展性

OVM从架构设计之初就充分考虑到产品的稳定性,把产品的稳定放在第一位。因为作为一款Iaas虚拟化管理软件,其本身不仅仅是一个软件,而是连接用户数据中心的中枢(包括物理机、存储、网络、防火墙、灾备等)。在架构设计上,OVM分别参考了同行业开源软件、商业软件的产品架构,作为一款Iaas软件首先要保证产品无单点故障,即管理平台高可用;其次支持分布式部署,将不可预估因素造成的损失降到最小。因此OVM架构设计之一就是分布式、插件式,分布式和插件式的特点可以允许用户将不同的模块和服务,既可以部署在同一台Server上面,也可以将其分开部署在多台Server上,大大了提高了部署的灵活性,同时也可将单点故障的风险降到最小。另外OVM也引入了Zookeeper、Pacemaker等软件来为OVM提供高可用,避免单点故障的发生。此外,OVM的每个版本均经过严格的内测——OVM核心测试团队测试——市场公测——正式版发布,每一个环节我们都严把质量关,将稳定性自始至终贯穿到OVM的每个环节。

分布式和插件式的特点也为OVM的扩展提供了无限大的可能。模块化的插件式架构允许用户根据自己的需求来定制自己所需的模块,毕竟不同行业的用户还是存在不少差异的,即使是相同行业不同企业的用户也是会有所差距的,此时每个用户都可能会有自己的不同需求,获益于OVM插件式的架构,用户只需要根据自己的需求增加不同的模块来实现自己所需的功能就可以,可谓是真正的无限扩展,另外OVM完善的API可以助力用户、商业软件生产商集成第三方软件到OVM平台。比如IDC运营商想要的是一个公有云门户对外提供有偿服务,那么就可以根据自己的需要增加一个公有云模块到OVM平台,一般企业用户想要的是一个私有云,那么可以直接使用OVM轻松构建自己的私有云平台,而政府、事业单位、以及大规模企业则想要的是一个混合云环境,因为这类单位既有自己内部的高保密业务,也有对外提供服务的公有云业务,那么此类单位则可以使用OVM的API借口对接阿里云、腾讯云、亚马逊云、Openstack等,实现自己的混合办公需求。

高效

高效是检验一个平台设计是否优秀的关键。大家都希望管理平台能为自己的工作带来高效率,这也是选择使用一个平台的初衷,OVM设计之初就将平台的高效性视为关键,整体采用全异步、无等待、无锁架构来确保平台的每个任务都是独立执行,即使同时有存储任务、网络任务、虚拟机任务等都在执行也互不干扰,从此避免了多任务同时执行带来的阻塞问题。另外OVM全异步架构也可以为一些批量任务的执行带来高效率,比如虚拟机的批量创建、监控数据的采集、节点状态的检测等,这些任务都可以为用户节省大量的时间,全异步架构说简单点就是各干各的事情,极大的提高了完成工作的效率。OVM无锁、无等待架构既保证了高并发,也兼顾了整体的性能。

功能特点

1、一站式自服务门户

OVM提供了一个完整的门户,单一控制台管理全球基础设施,利用OVMAPI,自助创建虚拟企业租户、虚拟数据中心的分租户和虚拟应用程序,完全自定义“快速”的实施,并提供一个简单的服务目录。门户还支持可选的审批工作流,包括完整的电子邮件集成的”一键式”管理。

2、基于角色的多租户权限

基于角色的访问控制提供可定义无限数量的独立用户角色,并指定权限到任意组合,选择从一个全局的范围或局部(虚拟企业、数据中心、虚拟数据中心)的范围,提供了无限的细粒度用户权限控制。集成LDAP,允许企业通过LDAP或Active Directory完全管理OVM用户。

3、云应用商店平台

OVM提供了一个基于Web的最终用户的门户网站,企业可以建立一个服务目录,只需在目录中点击一下按钮,即能以预配置虚拟设备的形式部署和使用多层应用,包括虚拟机、操作系统映像和其他介质,也可以从移动设备如iphone和ipad。可建立公共、共享和私有库,允许建立企业私有标准或预定义镜像库。允许把复杂的多层应用程序融合在一个易用的用户界面,只需从镜像库拖拽单个虚拟机,自定义资源,一键多批VM部署。

4、网络

OVM管理两种网络:

内部网络OVM默认网络。OVM完全可以管理这些网络,用户也可以在自助服务的基础上创建他们自己的私人网络。OVM机架配置定义Vlan可用池,OVM会自动将未使用的 VLAN 分配给一个新的内部网络。内部网络适用于OVM云不提供对外部通信的状况。允许用户VM在同一虚拟数据中心互相沟通。

外部网络外部网络允许基础设施的通信,云管理员必须分配ip地址范围和Vlan,每个外部网络被分配到OVM虚拟企业,可为每个云租客分配VLAN,以连接到外部基础设施。服务提供商可分配每个客户用的VLAN,通过现有的MPLS或VPN无缝连接到云或公司的局域网。

5、存储

OVM支持自动配置多种存储类型,包括NFS,ISCSI,光纤通道等八种存储类型。通过hypervisior,OVM可以提供新的虚拟机到任何存储类型包括光纤通道、iSCSi和NFS。

深度集成的iSCSiOVM现成集成与存储解决方案包括NetApp OnTap、Nexenta和 Linux LVM。集成的iSCSi为用户提供一个完整的自助服务经验,无需管理员便能创建他们自己的卷,并附加到虚拟机或删除这些卷。

存储池及层可以将多个存储设备添加到OVM以分配给存储层中的云用户。存储层能够为多个存储类型提供不同的性能、功能和价格点。允许云用户选择适合他们的要求或其价格点的存储层。iSCSi存储SDK允许第三方创建自己集成的存储插件和额外的存储平台。

6、监控

7×24小时全天候可用性和性能监控,并自动收集一套全面的可用性能指数和利用率的指标,比如CPU,内存,存储,网络I/O,通过高度可定制的的交互式图表,能够快速识别性能趋势,提前布局;

NetSarang旗下XShell和Xmanager多款软件被植入后门

OS小编 发表了文章 • 0 个评论 • 44 次浏览 • 6 天前 • 来自相关话题

近日,境内外多家安全公司爆料称NetSarang旗下Xmanager和Xshell等产品的多个版本被植入后门代码,由于相关软件在国内程序开发和运维人员中被广泛使用,可能导致大量用户服务器账号密码泄露。请及时检查您所使用的版本是否受影响,并采取安全防御措施。
 

影响范围

使用了nssock2.dll 5.0.0.26的版本会受到影响,其中包括:
 Xmanager Enterprise 5.0 Build 1232 Xmanager 5.0 Build 1045 Xshell 5.0 Build 1322 Xshell 5.0 Build 1325 Xftp 5.0 Build 1218 Xlpd 5.0 Build 1220
 

修复方案

 1、从官网下载最新版本进行升级:https://www.netsarang.com/download/software.html  ;
 
2、排查2017年的DNS访问日志,如出现如下子域名相关访问记录,建议修改对应员工使用过Xmanager 、XShell、Xftp等相关的登录账号密码:
vwrcbohspufip.comribotqtonut.comnylalobghyhirgh.comjkvmdmjyfcvkf.combafyvoruzgjitwr.comxmponmzmxkxkh.comtczafklirkl.com
 

漏洞详情

某安全公司发现NetSarang的Xmanager, Xshell, Xftp, Xlpd等产品中,发布的nssock2.dll模块中存在恶意代码远程漏洞,存在后门的XShell等程序会在启动时发起大量请求DNS域名请求,并根据使用者系统时间生成不同的请求链接。有媒体报道,带后门的Xshell会向服务器传输敏感信息。
 
参考链接:https://www.netsarang.com/news/security_exploit_in_july_18_2017_build.html  。 查看全部
近日,境内外多家安全公司爆料称NetSarang旗下Xmanager和Xshell等产品的多个版本被植入后门代码,由于相关软件在国内程序开发和运维人员中被广泛使用,可能导致大量用户服务器账号密码泄露。请及时检查您所使用的版本是否受影响,并采取安全防御措施。
 


影响范围


使用了nssock2.dll 5.0.0.26的版本会受到影响,其中包括:
  •  Xmanager Enterprise 5.0 Build 1232
  •  Xmanager 5.0 Build 1045
  •  Xshell 5.0 Build 1322
  •  Xshell 5.0 Build 1325
  •  Xftp 5.0 Build 1218
  •  Xlpd 5.0 Build 1220

 


修复方案


 1、从官网下载最新版本进行升级:https://www.netsarang.com/download/software.html  ;
 
2、排查2017年的DNS访问日志,如出现如下子域名相关访问记录,建议修改对应员工使用过Xmanager 、XShell、Xftp等相关的登录账号密码:
  • vwrcbohspufip.com
  • ribotqtonut.com
  • nylalobghyhirgh.com
  • jkvmdmjyfcvkf.com
  • bafyvoruzgjitwr.com
  • xmponmzmxkxkh.com
  • tczafklirkl.com

 


漏洞详情


某安全公司发现NetSarang的Xmanager, Xshell, Xftp, Xlpd等产品中,发布的nssock2.dll模块中存在恶意代码远程漏洞,存在后门的XShell等程序会在启动时发起大量请求DNS域名请求,并根据使用者系统时间生成不同的请求链接。有媒体报道,带后门的Xshell会向服务器传输敏感信息。
 
参考链接:https://www.netsarang.com/news/security_exploit_in_july_18_2017_build.html  。

Convertlab——企业营销的数字化转型

OT学习平台 发表了文章 • 0 个评论 • 41 次浏览 • 2017-08-08 15:15 • 来自相关话题

说到营销科技(MarTech)很多人可能都不太熟悉,但你一定了解,谷歌90%的收入来自广告、北美企业每年营收的12%用于营销和广告。而今年,企业的营销部门在信息技术方面的投入,即将超过传统企业信息化投入的总和,营销科技蕴含着巨大的市场空间。
虽然数字营销在国内尚处早期,以单点解决方案为主,但Convertlab跨过单点解决方案,直接提供平台服务。
Convertlab为企业提供创新的数字营销平台——DM Hub。该平台允许企业的数字营销部门在一个开放集成的平台上发掘、培育和连接客户,大幅提升各项转化率;打通企业的营销触点,对数据采集并处理,针对不同触点提供相应的内容交互能力,允许企业对客户旅程进行个性化设计和自动化执行,通过实时的数据分析形成营销闭环。
Convertlab是一款颠覆传统营销思维和运行模式的产品,是企业开展数字化营销时信息交互的枢纽,这也正是DM Hub的寓意和使命。
DM Hub 它能够将一家企业包括数字广告在内的全渠道数据来源进行梳理整合,对每个数据进行分析,将之进行归类分组,从中挖掘出指向企业不同营销阶段的客户:潜在客户、意愿客户、购买客户、忠诚客户等,并采用智能化、人性化的方式将企业市场部设计的对策营销方案传达给各个目标客户。
想要了解什么是营销科技(MarTech)?数字营销又是如何成为了企业发展的焦点?敬请关注8月10日由OTPUB举办的“企业营销的数字化转型”线上直播活动,与您分享新时代的数字变革之路。
点击预约观看直播:“企业营销的数字化转型” 查看全部
说到营销科技(MarTech)很多人可能都不太熟悉,但你一定了解,谷歌90%的收入来自广告、北美企业每年营收的12%用于营销和广告。而今年,企业的营销部门在信息技术方面的投入,即将超过传统企业信息化投入的总和,营销科技蕴含着巨大的市场空间。
虽然数字营销在国内尚处早期,以单点解决方案为主,但Convertlab跨过单点解决方案,直接提供平台服务。
Convertlab为企业提供创新的数字营销平台——DM Hub。该平台允许企业的数字营销部门在一个开放集成的平台上发掘、培育和连接客户,大幅提升各项转化率;打通企业的营销触点,对数据采集并处理,针对不同触点提供相应的内容交互能力,允许企业对客户旅程进行个性化设计和自动化执行,通过实时的数据分析形成营销闭环。
Convertlab是一款颠覆传统营销思维和运行模式的产品,是企业开展数字化营销时信息交互的枢纽,这也正是DM Hub的寓意和使命。
DM Hub 它能够将一家企业包括数字广告在内的全渠道数据来源进行梳理整合,对每个数据进行分析,将之进行归类分组,从中挖掘出指向企业不同营销阶段的客户:潜在客户、意愿客户、购买客户、忠诚客户等,并采用智能化、人性化的方式将企业市场部设计的对策营销方案传达给各个目标客户。
想要了解什么是营销科技(MarTech)?数字营销又是如何成为了企业发展的焦点?敬请关注8月10日由OTPUB举办的“企业营销的数字化转型”线上直播活动,与您分享新时代的数字变革之路。
点击预约观看直播:“企业营销的数字化转型

​如何基于VMWARE应用环境实现备份恢复

OT学习平台 发表了文章 • 0 个评论 • 39 次浏览 • 2017-08-04 16:10 • 来自相关话题

随着VMWARE虚拟机的应用越发广泛,如何基于VMWARE虚拟机实现备份恢复的话题也越来越受到大家的关注,包括系统层的,数据库层的,以及应用层的(或者应用集群环境)需要备份或者恢复。而基于VMWARE应用环境的备份恢复,基本都是通过一个模式来实现:备份软硬件通过Proxy备份恢复。
不管是CV、Networker、NBU等主流备份软件,还是像Veeam、Avamar这种软硬件结合的产品,都是通过架设Proxy对接VMWARE来实现备份。
对于VMWARE上VM,IMAGE级别备份恢复,IMAGE TO FILE-LEVEL恢复,基本主流软硬件表现基本不相上下。
对于VMWARE上的数据库、文件系统还是应用的备份恢复,与备份软硬件备份恢复物理机上的数据库、文件系统还是应用如出一辙。
关于VMWARE备份恢复的解决思路,(如果项目允许的情况下)可以从下面几方面考虑:
1,备份恢复并行能力
通常Proxy的并行能力都是有限的,很多时候建设初期一台Proxy能够胜任备份需求,后续VMWARE系统迅猛增长,Proxy就无法承受了备份压力。因此,考虑VMWARE的备份产品时一定要重点考虑其并行效率。
关于提高并行效率,方式很多,例如AVAMAR这种基于强大硬件+消重算法的产品,将备份恢复的压力转移到备份产品上,其自身支持多节点部署;例如VEEAM这种软件产品,通过和VMWARE深度结合,加上自己特有的智能算法技术,依靠自身类似VM扩展能力,也能大幅提高并行能力。
2,备份恢复负载均衡与集群结构
在备份系统上,备份系统的负载均衡也尤为重要,一旦出现BUSY-IDLE的情况,影响也是连带的传递的。在虚拟化备份上,随着生产系统的扩展,VMWARE规模必然越来越大,扩展速度也越来越快,若备份系统无法实现良好的负载均衡,那最终只能越来越慢。同时备份系统最好支持集群结构,一方面保证自身的扩展能力,另一方面也能提供整体负载能力。
3,更好更多的特性
产品更好更多的特性会带来很多便捷。虚拟化备份产品的新特性,也带来一些改变,需要虚拟机上的数据不一定需要恢复VM,而直接通过备份数据虚拟出VM然后读取需要的生产数据;生产VM能迅速复制、虚拟到VLAB里进行测试,不再需要一台一台部署……
虽然说了这么多,VMWARE备份系统建设成什么样,最重要的决定因素还是---项目资金,并没有一个万能通用的方案,只有项目资金能承受、性能够用的折中解决方案。

更多关于VMWARE虚拟机资讯请登录:www.otpub.com 查看全部
随着VMWARE虚拟机的应用越发广泛,如何基于VMWARE虚拟机实现备份恢复的话题也越来越受到大家的关注,包括系统层的,数据库层的,以及应用层的(或者应用集群环境)需要备份或者恢复。而基于VMWARE应用环境的备份恢复,基本都是通过一个模式来实现:备份软硬件通过Proxy备份恢复。
不管是CV、Networker、NBU等主流备份软件,还是像Veeam、Avamar这种软硬件结合的产品,都是通过架设Proxy对接VMWARE来实现备份。
对于VMWARE上VM,IMAGE级别备份恢复,IMAGE TO FILE-LEVEL恢复,基本主流软硬件表现基本不相上下。
对于VMWARE上的数据库、文件系统还是应用的备份恢复,与备份软硬件备份恢复物理机上的数据库、文件系统还是应用如出一辙。
关于VMWARE备份恢复的解决思路,(如果项目允许的情况下)可以从下面几方面考虑:
1,备份恢复并行能力
通常Proxy的并行能力都是有限的,很多时候建设初期一台Proxy能够胜任备份需求,后续VMWARE系统迅猛增长,Proxy就无法承受了备份压力。因此,考虑VMWARE的备份产品时一定要重点考虑其并行效率。
关于提高并行效率,方式很多,例如AVAMAR这种基于强大硬件+消重算法的产品,将备份恢复的压力转移到备份产品上,其自身支持多节点部署;例如VEEAM这种软件产品,通过和VMWARE深度结合,加上自己特有的智能算法技术,依靠自身类似VM扩展能力,也能大幅提高并行能力。
2,备份恢复负载均衡与集群结构
在备份系统上,备份系统的负载均衡也尤为重要,一旦出现BUSY-IDLE的情况,影响也是连带的传递的。在虚拟化备份上,随着生产系统的扩展,VMWARE规模必然越来越大,扩展速度也越来越快,若备份系统无法实现良好的负载均衡,那最终只能越来越慢。同时备份系统最好支持集群结构,一方面保证自身的扩展能力,另一方面也能提供整体负载能力。
3,更好更多的特性
产品更好更多的特性会带来很多便捷。虚拟化备份产品的新特性,也带来一些改变,需要虚拟机上的数据不一定需要恢复VM,而直接通过备份数据虚拟出VM然后读取需要的生产数据;生产VM能迅速复制、虚拟到VLAB里进行测试,不再需要一台一台部署……
虽然说了这么多,VMWARE备份系统建设成什么样,最重要的决定因素还是---项目资金,并没有一个万能通用的方案,只有项目资金能承受、性能够用的折中解决方案。

更多关于VMWARE虚拟机资讯请登录:www.otpub.com

如何保证SDDC的安全问题不容忽视

OT学习平台 发表了文章 • 0 个评论 • 39 次浏览 • 2017-08-03 16:17 • 来自相关话题

软件定义数据中心(SDDC)是根据硬件和软件的抽象而提出的一种将数据中心作为由软件层控制和管理的大量物理和虚拟资源的全新的方式。然而,很多企业在实际实施SDDC的过程中或多或少的遇到了一些安全问题。




使用SDDC虚拟化服务器、网络和存储,安全是阻止企业使用完全成熟的软件定义数据中心的主要障碍。虽然SDDC的发展趋势被普遍看好,例如增加采用率和更快的部署将显著提高采用率,但软件定义数据中心将面临更多地数据泄露问题。
向完全虚拟化的基础设施的过渡是渐进的,没有人期望能在短期内实现虚拟化。软件定义数据中心(SDDC)、软件定义基础设施(SDI)、软件定义网络(SDN)和软件定义存储(SDS)都是企业的长期战略目标。然而大多数的企业将使用自上而下的方法实施,即从SDDC和SDI开始,而不是自下而上的从SDN和SDS开始。
根据Gartner对2018年的预测,这种大规模部署SDDC也可能引起广发的数据安全管理计划,20%的企业认为这是非常有必要的,可以有效防止数据泄露。TMC的执行编辑Paula Bernier在最近的一篇文章中指出,根据Gartner的预测,到2020年SDDC将被认为是实现DevOps方法和混合云模型的全球2000家企业中75%的企业的需求。
  查看全部
软件定义数据中心(SDDC)是根据硬件和软件的抽象而提出的一种将数据中心作为由软件层控制和管理的大量物理和虚拟资源的全新的方式。然而,很多企业在实际实施SDDC的过程中或多或少的遇到了一些安全问题。
SDDC.jpg

使用SDDC虚拟化服务器、网络和存储,安全是阻止企业使用完全成熟的软件定义数据中心的主要障碍。虽然SDDC的发展趋势被普遍看好,例如增加采用率和更快的部署将显著提高采用率,但软件定义数据中心将面临更多地数据泄露问题。
向完全虚拟化的基础设施的过渡是渐进的,没有人期望能在短期内实现虚拟化。软件定义数据中心(SDDC)、软件定义基础设施(SDI)、软件定义网络(SDN)和软件定义存储(SDS)都是企业的长期战略目标。然而大多数的企业将使用自上而下的方法实施,即从SDDC和SDI开始,而不是自下而上的从SDN和SDS开始。
根据Gartner对2018年的预测,这种大规模部署SDDC也可能引起广发的数据安全管理计划,20%的企业认为这是非常有必要的,可以有效防止数据泄露。TMC的执行编辑Paula Bernier在最近的一篇文章中指出,根据Gartner的预测,到2020年SDDC将被认为是实现DevOps方法和混合云模型的全球2000家企业中75%的企业的需求。
 

云迁移过程中如何保证数据安全性

OT学习平台 发表了文章 • 0 个评论 • 37 次浏览 • 2017-08-02 16:48 • 来自相关话题

由于成本的降低和业务的便捷性,越来越多的企业将自己的IT系统迁移到云端,而在迁移的过程中,从基础设施的部署到云平台的挑战都十分的具有挑战性,在迁移过程中,企业IT管理着最需要重视的一个问题就是:如何保证云迁移的安全,减少迁移风险。
为了降低向云端迁移的风险,保证数据的安全性,OTPUB认为企业可以通过下面三种方法着手策划数据向云的迁移。 
第一种方法是指将本地硬件或虚拟机上的数据迁移到与之相匹配的云上。该解决方案缺乏弹性,该方案通常是为了满足峰值负载而过度供应,这就会导致了云计算成本的增加,因此这种方法作为一种短期解决措施会更佳。
第二种方法是指对企业的应用技术进行重新架构。数据迁移需要花费一定时间,而且具有较强的强制性,而对企业技术进行重新架构反而会获得更好的性能。的确,重新对应用技术的选择进行评估也不失为一种更好的选择。因为企业可能会将一些解决方案从使用昂贵的商业软件转向开源产品上来。
第三种方法是搁置单一的本地应用程序,将程序内部数据迁移到SaaS。这种方法既实现了业务的现代化标准,又将基础架构和服务的运营负担转嫁给了SaaS提供商。
以上三种方法可以让企业在最佳情况下完成数据由本地向云端的迁移,同时最大限度的保证了迁移过程中数据的安全性。 查看全部
由于成本的降低和业务的便捷性,越来越多的企业将自己的IT系统迁移到云端,而在迁移的过程中,从基础设施的部署到云平台的挑战都十分的具有挑战性,在迁移过程中,企业IT管理着最需要重视的一个问题就是:如何保证云迁移的安全,减少迁移风险。
为了降低向云端迁移的风险,保证数据的安全性,OTPUB认为企业可以通过下面三种方法着手策划数据向云的迁移。 
第一种方法是指将本地硬件或虚拟机上的数据迁移到与之相匹配的云上。该解决方案缺乏弹性,该方案通常是为了满足峰值负载而过度供应,这就会导致了云计算成本的增加,因此这种方法作为一种短期解决措施会更佳。
第二种方法是指对企业的应用技术进行重新架构。数据迁移需要花费一定时间,而且具有较强的强制性,而对企业技术进行重新架构反而会获得更好的性能。的确,重新对应用技术的选择进行评估也不失为一种更好的选择。因为企业可能会将一些解决方案从使用昂贵的商业软件转向开源产品上来。
第三种方法是搁置单一的本地应用程序,将程序内部数据迁移到SaaS。这种方法既实现了业务的现代化标准,又将基础架构和服务的运营负担转嫁给了SaaS提供商。
以上三种方法可以让企业在最佳情况下完成数据由本地向云端的迁移,同时最大限度的保证了迁移过程中数据的安全性。