diff --git a/DB.md b/DB.md
index 7235c9b..7fd57da 100644
--- a/DB.md
+++ b/DB.md
@@ -4,7 +4,7 @@
### 数据库
-数据库:DataBase,简称 DB,用于存储和管理数据的仓库,它的存储空间很大,可以存放百万上亿条数据。
+数据库:DataBase,简称 DB,存储和管理数据的仓库
数据库的优势:
@@ -22,19 +22,18 @@
- 数据表
- 数据库最重要的组成部分之一
- - 它由纵向的列和横向的行组成(类似 excel 表格)
+ - 由纵向的列和横向的行组成(类似 excel 表格)
- 可以指定列名、数据类型、约束等
- 一个表中可以存储多条数据
- 数据:想要永久化存储的数据
-
参考视频:https://www.bilibili.com/video/BV1zJ411M7TB
-参考文章:https://time.geekbang.org/column/intro/139
+参考专栏:https://time.geekbang.org/column/intro/139
参考书籍:https://book.douban.com/subject/35231266/
@@ -46,13 +45,11 @@
### MySQL
-MySQL 数据库是一个最流行的关系型数据库管理系统之一
-
-关系型数据库是将数据保存在不同的数据表中,而且表与表之间可以有关联关系,提高了灵活性。
+MySQL 数据库是一个最流行的关系型数据库管理系统之一,关系型数据库是将数据保存在不同的数据表中,而且表与表之间可以有关联关系,提高了灵活性
缺点:数据存储在磁盘中,导致读写性能差,而且数据关系复杂,扩展性差
-MySQL 所使用的 SQL 语句是用于访问数据库最常用的标准化语言。
+MySQL 所使用的 SQL 语句是用于访问数据库最常用的标准化语言
MySQL 配置:
@@ -118,160 +115,56 @@ MySQL 配置:
cd /etc/mysql/mysql.conf.d
sudo chmod 666 mysqld.cnf
vim mysqld.cnf
- #bind-address = 127.0.0.1注释该行
+ # bind-address = 127.0.0.1注释该行
```
* 关闭 Linux 防火墙
```shell
systemctl stop firewalld.service
- 放行3306端口
+ # 放行3306端口
```
-***
-
-
-
-### 常用工具
-
-#### mysql
-
-mysql 不是指 mysql 服务,而是指 mysql 的客户端工具
-
-```sh
-mysql [options] [database]
-```
-
-* -u --user=name:指定用户名
-* -p --password[=name]:指定密码
-* -h --host=name:指定服务器IP或域名
-* -P --port=#:指定连接端口
-* -e --execute=name:执行SQL语句并退出,在控制台执行SQL语句,而不用连接到数据库执行
-
-示例:
-
-```sh
-mysql -h 127.0.0.1 -P 3306 -u root -p
-mysql -uroot -p2143 db01 -e "select * from tb_book";
-```
-
-
-
-***
-
-
-
-#### admin
-
-mysqladmin 是一个执行管理操作的客户端程序,用来检查服务器的配置和当前状态、创建并删除数据库等
-
-通过 `mysqladmin --help` 指令查看帮助文档
-
-```sh
-mysqladmin -uroot -p2143 create 'test01';
-```
-
-
-
-***
-
-
-
-#### binlog
-
-服务器生成的日志文件以二进制格式保存,如果需要检查这些文本,就要使用 mysqlbinlog 日志管理工具
-
-```sh
-mysqlbinlog [options] log-files1 log-files2 ...
-```
-
-* -d --database=name:指定数据库名称,只列出指定的数据库相关操作
-
-* -o --offset=#:忽略掉日志中的前n行命令。
-
-* -r --result-file=name:将输出的文本格式日志输出到指定文件。
-
-* -s --short-form:显示简单格式, 省略掉一些信息。
-
-* --start-datatime=date1 --stop-datetime=date2:指定日期间隔内的所有日志。
-
-* --start-position=pos1 --stop-position=pos2:指定位置间隔内的所有日志。
-
-
-
-***
-
-
-
-#### dump
-
-##### 命令介绍
-
-mysqldump 客户端工具用来备份数据库或在不同数据库之间进行数据迁移,备份内容包含创建表,及插入表的SQL语句
-
-```sh
-mysqldump [options] db_name [tables]
-mysqldump [options] --database/-B db1 [db2 db3...]
-mysqldump [options] --all-databases/-A
-```
-
-连接选项:
-
-* -u --user=name:指定用户名
-* -p --password[=name]:指定密码
-* -h --host=name:指定服务器IP或域名
-* -P --port=#:指定连接端口
-
-输出内容选项:
-
-* --add-drop-database:在每个数据库创建语句前加上 Drop database 语句
-* --add-drop-table:在每个表创建语句前加上 Drop table 语句 , 默认开启 ; 不开启 (--skip-add-drop-table)
-* -n --no-create-db:不包含数据库的创建语句
-* -t --no-create-info:不包含数据表的创建语句
-* -d --no-data:不包含数据
-* -T, --tab=name:自动生成两个文件:一个.sql文件,创建表结构的语句;一个.txt文件,数据文件,相当于select into outfile
-
-示例:
-
-```sh
-mysqldump -uroot -p2143 db01 tb_book --add-drop-database --add-drop-table > a
-mysqldump -uroot -p2143 -T /tmp test city
-```
-
***
-##### 数据备份
-
-命令行方式:
-
-* 备份命令:mysqldump -u root -p 数据库名称 > 文件保存路径
-
-* 恢复
- 1. 登录MySQL数据库:`mysql -u root p`
- 2. 删除已经备份的数据库
- 3. 重新创建与备份数据库名称相同的数据库
- 4. 使用该数据库
- 5. 导入文件执行:`source 备份文件全路径`
-
-
-图形化界面:
-* 备份
+## 体系架构
- 
+### 整体架构
-* 恢复
+体系结构详解:
- 
+* 第一层:网络连接层
+ * 一些客户端和链接服务,包含本地 Socket 通信和大多数基于客户端/服务端工具实现的 TCP/IP 通信,主要完成一些类似于连接处理、授权认证、及相关的安全方案
+ * 在该层上引入了**连接池** Connection Pool 的概念,管理缓冲用户连接,线程处理等需要缓存的需求
+ * 在该层上实现基于 SSL 的安全链接,服务器也会为安全接入的每个客户端验证它所具有的操作权限
+- 第二层:核心服务层
+ * 查询缓存、分析器、优化器、执行器等,涵盖 MySQL 的大多数核心服务功能,所有的内置函数(日期、数学、加密函数等)
+ * Management Serveices & Utilities:系统管理和控制工具,备份、安全、复制、集群等
+ * SQL Interface:接受用户的 SQL 命令,并且返回用户需要查询的结果
+ * Parser:SQL 语句分析器
+ * Optimizer:查询优化器
+ * Caches & Buffers:查询缓存,服务器会查询内部的缓存,如果缓存空间足够大,可以在大量读操作的环境中提升系统性能
+ * 所有**跨存储引擎的功能**在这一层实现,如存储过程、触发器、视图等
+ * 在该层服务器会解析查询并创建相应的内部解析树,并对其完成相应的优化如确定表的查询顺序,是否利用索引等, 最后生成相应的执行操作
+ * MySQL 中服务器层不管理事务,**事务是由存储引擎实现的**
+- 第三层:存储引擎层
+ - Pluggable Storage Engines:存储引擎接口,MySQL 区别于其他数据库的重要特点就是其存储引擎的架构模式是插件式的(存储引擎是基于表的,而不是数据库)
+ - 存储引擎**真正的负责了 MySQL 中数据的存储和提取**,服务器通过 API 和存储引擎进行通信
+ - 不同的存储引擎具有不同的功能,共用一个 Server 层,可以根据开发的需要,来选取合适的存储引擎
+- 第四层:系统文件层
+ - 数据存储层,主要是将数据存储在文件系统之上,并完成与存储引擎的交互
+ - File System:文件系统,保存配置文件、数据文件、日志文件、错误文件、二进制文件等
+
@@ -279,25 +172,19 @@ mysqldump -uroot -p2143 -T /tmp test city
-#### import
+### 建立连接
-mysqlimport 是客户端数据导入工具,用来导入mysqldump 加 -T 参数后导出的文本文件
+#### 连接器
-```sh
-mysqlimport [options] db_name textfile1 [textfile2...]
-```
+池化技术:对于访问数据库来说,建立连接的代价是比较昂贵的,因为每个连接对应一个用来交互的线程,频繁的创建关闭连接比较耗费资源,有必要建立数据库连接池,以提高访问的性能
-示例:
+连接建立 TCP 以后需要做**权限验证**,验证成功后可以进行执行 SQL。如果这时管理员账号对这个用户的权限做了修改,也不会影响已经存在连接的权限,只有再新建的连接才会使用新的权限设置
-```sh
-mysqlimport -uroot -p2143 test /tmp/city.txt
-```
+MySQL 服务器可以同时和多个客户端进行交互,所以要保证每个连接会话的隔离性(事务机制部分详解)
-导入 sql 文件,可以使用 MySQL 中的 source 指令 :
+整体的执行流程:
-```mysql
-source 文件全路径
-```
+
@@ -305,87 +192,43 @@ source 文件全路径
-#### show
-
-mysqlshow 客户端对象查找工具,用来很快地查找存在哪些数据库、数据库中的表、表中的列或者索引
-
-```sh
-mysqlshow [options] [db_name [table_name [col_name]]]
-```
-
-* --count:显示数据库及表的统计信息(数据库,表 均可以不指定)
-
-* -i:显示指定数据库或者指定表的状态信息
-
-示例:
-
-```sh
-#查询每个数据库的表的数量及表中记录的数量
-mysqlshow -uroot -p1234 --count
-#查询test库中每个表中的字段书,及行数
-mysqlshow -uroot -p1234 test --count
-#查询test库中book表的详细情况
-mysqlshow -uroot -p1234 test book --count
-```
-
-
-
-
-
-***
+#### 权限信息
+grant 语句会同时修改数据表和内存,判断权限的时候使用的是内存数据
+flush privileges 语句本身会用数据表(磁盘)的数据重建一份内存权限数据,所以在权限数据可能存在不一致的情况下使用,这种不一致往往是由于直接用 DML 语句操作系统权限表导致的,所以尽量不要使用这类语句
+
-## 体系结构
-### 整体架构
-体系结构详解:
-* 第一层:网络连接层
- * 一些客户端和链接服务,包含本地 socket 通信和大多数基于客户端/服务端工具实现的 TCP/IP 通信,主要完成一些类似于连接处理、授权认证、及相关的安全方案
- * 在该层上引入了连接池 Connection Pool 的概念,管理缓冲用户连接,线程处理等需要缓存的需求
- * 在该层上实现基于 SSL 的安全链接,服务器也会为安全接入的每个客户端验证它所具有的操作权限
-- 第二层:核心服务层
- * 查询缓存、分析器、优化器、执行器等,涵盖 MySQL 的大多数核心服务功能,所有的内置函数(日期、数学、加密函数等)
- * Management Serveices & Utilities:系统管理和控制工具,备份、安全、复制、集群等
- * SQL Interface:接受用户的 SQL 命令,并且返回用户需要查询的结果
- * Parser:SQL 语句分析器
- * Optimizer:查询优化器
- * Caches & Buffers:查询缓存,服务器会查询内部的缓存,如果缓存空间足够大,可以在大量读操作的环境中提升系统性能
- * 所有**跨存储引擎的功能**在这一层实现,如存储过程、触发器、视图等
- * 在该层服务器会解析查询并创建相应的内部解析树,并对其完成相应的优化如确定表的查询顺序,是否利用索引等, 最后生成相应的执行操作
- * MySQL 中服务器层不管理事务,**事务是由存储引擎实现的**
-- 第三层:存储引擎层
- - Pluggable Storage Engines:存储引擎接口,MySQL 区别于其他数据库的重要特点就是其存储引擎的架构模式是插件式的(存储引擎是基于表的,而不是数据库)
- - 存储引擎**真正的负责了 MySQL 中数据的存储和提取**,服务器通过 API 和存储引擎进行通信
- - 不同的存储引擎具有不同的功能,共用一个 Server 层,可以根据开发的需要,来选取合适的存储引擎
-- 第四层:系统文件层
- - 数据存储层,主要是将数据存储在文件系统之上,并完成与存储引擎的交互
- - File System:文件系统,保存配置文件、数据文件、日志文件、错误文件、二进制文件等
-
+****
-***
+#### 连接状态
+客户端如果长时间没有操作,连接器就会自动断开,时间是由参数 wait_timeout 控制的,默认值是 8 小时。如果在连接被断开之后,客户端**再次发送请求**的话,就会收到一个错误提醒:`Lost connection to MySQL server during query`
+数据库里面,长连接是指连接成功后,如果客户端持续有请求,则一直使用同一个连接;短连接则是指每次执行完很少的几次查询就断开连接,下次查询再重新建立一个
-### 执行流程
+为了减少连接的创建,推荐使用长连接,但是**过多的长连接会造成 OOM**,解决方案:
-#### 连接器
+* 定期断开长连接,使用一段时间,或者程序里面判断执行过一个占用内存的大查询后,断开连接,之后要查询再重连
-池化技术:对于访问数据库来说,建立连接的代价是比较昂贵的,频繁的创建关闭连接比较耗费资源,有必要建立数据库连接池,以提高访问的性能
+ ```mysql
+ KILL CONNECTION id
+ ```
-首先连接到数据库上,这时连接器发挥作用,连接完成后如果没有后续的动作,这个连接就处于空闲状态,通过指令查看连接状态
+* MySQL 5.7 版本,可以在每次执行一个比较大的操作后,通过执行 mysql_reset_connection 来重新初始化连接资源,这个过程不需要重连和重新做权限验证,但是会将连接恢复到刚刚创建完时的状态
SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看 SQL 的执行情况,其中的 Command 列显示为 Sleep 的这一行,就表示现在系统里面有一个空闲连接
-
+
| 参数 | 含义 |
| ------- | ------------------------------------------------------------ |
@@ -398,16 +241,7 @@ SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看
| State | 显示使用当前连接的 sql 语句的状态,以查询为例,需要经过 copying to tmp table、sorting result、sending data等状态才可以完成 |
| Info | 显示执行的 sql 语句,是判断问题语句的一个重要依据 |
-连接建立 TCP 以后需要做**权限验证**,验证成功后可以进行执行 SQL。如果这时管理员账号对这个用户的权限做了修改,也不会影响已经存在连接的权限,只有再新建的连接才会使用新的权限设置
-
-客户端如果太长时间没动静,连接器就会自动断开,这个时间是由参数 wait_timeout 控制的,默认值是 8 小时。如果在连接被断开之后,客户端再次发送请求的话,就会收到一个错误提醒:`Lost connection to MySQL server during query`
-
-数据库里面,长连接是指连接成功后,如果客户端持续有请求,则一直使用同一个连接;短连接则是指每次执行完很少的几次查询就断开连接,下次查询再重新建立一个。为了减少连接的创建,推荐使用长连接,但是过多的长连接会造成 OOM,解决方案:
-
-* 定期断开长连接,使用一段时间,或者程序里面判断执行过一个占用内存的大查询后,断开连接,之后要查询再重连。
-* MySQL 5.7 版本,可以在每次执行一个比较大的操作后,通过执行 mysql_reset_connection 来重新初始化连接资源,这个过程不需要重连和重新做权限验证,但是会将连接恢复到刚刚创建完时的状态
-
-
+**Sending data 状态**表示 MySQL 线程开始访问数据行并把结果返回给客户端,而不仅仅只是返回给客户端,是处于执行器过程中的任意阶段。由于在 Sending data 状态下,MySQL 线程需要做大量磁盘读取操作,所以是整个查询中耗时最长的状态
@@ -417,6 +251,8 @@ SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看
+### 执行流程
+
#### 查询缓存
##### 工作流程
@@ -428,7 +264,7 @@ SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看
1. 客户端发送一条查询给服务器
2. 服务器先会检查查询缓存,如果命中了缓存,则立即返回存储在缓存中的结果(一般是 K-V 键值对),否则进入下一阶段
3. 分析器进行 SQL 分析,再由优化器生成对应的执行计划
-4. MySQL 根据优化器生成的执行计划,调用存储引擎的 API 来执行查询
+4. 执行器根据优化器生成的执行计划,调用存储引擎的 API 来执行查询
5. 将结果返回给客户端
大多数情况下不建议使用查询缓存,因为查询缓存往往弊大于利
@@ -444,7 +280,7 @@ SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看
##### 缓存配置
-1. 查看当前的 MySQL 数据库是否支持查询缓存:
+1. 查看当前 MySQL 数据库是否支持查询缓存:
```mysql
SHOW VARIABLES LIKE 'have_query_cache'; -- YES
@@ -481,7 +317,7 @@ SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看
SHOW STATUS LIKE 'Qcache%';
```
-
+
| 参数 | 含义 |
| ----------------------- | ------------------------------------------------------------ |
@@ -515,7 +351,7 @@ SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看
查询缓存失效的情况:
-* SQL 语句不一致的情况,要想命中查询缓存,查询的 SQL 语句必须一致
+* SQL 语句不一致,要想命中查询缓存,查询的 SQL 语句必须一致,因为**缓存中 key 是查询的语句**,value 是查询结构
```mysql
select count(*) from tb_item;
@@ -542,9 +378,9 @@ SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看
SELECT * FROM information_schema.engines;
```
-* 在跨存储引擎的存储过程、触发器或存储函数的主体内执行的查询,缓存失效
+* 在**跨存储引擎**的存储过程、触发器或存储函数的主体内执行的查询,缓存失效
-* 如果表更改,则使用该表的所有高速缓存查询都将变为无效并从高速缓存中删除,包括使用 MERGE 映射到已更改表的表的查询,比如:INSERT、UPDATE、DELETE、ALTER TABLE、DROP TABLE、DROP DATABASE
+* 如果表更改,则使用该表的**所有高速缓存查询都将变为无效**并从高速缓存中删除,包括使用 MERGE 映射到已更改表的表的查询,比如:INSERT、UPDATE、DELETE、ALTER TABLE、DROP TABLE、DROP DATABASE
@@ -560,8 +396,12 @@ SHOW PROCESSLIST:查看当前 MySQL 在进行的线程,可以实时地查看
SELECT * FROM t WHERE id = 1;
```
-* 先做**词法分析**,输入的是由多个字符串和空格组成的一条 SQL 语句,MySQL 需要识别出里面的字符串分别是什么,代表什么。从输入的 select 这个关键字识别出来这是一个查询语句;把字符串 t 识别成 表名 t,把字符串 id 识别成列 id
-* 然后做**语法分析**,根据词法分析的结果,语法分析器会根据语法规则,判断你输入的这个 SQL 语句是否满足 MySQL 语法。如果你的语句不对,就会收到 `You have an error in your SQL syntax` 的错误提醒
+解析器:处理语法和解析查询,生成一课对应的解析树
+
+* 先做**词法分析**,输入的是由多个字符串和空格组成的一条 SQL 语句,MySQL 需要识别出里面的字符串分别是什么代表什么。从输入的 select 这个关键字识别出来这是一个查询语句;把字符串 t 识别成 表名 t,把字符串 id 识别成列 id
+* 然后做**语法分析**,根据词法分析的结果,语法分析器会根据语法规则,判断你输入的这个 SQL 语句是否满足 MySQL 语法。如果语句不对,就会收到 `You have an error in your SQL syntax` 的错误提醒
+
+预处理器:进一步检查解析树的合法性,比如数据表和数据列是否存在、别名是否有歧义等
@@ -573,7 +413,7 @@ SELECT * FROM t WHERE id = 1;
##### 成本分析
-优化器是在表里面有多个索引的时候,决定使用哪个索引;或者在一个语句有多表关联(join)的时候,决定各个表的连接顺序。
+优化器是在表里面有多个索引的时候,决定使用哪个索引;或者在一个语句有多表关联(join)的时候,决定各个表的连接顺序
* 根据搜索条件找出所有可能的使用的索引
* 成本分析,执行成本由 I/O 成本和 CPU 成本组成,计算全表扫描和使用不同索引执行 SQL 的代价
@@ -594,21 +434,21 @@ MySQL 中保存着两种统计数据:
* innodb_table_stats 存储了表的统计数据,每一条记录对应着一个表的统计数据
* innodb_index_stats 存储了索引的统计数据,每一条记录对应着一个索引的一个统计项的数据
-MySQL 在真正执行语句之前,并不能精确地知道满足条件的记录有多少条,只能根据统计信息来估算记录,统计信息就是索引的区分度,一个索引上不同的值的个数(比如性别只能是男女,就是 2 ),称之为基数(cardinality),基数越大说明区分度越好
+MySQL 在真正执行语句之前,并不能精确地知道满足条件的记录有多少条,只能根据统计信息来估算记录,统计信息就是索引的区分度,一个索引上不同的值的个数(比如性别只能是男女,就是 2 ),称之为基数(cardinality),**基数越大说明区分度越好**
通过**采样统计**来获取基数,InnoDB 默认会选择 N 个数据页,统计这些页面上的不同值得到一个平均值,然后乘以这个索引的页面数,就得到了这个索引的基数
在 MySQL 中,有两种存储统计数据的方式,可以通过设置参数 `innodb_stats_persistent` 的值来选择:
-* ON:表示统计信息会持久化存储(默认),采样页数 N 默认为 20,可以通过 `innodb_stats_persistent_sample_pages `指定,页数越多统计的数据越准确,但消耗的资源更大
-* 设置为 off 时,表示统计信息只存储在内存,采样页数 N 默认为 8,也可以通过系统变量设置(不推荐,每次重新计算浪费资源)
+* ON:表示统计信息会持久化存储(默认),采样页数 N 默认为 20,可以通过 `innodb_stats_persistent_sample_pages` 指定,页数越多统计的数据越准确,但消耗的资源更大
+* OFF:表示统计信息只存储在内存,采样页数 N 默认为 8,也可以通过系统变量设置(不推荐,每次重新计算浪费资源)
-数据表是会持续更新的,两种更新方式:
+数据表是会持续更新的,两种统计信息的更新方式:
* 设置 `innodb_stats_auto_recalc` 为 1,当发生变动的记录数量超过表大小的 10% 时,自动触发重新计算,不过是**异步进行**
-* 调用 `ANALYZE TABLE t` 手动更新统计信息,只对信息做重新统计(不是重建表),没有修改数据,这个过程中加了 MDL 读锁并且是同步进行,所以会暂时阻塞系统
+* 调用 `ANALYZE TABLE t` 手动更新统计信息,只对信息做**重新统计**(不是重建表),没有修改数据,这个过程中加了 MDL 读锁并且是同步进行,所以会暂时阻塞系统
-EXPLAIN 执行计划在优化器阶段生成,如果 explain 的结果预估的 rows 值跟实际情况差距比较大,可以执行 analyze 命令重新修正信息
+**EXPLAIN 执行计划在优化器阶段生成**,如果 explain 的结果预估的 rows 值跟实际情况差距比较大,可以执行 analyze 命令重新修正信息
@@ -640,99 +480,256 @@ EXPLAIN 执行计划在优化器阶段生成,如果 explain 的结果预估的
#### 执行器
-开始执行的时候,要先判断一下当前连接对表有没有执行查询的权限,如果没有就会返回没有权限的错误,在工程实现上,如果命中查询缓存,会在查询缓存返回结果的时候,做权限验证。如果有权限,就打开表继续执行,执行器就会根据表的引擎定义,去使用这个引擎提供的接口
+开始执行的时候,要先判断一下当前连接对表有没有**执行查询的权限**,如果没有就会返回没有权限的错误,在工程实现上,如果命中查询缓存,会在查询缓存返回结果的时候,做权限验证。如果有权限,就打开表继续执行,执行器就会根据表的引擎定义,去使用这个引擎提供的接口
-****
+***
-### 数据空间
+#### 引擎层
-#### 数据存储
+Server 层和存储引擎层的交互是**以记录为单位的**,存储引擎会将单条记录返回给 Server 层做进一步处理,并不是直接返回所有的记录
-系统表空间是用来放系统信息的,比如数据字典什么的,对应的磁盘文件是 ibdata,数据表空间是一个个的表数据文件,对应的磁盘文件就是表名.ibd
+工作流程:
-表数据既可以存在共享表空间里,也可以是单独的文件,这个行为是由参数 innodb_file_per_table 控制的:
+* 首先根据二级索引选择扫描范围,获取第一条符合二级索引条件的记录,进行回表查询,将聚簇索引的记录返回 Server 层,由 Server 判断记录是否符合要求
+* 然后在二级索引上继续扫描下一个符合条件的记录
-* OFF:表示表的数据放在系统共享表空间,也就是跟数据字典放在一起
-* ON :表示每个 InnoDB 表数据存储在一个以 .ibd 为后缀的文件中(默认)
-一个表单独存储为一个文件更容易管理,在不需要这个表时通过 drop table 命令,系统就会直接删除这个文件;如果是放在共享表空间中,即使表删掉了,空间也是不会回收的
+推荐阅读:https://mp.weixin.qq.com/s/YZ-LckObephrP1f15mzHpA
-***
-#### 数据删除
+***
-MySQL 的数据删除就是移除掉某个记录后,该位置就被标记为可复用,如果有符合范围条件的数据可以插入到这里。符合范围条件的意思是假设删除记录 R4,之后要再插入一个 ID 在 300 和 600 之间的记录时,就会复用这个位置
-
-InnoDB 的数据是按页存储的如果删掉了一个数据页上的所有记录,整个数据页就可以被复用了,如果相邻的两个数据页利用率都很小,系统就会把这两个页上的数据合到其中一个页上,另外一个数据页就被标记为可复用
+### 终止流程
-删除命令其实只是把记录的位置,或者**数据页标记为了可复用,但磁盘文件的大小是不会变的**,这些可以复用还没有被使用的空间,看起来就像是空洞,造成数据库的稀疏,因此需要进行紧凑处理
+#### 终止语句
+终止线程中正在执行的语句:
+```mysql
+KILL QUERY thread_id
+```
-***
+KILL 不是马上终止的意思,而是告诉执行线程这条语句已经不需要继续执行,可以开始执行停止的逻辑(类似于打断)。因为对表做增删改查操作,会在表上加 MDL 读锁,如果线程被 KILL 时就直接终止,那这个 MDL 读锁就没机会被释放了
+命令 `KILL QUERYthread_id_A` 的执行流程:
+* 把 session A 的运行状态改成 THD::KILL_QUERY(将变量 killed 赋值为 THD::KILL_QUERY)
+* 给 session A 的执行线程发一个信号,让 session A 来处理这个 THD::KILL_QUERY 状态
-#### 空间收缩
+会话处于等待状态(锁阻塞),必须满足是一个可以被唤醒的等待,必须有机会去**判断线程的状态**,如果不满足就会造成 KILL 失败
-重建表就是按照主键 ID 递增的顺序,把数据一行一行地从旧表中读出来再插入到新表中,重建表时 MySQL 会自动完成转存数据、交换表名、删除旧表的操作,重建命令:
+典型场景:innodb_thread_concurrency 为 2,代表并发线程上限数设置为 2
-```sql
-ALTER TABLE A ENGINE=InnoDB
-```
+* session A 执行事务,session B 执行事务,达到线程上限;此时 session C 执行事务会阻塞等待,session D 执行 kill query C 无效
+* C 的逻辑是每 10 毫秒判断是否可以进入 InnoDB 执行,如果不行就调用 nanosleep 函数进入 sleep 状态,没有去判断线程状态
-工作流程:新建临时表 tmp_table B(在 Server 层创建的),把表 A 中的数据导入到表 B 中,操作完成后用表 B 替换表 A,完成重建
+补充:执行 Ctrl+C 的时候,是 MySQL 客户端另外启动一个连接,然后发送一个 KILL QUERY 命令
-重建表的步骤需要 DDL 不是 Online 的,因为在导入数据的过程有新的数据要写入到表 A 的话,就会造成数据丢失
-MySQL 5.6 版本开始引入的 Online DDL,重建表的命令默认执行此步骤:
-* 建立一个临时文件 tmp_file(InnoDB 创建),扫描表 A 主键的所有数据页
-* 用数据页中表 A 的记录生成 B+ 树,存储到临时文件中
-* 生成临时文件的过程中,将所有对 A 的操作记录在一个日志文件(row log)中,对应的是图中 state2 的状态
-* 临时文件生成后,将日志文件中的操作应用到临时文件,得到一个逻辑数据上与表 A 相同的数据文件,对应的就是图中 state3
-* 用临时文件替换表 A 的数据文件
+***
-
-Online DDL 操作会先获取 MDL 写锁,再退化成 MDL 读锁。但 MDL 写锁持有时间比较短,所以可以称为 Online; 而 MDL 读锁,不阻止数据增删查改,但会阻止其它线程修改表结构
-问题:想要收缩表空间,执行指令后整体占用空间增大
+#### 终止连接
-原因:在重建表后 InnoDB 不会把整张表占满,每个页留了 1/16 给后续的更新使用。表在未整理之前页已经占用 15/16 以上,收缩之后需要保持数据占用空间在 15/16,所以文件占用空间更大才能保持
+断开线程的连接:
-注意:临时文件也要占用空间,如果空间不足会重建失败
+```mysql
+KILL CONNECTION id
+```
+断开连接后执行 SHOW PROCESSLIST 命令,如果这条语句的 Command 列显示 Killed,代表线程的状态是 KILL_CONNECTION,说明这个线程有语句正在执行,当前状态是停止语句执行中,终止逻辑耗时较长
+* 超大事务执行期间被 KILL,这时回滚操作需要对事务执行期间生成的所有新数据版本做回收操作,耗时很长
+* 大查询回滚,如果查询过程中生成了比较大的临时文件,删除临时文件可能需要等待 IO 资源,导致耗时较长
+* DDL 命令执行到最后阶段被 KILL,需要删除中间过程的临时文件,也可能受 IO 资源影响耗时较久
-****
+总结:KILL CONNECTION 本质上只是把客户端的 SQL 连接断开,后面的终止流程还是要走 KILL QUERY
+一个事务被 KILL 之后,持续处于回滚状态,不应该强行重启整个 MySQL 进程,应该等待事务自己执行完成,因为重启后依然继续做回滚操作的逻辑
-#### inplace
-DDL 中的临时表 tmp_table 是在 Server 层创建的,Online DDL 中的临时文件 tmp_file 是 InnoDB 在内部创建出来的,整个 DDL 过程都在 InnoDB 内部完成,对于 Server 层来说,没有把数据挪动到临时表,是一个原地操作,这就是 inplace
-两者的关系:
-* DDL 过程如果是 Online 的,就一定是 inplace 的
-* inplace 的 DDL,有可能不是 Online 的,截止到 MySQL 8.0,全文索引(FULLTEXT)和空间索引 (SPATIAL ) 属于这种情况
+***
+
+
+
+### 常用工具
+
+#### mysql
+
+mysql 不是指 mysql 服务,而是指 mysql 的客户端工具
+
+```sh
+mysql [options] [database]
+```
+
+* -u --user=name:指定用户名
+* -p --password[=name]:指定密码
+* -h --host=name:指定服务器IP或域名
+* -P --port=#:指定连接端口
+* -e --execute=name:执行SQL语句并退出,在控制台执行SQL语句,而不用连接到数据库执行
+
+示例:
+
+```sh
+mysql -h 127.0.0.1 -P 3306 -u root -p
+mysql -uroot -p2143 db01 -e "select * from tb_book";
+```
+
+
+
+***
+
+
+
+#### admin
+
+mysqladmin 是一个执行管理操作的客户端程序,用来检查服务器的配置和当前状态、创建并删除数据库等
+
+通过 `mysqladmin --help` 指令查看帮助文档
+
+```sh
+mysqladmin -uroot -p2143 create 'test01';
+```
+
+
+
+***
+
+
+
+#### binlog
+
+服务器生成的日志文件以二进制格式保存,如果需要检查这些文本,就要使用 mysqlbinlog 日志管理工具
+
+```sh
+mysqlbinlog [options] log-files1 log-files2 ...
+```
+
+* -d --database=name:指定数据库名称,只列出指定的数据库相关操作
+
+* -o --offset=#:忽略掉日志中的前 n 行命令。
+
+* -r --result-file=name:将输出的文本格式日志输出到指定文件。
+
+* -s --short-form:显示简单格式,省略掉一些信息。
+
+* --start-datatime=date1 --stop-datetime=date2:指定日期间隔内的所有日志
+
+* --start-position=pos1 --stop-position=pos2:指定位置间隔内的所有日志
+
+
+
+***
+
+
+
+#### dump
+
+##### 命令介绍
+
+mysqldump 客户端工具用来备份数据库或在不同数据库之间进行数据迁移,备份内容包含创建表,及插入表的 SQL 语句
+
+```sh
+mysqldump [options] db_name [tables]
+mysqldump [options] --database/-B db1 [db2 db3...]
+mysqldump [options] --all-databases/-A
+```
+
+连接选项:
+
+* -u --user=name:指定用户名
+* -p --password[=name]:指定密码
+* -h --host=name:指定服务器 IP 或域名
+* -P --port=#:指定连接端口
+
+输出内容选项:
+
+* --add-drop-database:在每个数据库创建语句前加上 Drop database 语句
+* --add-drop-table:在每个表创建语句前加上 Drop table 语句 , 默认开启,不开启 (--skip-add-drop-table)
+* -n --no-create-db:不包含数据库的创建语句
+* -t --no-create-info:不包含数据表的创建语句
+* -d --no-data:不包含数据
+* -T, --tab=name:自动生成两个文件:一个 .sql 文件,创建表结构的语句;一个 .txt 文件,数据文件,相当于 select into outfile
+
+示例:
+
+```sh
+mysqldump -uroot -p2143 db01 tb_book --add-drop-database --add-drop-table > a
+mysqldump -uroot -p2143 -T /tmp test city
+```
+
+
+
+***
+
+
+
+##### 数据备份
+
+命令行方式:
+
+* 备份命令:mysqldump -u root -p 数据库名称 > 文件保存路径
+* 恢复
+ 1. 登录MySQL数据库:`mysql -u root p`
+ 2. 删除已经备份的数据库
+ 3. 重新创建与备份数据库名称相同的数据库
+ 4. 使用该数据库
+ 5. 导入文件执行:`source 备份文件全路径`
+
+更多方式参考:https://time.geekbang.org/column/article/81925
+
+图形化界面:
+
+* 备份
+ 
+* 恢复
+
+ 
+
+
+
+
+
+***
+
+
+
+#### import
+
+mysqlimport 是客户端数据导入工具,用来导入mysqldump 加 -T 参数后导出的文本文件
+
+```sh
+mysqlimport [options] db_name textfile1 [textfile2...]
+```
+
+示例:
+```sh
+mysqlimport -uroot -p2143 test /tmp/city.txt
+```
+导入 sql 文件,可以使用 MySQL 中的 source 指令 :
-参考文章:https://time.geekbang.org/column/article/72388
+```mysql
+source 文件全路径
+```
@@ -740,6 +737,39 @@ DDL 中的临时表 tmp_table 是在 Server 层创建的,Online DDL 中的临
+#### show
+
+mysqlshow 客户端对象查找工具,用来很快地查找存在哪些数据库、数据库中的表、表中的列或者索引
+
+```sh
+mysqlshow [options] [db_name [table_name [col_name]]]
+```
+
+* --count:显示数据库及表的统计信息(数据库,表 均可以不指定)
+
+* -i:显示指定数据库或者指定表的状态信息
+
+示例:
+
+```sh
+#查询每个数据库的表的数量及表中记录的数量
+mysqlshow -uroot -p1234 --count
+#查询test库中每个表中的字段书,及行数
+mysqlshow -uroot -p1234 test --count
+#查询test库中book表的详细情况
+mysqlshow -uroot -p1234 test book --count
+```
+
+
+
+
+
+
+
+****
+
+
+
## 单表操作
@@ -757,7 +787,7 @@ DDL 中的临时表 tmp_table 是在 Server 层创建的,Online DDL 中的临
- 可使用空格和缩进来增强语句的可读性。
- MySQL 数据库的 SQL 语句不区分大小写,**关键字建议使用大写**。
- 数据库的注释:
- - 单行注释:-- 注释内容 #注释内容(mysql特有)
+ - 单行注释:-- 注释内容 #注释内容(MySQL 特有)
- 多行注释:/* 注释内容 */
- SQL 分类
@@ -778,7 +808,7 @@ DDL 中的临时表 tmp_table 是在 Server 层创建的,Online DDL 中的临
- 用来定义数据库的访问权限和安全级别,及创建用户。关键字:grant, revoke等
- 
+ 
@@ -1213,7 +1243,7 @@ LIMIT
SELECT 列名1,列名2,... FROM 表名;
```
-* 去除重复查询:只有值全部重复的才可以去除,需要创建临时表辅助查询
+* **去除重复查询**:只有值全部重复的才可以去除,需要创建临时表辅助查询
```mysql
SELECT DISTINCT 列名1,列名2,... FROM 表名;
@@ -1325,7 +1355,7 @@ LIMIT
SELECT * FROM product WHERE NAME LIKE '%电脑%';
```
-
+
@@ -1543,6 +1573,8 @@ SELECT * FROM emp WHERE name REGEXP '[uvw]';-- 匹配包含 uvw 的name值
#### 分组查询
+分组查询会进行去重
+
* 分组查询语法
````mysql
@@ -1599,7 +1631,9 @@ SELECT * FROM emp WHERE name REGEXP '[uvw]';-- 匹配包含 uvw 的name值
SELECT * FROM product LIMIT 6,2; -- 第四页 开始索引=(4-1) * 2
```
- 
+ 
+
+
@@ -1616,7 +1650,7 @@ SELECT * FROM emp WHERE name REGEXP '[uvw]';-- 匹配包含 uvw 的name值
#### 约束介绍
-约束:对表中的数据进行限定,保证数据的正确性、有效性、完整性!
+约束:对表中的数据进行限定,保证数据的正确性、有效性、完整性
约束的分类:
@@ -1690,7 +1724,7 @@ SELECT * FROM emp WHERE name REGEXP '[uvw]';-- 匹配包含 uvw 的name值
#### 主键自增
-主键自增约束可以为空,并自动增长。删除某条数据不影响自增的下一个数值,依然按照前一个值自增。
+主键自增约束可以为空,并自动增长。删除某条数据不影响自增的下一个数值,依然按照前一个值自增
* 建表时添加主键自增约束
@@ -1798,7 +1832,7 @@ SELECT * FROM emp WHERE name REGEXP '[uvw]';-- 匹配包含 uvw 的name值
#### 外键约束
- 外键约束:让表和表之间产生关系,从而保证数据的准确性!
+ 外键约束:让表和表之间产生关系,从而保证数据的准确性
* 建表时添加外键约束
@@ -1928,7 +1962,11 @@ CREATE TABLE card(
INSERT INTO card VALUES (NULL,'12345',1),(NULL,'56789',2);
```
-
+
+
+
+
+***
@@ -1958,7 +1996,11 @@ CREATE TABLE orderlist(
INSERT INTO orderlist VALUES (NULL,'hm001',1),(NULL,'hm002',1),(NULL,'hm003',2),(NULL,'hm004',2);
```
-
+
+
+
+
+***
@@ -1997,7 +2039,7 @@ CREATE TABLE stu_course(
INSERT INTO stu_course VALUES (NULL,1,1),(NULL,1,2),(NULL,2,1),(NULL,2,2);
```
-
+
@@ -2007,52 +2049,28 @@ INSERT INTO stu_course VALUES (NULL,1,1),(NULL,1,2),(NULL,2,1),(NULL,2,2);
### 连接查询
-#### 连接原理
-
-连接查询的是两张表有交集的部分数据,如果结果集中的每条记录都是两个表相互匹配的组合,则称这样的结果集为笛卡尔积
-
-查询原理:两张表分为驱动表和被驱动表,首先查询驱动表得到数据集,然后根据数据集中的每一条记录再分别到被驱动表中查找匹配,所以驱动表只需要访问一次,被驱动表要访问多次
-
-MySQL 将查询驱动表后得到的记录成为驱动表的扇出,连接查询的成本:单次访问驱动表的成本 + 扇出值 * 单次访问被驱动表的成本,优化器会选择成本最小的表连接顺序(确定谁是驱动表,谁是被驱动表)生成执行计划,进行连接查询,优化方式:
-
-* 减少驱动表的扇出
-* 降低访问被驱动表的成本
-
-MySQL 提出了一种**空间换时间**的优化方式,基于块的循环连接,执行连接查询前申请一块固定大小的内存作为连接缓冲区 Join Buffer,先把若干条驱动表中的扇出暂存在缓冲区,每一条被驱动表中的记录一次性的与 Buffer 中多条记录进行匹配(可能是一对多),因为是在内存中完成,所以速度快,并且降低了 I/O 成本。
-
-Join Buffer 可以通过参数 `join_buffer_size` 进行配置,默认大小是 256 KB
-
-在成本分析时,对于很多张表的连接查询,连接顺序有非常多,MySQL 如果挨着进行遍历计算成本,会消耗很多资源
-
-* 提前结束某种连接顺序的成本评估:维护一个全局变量记录当前成本最小的连接方式,如果一种顺序只计算了一部分就已经超过了最小成本,可以提前结束计算
-* 系统变量 optimizer_search_depth:如果连接表的个数小于该变量,就继续穷举分析每一种连接数量,反之只对数量与 depth 值相同的表进行分析,该值越大成本分析的越精确
-
-* 系统变量 optimizer_prune_level:控制启发式规则的启用,这些规则就是根据以往经验指定的,不满足规则的连接顺序不分析成本
-
-
-
-***
-
-
-
#### 内外连接
##### 内连接
+连接查询的是两张表有交集的部分数据,两张表分为**驱动表和被驱动表**,如果结果集中的每条记录都是两个表相互匹配的组合,则称这样的结果集为笛卡尔积
+
内连接查询,若驱动表中的记录在被驱动表中找不到匹配的记录时,则该记录不会加到最后的结果集
-* 显式内连接
+* 显式内连接:
```mysql
SELECT 列名 FROM 表名1 [INNER] JOIN 表名2 ON 条件;
```
-* 隐式内连接
+* 隐式内连接:内连接中 WHERE 子句和 ON 子句是等价的
```mysql
SELECT 列名 FROM 表名1,表名2 WHERE 条件;
```
+STRAIGHT_JOIN与 JOIN 类似,只不过左表始终在右表之前读取,只适用于内连接
+
@@ -2064,7 +2082,7 @@ Join Buffer 可以通过参数 `join_buffer_size` 进行配置,默认大小是
外连接查询,若驱动表中的记录在被驱动表中找不到匹配的记录时,则该记录也会加到最后的结果集,只是对于被驱动表中**不匹配过滤条件**的记录,各个字段使用 NULL 填充
-应用实例:差学生成绩,也想查出缺考的人的成绩
+应用实例:查学生成绩,也想展示出缺考的人的成绩
* 左外连接:选择左侧的表为驱动表,查询左表的全部数据,和左右两张表有交集部分的数据
@@ -2078,7 +2096,7 @@ Join Buffer 可以通过参数 `join_buffer_size` 进行配置,默认大小是
SELECT 列名 FROM 表名1 RIGHT [OUTER] JOIN 表名2 ON 条件;
```
-
+
@@ -2104,19 +2122,11 @@ Join Buffer 可以通过参数 `join_buffer_size` 进行配置,默认大小是
salary DOUBLE -- 员工工资
);
-- 添加数据
- INSERT INTO employee VALUES (1001,'孙悟空',1005,9000.00),
- (1002,'猪八戒',1005,8000.00),
- (1003,'沙和尚',1005,8500.00),
- (1004,'小白龙',1005,7900.00),
- (1005,'唐僧',NULL,15000.00),
- (1006,'武松',1009,7600.00),
- (1007,'李逵',1009,7400.00),
- (1008,'林冲',1009,8100.00),
- (1009,'宋江',NULL,16000.00);
+ INSERT INTO employee VALUES (1001,'孙悟空',1005,9000.00),..,(1009,'宋江',NULL,16000.00);
```
-
- 
-
+
+ 
+
* 数据查询
```mysql
@@ -2158,39 +2168,133 @@ Join Buffer 可以通过参数 `join_buffer_size` 进行配置,默认大小是
-
***
-### 嵌套查询
+#### 连接原理
-#### 查询分类
+Index Nested-Loop Join 算法:查询驱动表得到**数据集**,然后根据数据集中的每一条记录的**关联字段再分别**到被驱动表中查找匹配(**走索引**),所以驱动表只需要访问一次,被驱动表要访问多次
-查询语句中嵌套了查询语句,**将嵌套查询称为子查询**,FROM 子句后面的子查询的结果集称为派生表
+MySQL 将查询驱动表后得到的记录成为驱动表的扇出,连接查询的成本:单次访问驱动表的成本 + 扇出值 * 单次访问被驱动表的成本,优化器会选择成本最小的表连接顺序(确定谁是驱动表,谁是被驱动表)生成执行计划,进行连接查询,优化方式:
-根据结果分类:
+* 减少驱动表的扇出(让数据量小的表来做驱动表)
+* 降低访问被驱动表的成本
-* 结果是单行单列:可以将查询的结果作为另一条语句的查询条件,使用运算符判断
+说明:STRAIGHT_JOIN 是查一条驱动表,然后根据关联字段去查被驱动表,要访问多次驱动表,所以需要优化为 INL 算法
- ```mysql
- SELECT 列名 FROM 表名 WHERE 列名=(SELECT 列名/聚合函数(列名) FROM 表名 [WHERE 条件]);
- ```
+Block Nested-Loop Join 算法:一种**空间换时间**的优化方式,基于块的循环连接,执行连接查询前申请一块固定大小的内存作为连接缓冲区 Join Buffer,先把若干条驱动表中的扇出暂存在缓冲区,每一条被驱动表中的记录一次性的与 Buffer 中多条记录进行匹配(扫描全部数据,一条一条的匹配),因为是在内存中完成,所以速度快,并且降低了 I/O 成本
-* 结果是多行单列:可以作为条件,使用运算符 IN 或 NOT IN 进行判断
+Join Buffer 可以通过参数 `join_buffer_size` 进行配置,默认大小是 256 KB
- ```mysql
- SELECT 列名 FROM 表名 WHERE 列名 [NOT] IN (SELECT 列名 FROM 表名 [WHERE 条件]);
- ```
+在成本分析时,对于很多张表的连接查询,连接顺序有非常多,MySQL 如果挨着进行遍历计算成本,会消耗很多资源
-* 结果是多行多列:查询的结果可以作为一张虚拟表参与查询
+* 提前结束某种连接顺序的成本评估:维护一个全局变量记录当前成本最小的连接方式,如果一种顺序只计算了一部分就已经超过了最小成本,可以提前结束计算
+* 系统变量 optimizer_search_depth:如果连接表的个数小于该变量,就继续穷举分析每一种连接数量,反之只对数量与 depth 值相同的表进行分析,该值越大成本分析的越精确
- ```mysql
- SELECT 列名 FROM 表名 [别名],(SELECT 列名 FROM 表名 [WHERE 条件]) [别名] [WHERE 条件];
-
- -- 查询订单表orderlist中id大于4的订单信息和所属用户USER信息
- SELECT
- *
+* 系统变量 optimizer_prune_level:控制启发式规则的启用,这些规则就是根据以往经验指定的,不满足规则的连接顺序不分析成本
+
+
+
+***
+
+
+
+#### 连接优化
+
+##### BKA
+
+Batched Key Access 算法是对 NLJ 算法的优化,在读取被驱动表的记录时使用顺序 IO,Extra 信息中会有 Batched Key Access 信息
+
+使用 BKA 的表的 JOIN 过程如下:
+
+* 连接驱动表将满足条件的记录放入 Join Buffer,并将两表连接的字段放入一个 DYNAMIC_ARRAY ranges 中
+* 在进行表的过接过程中,会将 ranges 相关的信息传入 Buffer 中,进行被驱动表主建的查找及排序操作
+* 调用步骤 2 中产生的有序主建,**顺序读取被驱动表的数据**
+* 当缓冲区的数据被读完后,会重复进行步骤 2、3,直到记录被读取完
+
+使用 BKA 优化需要设进行设置:
+
+```mysql
+SET optimizer_switch='mrr=on,mrr_cost_based=off,batched_key_access=on';
+```
+
+说明:前两个参数的作用是启用 MRR,因为 BKA 算法的优化要依赖于 MRR(系统优化 → 内存优化 → Read 详解)
+
+
+
+***
+
+
+
+##### BNL
+
+###### 问题
+
+BNL 即 Block Nested-Loop Join 算法,由于要访问多次被驱动表,会产生两个问题:
+
+* Join 语句多次扫描一个冷表,并且语句执行时间小于 1 秒,就会在再次扫描冷表时,把冷表的数据页移到 LRU 链表头部,导致热数据被淘汰,影响业务的正常运行
+
+ 这种情况冷表的数据量要小于整个 Buffer Pool 的 old 区域,能够完全放入 old 区,才会再次被读时加到 young,否则读取下一段时就已经把上一段淘汰
+
+* Join 语句在循环读磁盘和淘汰内存页,进入 old 区域的数据页很可能在 1 秒之内就被淘汰,就会导致 MySQL 实例的 Buffer Pool 在这段时间内 young 区域的数据页没有被合理地淘汰
+
+大表 Join 操作虽然对 IO 有影响,但是在语句执行结束后对 IO 的影响随之结束。但是对 Buffer Pool 的影响就是持续性的,需要依靠后续的查询请求慢慢恢复内存命中率
+
+
+
+###### 优化
+
+将 BNL 算法转成 BKA 算法,优化方向:
+
+* 在被驱动表上建索引,这样就可以根据索引进行顺序 IO
+* 使用临时表,**在临时表上建立索引**,将被驱动表和临时表进行连接查询
+
+驱动表 t1,被驱动表 t2,使用临时表的工作流程:
+
+* 把表 t1 中满足条件的数据放在临时表 tmp_t 中
+* 给临时表 tmp_t 的关联字段加上索引,使用 BKA 算法
+* 让表 t2 和 tmp_t 做 Join 操作(临时表是被驱动表)
+
+补充:MySQL 8.0 支持 hash join,join_buffer 维护的不再是一个无序数组,而是一个哈希表,查询效率更高,执行效率比临时表更高
+
+
+
+
+
+
+***
+
+
+
+### 嵌套查询
+
+#### 查询分类
+
+查询语句中嵌套了查询语句,**将嵌套查询称为子查询**,FROM 子句后面的子查询的结果集称为派生表
+
+根据结果分类:
+
+* 结果是单行单列:可以将查询的结果作为另一条语句的查询条件,使用运算符判断
+
+ ```mysql
+ SELECT 列名 FROM 表名 WHERE 列名=(SELECT 列名/聚合函数(列名) FROM 表名 [WHERE 条件]);
+ ```
+
+* 结果是多行单列:可以作为条件,使用运算符 IN 或 NOT IN 进行判断
+
+ ```mysql
+ SELECT 列名 FROM 表名 WHERE 列名 [NOT] IN (SELECT 列名 FROM 表名 [WHERE 条件]);
+ ```
+
+* 结果是多行多列:查询的结果可以作为一张虚拟表参与查询
+
+ ```mysql
+ SELECT 列名 FROM 表名 [别名],(SELECT 列名 FROM 表名 [WHERE 条件]) [别名] [WHERE 条件];
+
+ -- 查询订单表orderlist中id大于4的订单信息和所属用户USER信息
+ SELECT
+ *
FROM
USER u,
(SELECT * FROM orderlist WHERE id>4) o
@@ -2211,21 +2315,23 @@ Join Buffer 可以通过参数 `join_buffer_size` 进行配置,默认大小是
#### 查询优化
-不相关子查询的结果集会被写入一个临时表,并且在写入时**去重**,该过程称为**物化**,存储结果集的临时表称为物化表。系统变量 tmp_table_size 或者 max_heap_table_size 为表的最值
+不相关子查询的结果集会被写入一个临时表,并且在写入时**去重**,该过程称为**物化**,存储结果集的临时表称为物化表
-* 小于系统变量时,内存中可以保存,会为建立基于内存的 MEMORY 存储引擎的临时表,并建立哈希索引
-* 大于任意一个系统变量时,物化表会使用基于磁盘的存储引擎来保存结果集中的记录,索引类型为 B+ 树
+系统变量 tmp_table_size 或者 max_heap_table_size 为表的最值
+
+* 小于系统变量时,内存中可以保存,会为建立**基于内存**的 MEMORY 存储引擎的临时表,并建立哈希索引
+* 大于任意一个系统变量时,物化表会使用**基于磁盘**的 InnoDB 存储引擎来保存结果集中的记录,索引类型为 B+ 树
物化后,嵌套查询就相当于外层查询的表和物化表进行内连接查询,然后经过优化器选择成本最小的表连接顺序执行查询
-将子查询物化会产生建立临时表的成本,但是将子查询转化为连接查询可以充分发挥优化器的作用,所以引入:半连接
+子查询物化会产生建立临时表的成本,但是将子查询转化为连接查询可以充分发挥优化器的作用,所以引入:半连接
-* t1 和 t2 表进行半连接,对于 t1 表中的某条记录,只需要关心在 s2 表中是否存在,而不需要关心有多少条记录与之匹配,最终结果集只保留 t1 的记录
+* t1 和 t2 表进行半连接,对于 t1 表中的某条记录,只需要关心在 t2 表中是否存在,而不需要关心有多少条记录与之匹配,最终结果集只保留 t1 的记录
* 半连接只是执行子查询的一种方式,MySQL 并没有提供面向用户的半连接语法
-详细内容可以参考:《MySQL 是怎样运行的》
+参考书籍:https://book.douban.com/subject/35231266/
@@ -2233,6 +2339,32 @@ Join Buffer 可以通过参数 `join_buffer_size` 进行配置,默认大小是
+#### 联合查询
+
+UNION 是取这两个子查询结果的并集,并进行去重,同时进行默认规则的排序(union 是行加起来,join 是列加起来)
+
+UNION ALL 是对两个结果集进行并集操作不进行去重,不进行排序
+
+```mysql
+(select 1000 as f) union (select id from t1 order by id desc limit 2); #t1表中包含id 为 1-1000 的数据
+```
+
+语句的执行流程:
+
+* 创建一个内存临时表,这个临时表只有一个整型字段 f,并且 f 是主键字段
+* 执行第一个子查询,得到 1000 这个值,并存入临时表中
+* 执行第二个子查询,拿到第一行 id=1000,试图插入临时表中,但由于 1000 这个值已经存在于临时表了,违反了唯一性约束,所以插入失败,然后继续执行
+* 取到第二行 id=999,插入临时表成功
+* 从临时表中按行取出数据,返回结果并删除临时表,结果中包含两行数据分别是 1000 和 999
+
+
+
+
+
+****
+
+
+
### 查询练习
数据准备:
@@ -2282,17 +2414,18 @@ CREATE TABLE us_pro(
);
```
-
+
**数据查询:**
-1. 查询用户的编号、姓名、年龄、订单编号。
- 分析:
- 数据:用户的编号、姓名、年龄在 user 表,订单编号在 orderlist 表
- 条件:user.id = orderlist.uid
-
+1. 查询用户的编号、姓名、年龄、订单编号
+
+ 数据:用户的编号、姓名、年龄在 user 表,订单编号在 orderlist 表
+
+ 条件:user.id = orderlist.uid
+
```mysql
SELECT
u.*,
@@ -2303,7 +2436,7 @@ CREATE TABLE us_pro(
WHERE
u.id = o.uid;
```
-
+
2. 查询所有的用户,显示用户的编号、姓名、年龄、订单编号。
```mysql
@@ -2318,7 +2451,7 @@ CREATE TABLE us_pro(
u.id = o.uid;
```
-3. 查询用户年龄大于 23 岁的信息,显示用户的编号、姓名、年龄、订单编号。
+3. 查询用户年龄大于 23 岁的信息,显示用户的编号、姓名、年龄、订单编号
```mysql
SELECT
@@ -2359,8 +2492,10 @@ CREATE TABLE us_pro(
u.name IN ('张三','李四');
````
-5. 查询所有的用户和该用户能查看的所有的商品,显示用户的编号、姓名、年龄、商品名称。
- 数据:用户的编号、姓名、年龄在user表,商品名称在product表,中间表 us_pro
+5. 查询所有的用户和该用户能查看的所有的商品,显示用户的编号、姓名、年龄、商品名称
+
+ 数据:用户的编号、姓名、年龄在 user 表,商品名称在 product 表,中间表 us_pro
+
条件:us_pro.uid = user.id AND us_pro.pid = product.id
```mysql
@@ -2411,7 +2546,7 @@ CREATE TABLE us_pro(
-## 存储结构
+## 高级结构
### 视图
@@ -3442,7 +3577,7 @@ MySQL 支持的存储引擎:
MyISAM 存储引擎:
* 特点:不支持事务和外键,读取速度快,节约资源
-* 应用场景:查询和插入操作为主,只有很少更新和删除操作,并对事务的完整性、并发性要求不高
+* 应用场景:**适用于读多写少的场景**,对事务的完整性要求不高,比如一些数仓、离线数据、支付宝的年度总结之类的场景,业务进行只读操作,查询起来会更快
* 存储方式:
* 每个 MyISAM 在磁盘上存储成 3 个文件,其文件名都和表名相同,拓展名不同
* 表的定义保存在 .frm 文件,表数据保存在 .MYD (MYData) 文件中,索引保存在 .MYI (MYIndex) 文件中
@@ -3457,11 +3592,11 @@ InnoDB 存储引擎:(MySQL5.5 版本后默认的存储引擎)
MEMORY 存储引擎:
-- 特点:每个 MEMORY 表实际对应一个磁盘文件 ,该文件中只存储表的结构,表数据保存在内存中,且默认使用 HASH 索引,这样有利于数据的快速处理,在需要快速定位记录可以提供更快的访问,但是服务一旦关闭,表中的数据就会丢失,数据存储不安全
-- 应用场景:通常用于更新不太频繁的小表,用以快速得到访问结果,类似缓存
+- 特点:每个 MEMORY 表实际对应一个磁盘文件 ,该文件中只存储表的结构,表数据保存在内存中,且默认**使用 HASH 索引**,所以数据默认就是无序的,但是在需要快速定位记录可以提供更快的访问,**服务一旦关闭,表中的数据就会丢失**,存储不安全
+- 应用场景:**缓存型存储引擎**,通常用于更新不太频繁的小表,用以快速得到访问结果
- 存储方式:表结构保存在 .frm 中
-MERGE存储引擎:
+MERGE 存储引擎:
* 特点:
@@ -3487,34 +3622,30 @@ MERGE存储引擎:
)ENGINE = MERGE UNION = (order_1,order_2) INSERT_METHOD=LAST DEFAULT CHARSET=utf8;
```
- 
+ 
-| 特性 | MyISAM | InnoDB | MEMORY |
-| ------------ | ---------------------------- | ------------- | ------------------ |
-| 存储限制 | 有(平台对文件系统大小的限制) | 64TB | 有(平台的内存限制) |
-| **事务安全** | **不支持** | **支持** | **不支持** |
-| **锁机制** | **表锁** | **表锁/行锁** | **表锁** |
-| B+Tree索引 | 支持 | 支持 | 支持 |
-| 哈希索引 | 不支持 | 不支持 | 支持 |
-| 全文索引 | 支持 | 支持 | 不支持 |
-| 集群索引 | 不支持 | 支持 | 不支持 |
-| 数据索引 | 不支持 | 支持 | 支持 |
-| 数据缓存 | 不支持 | 支持 | N/A |
-| 索引缓存 | 支持 | 支持 | N/A |
-| 数据可压缩 | 支持 | 不支持 | 不支持 |
-| 空间使用 | 低 | 高 | N/A |
-| 内存使用 | 低 | 高 | 中等 |
-| 批量插入速度 | 高 | 低 | 高 |
-| **外键** | **不支持** | **支持** | **不支持** |
+| 特性 | MyISAM | InnoDB | MEMORY |
+| ------------ | ------------------------------ | ------------- | -------------------- |
+| 存储限制 | 有(平台对文件系统大小的限制) | 64TB | 有(平台的内存限制) |
+| **事务安全** | **不支持** | **支持** | **不支持** |
+| **锁机制** | **表锁** | **表锁/行锁** | **表锁** |
+| B+Tree 索引 | 支持 | 支持 | 支持 |
+| 哈希索引 | 不支持 | 不支持 | 支持 |
+| 全文索引 | 支持 | 支持 | 不支持 |
+| 集群索引 | 不支持 | 支持 | 不支持 |
+| 数据索引 | 不支持 | 支持 | 支持 |
+| 数据缓存 | 不支持 | 支持 | N/A |
+| 索引缓存 | 支持 | 支持 | N/A |
+| 数据可压缩 | 支持 | 不支持 | 不支持 |
+| 空间使用 | 低 | 高 | N/A |
+| 内存使用 | 低 | 高 | 中等 |
+| 批量插入速度 | 高 | 低 | 高 |
+| **外键** | **不支持** | **支持** | **不支持** |
-面试问题:MyIsam 和 InnoDB 的区别?
+只读场景 MyISAM 比 InnoDB 更快:
-* 事务:InnoDB 支持事务,MyISAM 不支持事务
-* 外键:InnoDB 支持外键,MyISAM 不支持外键
-* 索引:InnoDB 是聚集(聚簇)索引,MyISAM 是非聚集(非聚簇)索引
-
-* 锁粒度:InnoDB 最小的锁粒度是行锁,MyISAM 最小的锁粒度是表锁
-* 存储结构:参考本节上半部分
+* 底层存储结构有差别,MyISAM 是非聚簇索引,叶子节点保存的是数据的具体地址,不用回表查询
+* InnoDB 每次查询需要维护 MVCC 版本状态,保证并发状态下的读写冲突问题
@@ -3577,12 +3708,12 @@ MERGE存储引擎:
#### 基本介绍
-MySQL 官方对索引的定义为:索引(index)是帮助 MySQL 高效获取数据的一种数据结构,**本质是排好序的快速查找数据结构。**在表数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式指向数据, 这样就可以在这些数据结构上实现高级查找算法,这种数据结构就是索引。
+MySQL 官方对索引的定义为:索引(index)是帮助 MySQL 高效获取数据的一种数据结构,**本质是排好序的快速查找数据结构。**在表数据之外,数据库系统还维护着满足特定查找算法的数据结构,这些数据结构以某种方式指向数据, 这样就可以在这些数据结构上实现高级查找算法,这种数据结构就是索引
**索引是在存储引擎层实现的**,所以并没有统一的索引标准,即不同存储引擎的索引的工作方式并不一样
索引使用:一张数据表,用于保存数据;一个索引配置文件,用于保存索引;每个索引都指向了某一个数据
-
+
左边是数据表,一共有两列七条记录,最左边的是数据记录的物理地址(注意逻辑上相邻的记录在磁盘上也并不是一定物理相邻的)。为了加快 Col2 的查找,可以维护一个右边所示的二叉查找树,每个节点分别包含索引键值和一个指向对应数据的物理地址的指针,这样就可以运用二叉查找快速获取到相应数据
@@ -3612,7 +3743,7 @@ MySQL 官方对索引的定义为:索引(index)是帮助 MySQL 高效获
- 单列索引:一个索引只包含单个列,一个表可以有多个单列索引(普通索引)
- 联合索引:顾名思义,就是将单列索引进行组合
- 唯一索引:索引列的值必须唯一,**允许有空值**,如果是联合索引,则列值组合必须唯一
- * NULL 值必须只出现一次
+ * NULL 值可以出现多次,因为两个 NULL 比较的结果既不相等,也不不等,结果仍然是未知
* 可以声明不允许存储 NULL 值的非空唯一索引
- 外键索引:只有 InnoDB 引擎支持外键索引,用来保证数据的一致性、完整性和实现级联操作
@@ -3629,9 +3760,9 @@ MySQL 官方对索引的定义为:索引(index)是帮助 MySQL 高效获
| R-tree | 不支持 | 支持 | 不支持 |
| Full-text | 5.6 版本之后支持 | 支持 | 不支持 |
-联合索引图示:根据身高年龄建立的组合索引(height,age)
+联合索引图示:根据身高年龄建立的组合索引(height、age)
-
+
@@ -3789,7 +3920,7 @@ InnoDB 使用 B+Tree 作为索引结构,并且 InnoDB 一定有索引
* 在 InnoDB 中,表数据文件本身就是按 B+Tree 组织的一个索引结构,这个索引的 key 是数据表的主键,叶子节点 data 域保存了完整的数据记录
-* InnoDB 的表数据文件**通过主键聚集数据**,如果没有定义主键,会选择非空唯一索引代替,如果也没有这样的列,MySQL 会自动为 InnoDB 表生成一个**隐含字段**作为主键,这个字段长度为 6 个字节,类型为长整形(MVCC 部分的笔记提及)
+* InnoDB 的表数据文件**通过主键聚集数据**,如果没有定义主键,会选择非空唯一索引代替,如果也没有这样的列,MySQL 会自动为 InnoDB 表生成一个**隐含字段 row_id** 作为主键,这个字段长度为 6 个字节,类型为长整形
辅助索引:
@@ -3797,7 +3928,7 @@ InnoDB 使用 B+Tree 作为索引结构,并且 InnoDB 一定有索引
* InnoDB 表是基于聚簇索引建立的,因此 InnoDB 的索引能提供一种非常快速的主键查找性能。不过辅助索引也会包含主键列,所以不建议使用过长的字段作为主键,**过长的主索引会令辅助索引变得过大**
-
+
@@ -3812,9 +3943,9 @@ InnoDB 使用 B+Tree 作为索引结构,并且 InnoDB 一定有索引
MyISAM 的主键索引使用的是非聚簇索引,索引文件和数据文件是分离的,**索引文件仅保存数据的地址**
* 主键索引 B+ 树的节点存储了主键,辅助键索引 B+ 树存储了辅助键,表数据存储在独立的地方,这两颗 B+ 树的叶子节点都使用一个地址指向真正的表数据,对于表数据来说,这两个键没有任何差别
-* 由于索引树是独立的,通过辅助索引检索无需访问主键的索引树回表查询
+* 由于索引树是独立的,通过辅助索引检索**无需回表查询**访问主键的索引树
-
+
@@ -3830,7 +3961,7 @@ MyISAM 的索引方式也叫做非聚集的,之所以这么称呼是为了与
辅助索引:MyISAM 中主索引和辅助索引(Secondary key)在结构上没有任何区别,只是主索引要求 key 是唯一的,而辅助索引的 key 可以重复
-
+
@@ -3856,9 +3987,11 @@ InnoDB 存储引擎中有页(Page)的概念,页是 MySQL 磁盘管理的
* InnoDB 引擎将若干个地址连接磁盘块,以此来达到页的大小 16KB
* 在查询数据时如果一个页中的每条数据都能有助于定位数据记录的位置,这将会减少磁盘 I/O 次数,提高查询效率
+超过 16KB 的一条记录,主键索引页只会存储部分数据和指向**溢出页**的指针,剩余数据都会分散存储在溢出页中
+
数据页物理结构,从上到下:
-* File Header:上一页和下一页的指针、该页的类型(索引页、数据页、日志页等)、**校验和**等信息
+* File Header:上一页和下一页的指针、该页的类型(索引页、数据页、日志页等)、**校验和**、LSN(最近一次修改当前页面时的系统 lsn 值,事务持久性部分详解)等信息
* Page Header:记录状态信息
* Infimum + Supremum:当前页的最小记录和最大记录(头尾指针),Infimum 所在分组只有一条记录,Supremum 所在分组可以有 1 ~ 8 条记录,剩余的分组可以有 4 ~ 8 条记录
* User Records:存储数据的记录
@@ -3866,6 +3999,10 @@ InnoDB 存储引擎中有页(Page)的概念,页是 MySQL 磁盘管理的
* Page Directory:分组的目录,可以通过目录快速定位(二分法)数据的分组
* File Trailer:检验和字段,在刷脏过程中,页首和页尾的校验和一致才能说明页面刷新成功,二者不同说明刷新期间发生了错误;LSN 字段,也是用来校验页面的完整性
+数据页中包含数据行,数据的存储是基于数据行的,数据行有 next_record 属性指向下一个行数据,所以是可以遍历的,但是一组数据至多 8 个行,通过 Page Directory 先定位到组,然后遍历获取所需的数据行即可
+
+数据行中有三个隐藏字段:trx_id、roll_pointer、row_id(在事务章节会详细介绍它们的作用)
+
***
@@ -3882,48 +4019,48 @@ BTree 又叫多路平衡搜索树,一颗 m 叉的 BTree 特性如下:
- 除根节点与叶子节点外,每个节点至少有 [ceil(m/2)] 个孩子
- 若根节点不是叶子节点,则至少有两个孩子
- 所有的叶子节点都在同一层
-- 每个非叶子节点由 n 个key与 n+1 个指针组成,其中 [ceil(m/2)-1] <= n <= m-1
+- 每个非叶子节点由 n 个 key 与 n+1 个指针组成,其中 [ceil(m/2)-1] <= n <= m-1
5 叉,key 的数量 [ceil(m/2)-1] <= n <= m-1 为 2 <= n <=4 ,当 n>4 时中间节点分裂到父节点,两边节点分裂
插入 C N G A H E K Q M F W L T Z D P R X Y S 数据的工作流程:
-* 插入前4个字母 C N G A
+* 插入前 4 个字母 C N G A
- 
+ 
* 插入 H,n>4,中间元素 G 字母向上分裂到新的节点
- 
+ 
* 插入 E、K、Q 不需要分裂
- 
+ 
* 插入 M,中间元素 M 字母向上分裂到父节点 G
- 
+ 
* 插入 F,W,L,T 不需要分裂
- 
+ 
* 插入 Z,中间元素 T 向上分裂到父节点中
- 
+ 
* 插入 D,中间元素 D 向上分裂到父节点中,然后插入 P,R,X,Y 不需要分裂
- 
+ 
* 最后插入 S,NPQR 节点 n>5,中间节点 Q 向上分裂,但分裂后父节点 DGMT 的 n>5,中间节点 M 向上分裂
- 
+ 
-BTree 树就已经构建完成了,BTree 树和二叉树相比, 查询数据的效率更高, 因为对于相同的数据量来说,**BTree 的层级结构比二叉树小**,所以搜索速度快
+BTree 树就已经构建完成了,BTree 树和二叉树相比, 查询数据的效率更高, 因为对于相同的数据量来说,**BTree 的层级结构比二叉树少**,所以搜索速度快
BTree 结构的数据可以让系统高效的找到数据所在的磁盘块,定义一条记录为一个二元组 [key, data] ,key 为记录的键值,对应表中的主键值,data 为一行记录中除主键外的数据。对于不同的记录,key 值互不相同,BTree 中的每个节点根据实际情况可以包含大量的关键字信息和分支
-
+
缺点:当进行范围查找时会出现回旋查找
@@ -3946,9 +4083,9 @@ B+Tree 为 BTree 的变种,B+Tree 与 BTree 的区别为:
- 所有**非叶子节点只存储键值 key** 信息,只进行数据索引,使每个非叶子节点所能保存的关键字大大增加
- 所有**数据都存储在叶子节点**,所以每次数据查询的次数都一样
- **叶子节点按照 key 大小顺序排列,左边结尾数据都会保存右边节点开始数据的指针,形成一个链表**
-- 所有节点中的 key 在叶子节点中也存在(比如 5),key 允许重复,B 树不同节点不存在重复的 key
+- 所有节点中的 key 在叶子节点中也存在(比如 5),**key 允许重复**,B 树不同节点不存在重复的 key
-
+
B* 树:是 B+ 树的变体,在 B+ 树的非根和非叶子结点再增加指向兄弟的指针
@@ -3966,7 +4103,7 @@ MySQL 索引数据结构对经典的 B+Tree 进行了优化,在原 B+Tree 的
B+ 树的**叶子节点是数据页**(page),一个页里面可以存多个数据行
-
+
通常在 B+Tree 上有两个头指针,**一个指向根节点,另一个指向关键字最小的叶子节点**,而且所有叶子节点(即数据节点)之间是一种链式环结构。可以对 B+Tree 进行两种查找运算:
@@ -3994,12 +4131,18 @@ B+ 树为了保持索引的有序性,在插入新值的时候需要做相应
每个索引中每个块存储在磁盘页中,可能会出现以下两种情况:
-* 如果所在的数据页已经满了,这时候需要申请一个新的数据页,然后挪动部分数据过去,这个过程称为**页分裂**
+* 如果所在的数据页已经满了,这时候需要申请一个新的数据页,然后挪动部分数据过去,这个过程称为**页分裂**,原本放在一个页的数据现在分到两个页中,降低了空间利用率
* 当相邻两个页由于删除了数据,利用率很低之后,会将数据页做**页合并**,合并的过程可以认为是分裂过程的逆过程
* 这两个情况都是由 B+ 树的结构决定的
一般选用数据小的字段做索引,字段长度越小,普通索引的叶子节点就越小,普通索引占用的空间也就越小
+自增主键的插入数据模式,可以让主键索引尽量地保持递增顺序插入,不涉及到挪动其他记录,**避免了页分裂**,页分裂的目的就是保证后一个数据页中的所有行主键值比前一个数据页中主键值大
+
+
+
+参考文章:https://developer.aliyun.com/article/919861
+
***
@@ -4090,22 +4233,22 @@ B+ 树为了保持索引的有序性,在插入新值的时候需要做相应
#### 索引下推
-索引条件下推优化(Index Condition Pushdown)是 MySQL5.6 添加,可以在索引遍历过程中,对索引中包含的字段先做判断,直接过滤掉不满足条件的记录,减少回表次数
+索引条件下推优化(Index Condition Pushdown,ICP)是 MySQL5.6 添加,可以在索引遍历过程中,对索引中包含的字段先做判断,直接过滤掉不满足条件的记录,减少回表次数
索引下推充分利用了索引中的数据,在查询出整行数据之前过滤掉无效的数据,再去主键索引树上查找
-* 不使用索引下推优化时存储引擎通过索引检索到数据返回给 MySQL 服务器,服务器判断数据是否符合条件,符合条件的数据去聚簇索引回表查询,获取完整的数据
+* 不使用索引下推优化时存储引擎通过索引检索到数据,然后回表查询记录返回给 Server 层,**服务器判断数据是否符合条件**
- 
-* 使用索引下推优化时,如果**存在某些被索引的列的判断条件**时,MySQL 服务器将这一部分判断条件传递给存储引擎,由存储引擎在索引遍历的过程中判断数据是否符合传递的条件,将符合条件的数据进行回表,检索出来返回给服务器,由此减少 IO 次数
+ 
+* 使用索引下推优化时,如果**存在某些被索引的列的判断条件**时,由存储引擎在索引遍历的过程中判断数据是否符合传递的条件,将符合条件的数据进行回表,检索出来返回给服务器,由此减少 IO 次数
- 
+ 
**适用条件**:
* 需要存储引擎将索引中的数据与条件进行判断(所以**条件列必须都在同一个索引中**),所以优化是基于存储引擎的,只有特定引擎可以使用,适用于 InnoDB 和 MyISAM
* 存储引擎没有调用跨存储引擎的能力,跨存储引擎的功能有存储过程、触发器、视图,所以调用这些功能的不可以进行索引下推优化
-* 对于 InnoDB 引擎只适用于二级索引,InnoDB 的聚簇索引会将整行数据读到缓冲区,不再需要去回表查询了,索引下推的目的减少 IO 次数也就失去了意义
+* 对于 InnoDB 引擎只适用于二级索引,InnoDB 的聚簇索引会将整行数据读到缓冲区,不再需要去回表查询了
工作过程:用户表 user,(name, age) 是联合索引
@@ -4115,10 +4258,10 @@ SELECT * FROM user WHERE name LIKE '张%' AND age = 10; -- 头部模糊匹配
* 优化前:在非主键索引树上找到满足第一个条件的行,然后通过叶子节点记录的主键值再回到主键索引树上查找到对应的行数据,再对比 AND 后的条件是否符合,符合返回数据,需要 4 次回表
- 
+ 
* 优化后:检查索引中存储的列信息是否符合索引条件,然后交由存储引擎用剩余的判断条件判断此行数据是否符合要求,**不满足条件的不去读取表中的数据**,满足下推条件的就根据主键值进行回表查询,2 次回表
- 
+ 
当使用 EXPLAIN 进行分析时,如果使用了索引条件下推,Extra 会显示 Using index condition
@@ -4200,7 +4343,7 @@ CREATE INDEX idx_area ON table_name(area(7));
先将从不同索引中扫描到的记录的主键值进行排序,再按照 Union 索引合并的方式进行查询
-
+索引合并算法的效率并不好,通过将其中的一个索引改成联合索引会优化效率
@@ -4214,12 +4357,228 @@ CREATE INDEX idx_area ON table_name(area(7));
## 系统优化
+### 表优化
+
+#### 分区表
+
+##### 基本介绍
+
+分区表是将大表的数据按分区字段分成许多小的子集,建立一个以 ftime 年份为分区的表:
+
+```mysql
+CREATE TABLE `t` (
+ `ftime` datetime NOT NULL,
+ `c` int(11) DEFAULT NULL,
+ KEY (`ftime`)
+) ENGINE=InnoDB DEFAULT CHARSET=latin1
+PARTITION BY RANGE (YEAR(ftime))
+(PARTITION p_2017 VALUES LESS THAN (2017) ENGINE = InnoDB,
+ PARTITION p_2018 VALUES LESS THAN (2018) ENGINE = InnoDB,
+ PARTITION p_2019 VALUES LESS THAN (2019) ENGINE = InnoDB,
+ PARTITION p_others VALUES LESS THAN MAXVALUE ENGINE = InnoDB);
+INSERT INTO t VALUES('2017-4-1',1),('2018-4-1',1);-- 这两行记录分别落在 p_2018 和 p_2019 这两个分区上
+```
+
+这个表包含了一个.frm 文件和 4 个.ibd 文件,每个分区对应一个.ibd 文件
+
+* 对于引擎层来说,这是 4 个表,针对每个分区表的操作不会相互影响
+* 对于 Server 层来说,这是 1 个表
+
+
+
+***
+
+
+
+##### 分区策略
+
+打开表行为:第一次访问一个分区表时,MySQL 需要**把所有的分区都访问一遍**,如果分区表的数量很多,超过了 open_files_limit 参数(默认值 1024),那么就会在访问这个表时打开所有的文件,导致打开表文件的个数超过了上限而报错
+
+通用分区策略:MyISAM 分区表使用的分区策略,每次访问分区都由 Server 层控制,在文件管理、表管理的实现上很粗糙,因此有比较严重的性能问题
+
+本地分区策略:从 MySQL 5.7.9 开始,InnoDB 引擎内部自己管理打开分区的行为,InnoDB 引擎打开文件超过 innodb_open_files 时就会**关掉一些之前打开的文件**,所以即使分区个数大于 open_files_limit,也不会报错
+
+从 MySQL 8.0 版本开始,就不允许创建 MyISAM 分区表,只允许创建已经实现了本地分区策略的引擎,目前只有 InnoDB 和 NDB 这两个引擎支持了本地分区策略
+
+
+
+***
+
+
+
+##### Server 层
+
+从 Server 层看一个分区表就只是一个表
+
+* Session A:
+
+ ```mysql
+ SELECT * FROM t WHERE ftime = '2018-4-1';
+ ```
+
+* Session B:
+
+ ```mysql
+ ALTER TABLE t TRUNCATE PARTITION p_2017; -- blocked
+ ```
+
+现象:Session B 只操作 p_2017 分区,但是由于 Session A 持有整个表 t 的 MDL 读锁,就导致 B 的 ALTER 语句获取 MDL 写锁阻塞
+
+分区表的特点:
+
+* 第一次访问的时候需要访问所有分区
+* 在 Server 层认为这是同一张表,因此**所有分区共用同一个 MDL 锁**
+* 在引擎层认为这是不同的表,因此 MDL 锁之后的执行过程,会根据分区表规则,只访问需要的分区
+
+
+
+***
+
+
+
+##### 应用场景
+
+分区表的优点:
+
+* 对业务透明,相对于用户分表来说,使用分区表的业务代码更简洁
+
+* 分区表可以很方便的清理历史数据。按照时间分区的分区表,就可以直接通过 `alter table t drop partition` 这个语法直接删除分区文件,从而删掉过期的历史数据,与使用 drop 语句删除数据相比,优势是速度快、对系统影响小
+
+使用分区表,不建议创建太多的分区,注意事项:
+
+* 分区并不是越细越好,单表或者单分区的数据一千万行,只要没有特别大的索引,对于现在的硬件能力来说都已经是小表
+* 分区不要提前预留太多,在使用之前预先创建即可。比如是按月分区,每年年底时再把下一年度的 12 个新分区创建上即可,并且对于没有数据的历史分区,要及时的 drop 掉
+
+
+
+参考文档:https://time.geekbang.org/column/article/82560
+
+
+
+***
+
+
+
+#### 临时表
+
+##### 基本介绍
+
+临时表分为内部临时表和用户临时表
+
+* 内部临时表:系统执行 SQL 语句优化时产生的表,例如 Join 连接查询、去重查询等
+
+* 用户临时表:用户主动创建的临时表
+
+ ```mysql
+ CREATE TEMPORARY TABLE temp_t like table_1;
+ ```
+
+临时表可以是内存表,也可以是磁盘表(多表操作 → 嵌套查询章节提及)
+
+* 内存表指的是使用 Memory 引擎的表,建立哈希索引,建表语法是 `create table … engine=memory`,这种表的数据都保存在内存里,系统重启时会被清空,但是表结构还在
+* 磁盘表是使用 InnoDB 引擎或者 MyISAM 引擎的临时表,建立 B+ 树索引,写数据的时候是写到磁盘上的
+
+临时表的特点:
+
+* 一个临时表只能被创建它的 session 访问,对其他线程不可见,所以不同 session 的临时表是**可以重名**的
+* 临时表可以与普通表同名,会话内有同名的临时表和普通表时,执行 show create 语句以及增删改查语句访问的都是临时表
+* show tables 命令不显示临时表
+* 数据库发生异常重启不需要担心数据删除问题,临时表会**自动回收**
+
+
+
+***
+
+
+
+##### 重名原理
+
+执行创建临时表的 SQL:
+
+```mysql
+create temporary table temp_t(id int primary key)engine=innodb;
+```
+
+MySQL 给 InnoDB 表创建一个 frm 文件保存表结构定义,在 ibd 保存表数据。frm 文件放在临时文件目录下,文件名的后缀是 .frm,**前缀是** `#sql{进程 id}_{线程 id}_ 序列号`,使用 `select @@tmpdir` 命令,来显示实例的临时文件目录
+
+MySQL 维护数据表,除了物理磁盘上的文件外,内存里也有一套机制区别不同的表,每个表都对应一个 table_def_key
+
+* 一个普通表的 table_def_key 的值是由 `库名 + 表名` 得到的,所以如果在同一个库下创建两个同名的普通表,创建第二个表的过程中就会发现 table_def_key 已经存在了
+* 对于临时表,table_def_key 在 `库名 + 表名` 基础上,又加入了 `server_id + thread_id`,所以不同线程之间,临时表可以重名
+
+实现原理:每个线程都维护了自己的临时表链表,每次 session 内操作表时,先遍历链表,检查是否有这个名字的临时表,如果有就**优先操作临时表**,如果没有再操作普通表;在 session 结束时对链表里的每个临时表,执行 `DROP TEMPORARY TABLE + 表名` 操作
+
+执行 rename table 语句无法修改临时表,因为会按照 `库名 / 表名.frm` 的规则去磁盘找文件,但是临时表文件名的规则是 `#sql{进程 id}_{线程 id}_ 序列号.frm`,因此会报找不到文件名的错误
+
+
+
+****
+
+
+
+##### 主备复制
+
+创建临时表的语句会传到备库执行,因此备库的同步线程就会创建这个临时表。主库在线程退出时会自动删除临时表,但备库同步线程是持续在运行的并不会退出,所以这时就需要在主库上再写一个 DROP TEMPORARY TABLE 传给备库执行
+
+binlog 日志写入规则:
+
+* binlog_format=row,跟临时表有关的语句就不会记录到 binlog
+* binlog_format=statment/mixed,binlog 中才会记录临时表的操作,也就会记录 `DROP TEMPORARY TABLE` 这条命令
+
+主库上不同的线程创建同名的临时表是不冲突的,但是备库只有一个执行线程,所以 MySQL 在记录 binlog 时会把主库执行这个语句的线程 id 写到 binlog 中,在备库的应用线程就可以获取执行每个语句的主库线程 id,并利用这个线程 id 来构造临时表的 table_def_key
+
+* session A 的临时表 t1,在备库的 table_def_key 就是:`库名 + t1 +“M 的 serverid" + "session A 的 thread_id”`
+* session B 的临时表 t1,在备库的 table_def_key 就是 :`库名 + t1 +"M 的 serverid" + "session B 的 thread_id"`
+
+MySQL 在记录 binlog 的时不论是 create table 还是 alter table 语句都是原样记录,但是如果执行 drop table,系统记录 binlog 就会被服务端改写
+
+```mysql
+DROP TABLE `t_normal` /* generated by server */
+```
+
+
+
+***
+
+
+
+##### 跨库查询
+
+分库分表系统的跨库查询使用临时表不用担心线程之间的重名冲突,分库分表就是要把一个逻辑上的大表分散到不同的数据库实例上
+
+比如将一个大表 ht,按照字段 f,拆分成 1024 个分表,分布到 32 个数据库实例上,一般情况下都有一个中间层 proxy 解析 SQL 语句,通过分库规则通过分表规则(比如 N%1024)确定将这条语句路由到哪个分表做查询
+
+```mysql
+select v from ht where f=N;
+```
+
+如果这个表上还有另外一个索引 k,并且查询语句:
+
+```mysql
+select v from ht where k >= M order by t_modified desc limit 100;
+```
+
+查询条件里面没有用到分区字段 f,只能**到所有的分区**中去查找满足条件的所有行,然后统一做 order by 操作,两种方式:
+
+* 在 proxy 层的进程代码中实现排序,拿到分库的数据以后,直接在内存中参与计算,但是对 proxy 端的压力比较大,很容易出现内存不够用和 CPU 瓶颈问题
+* 把各个分库拿到的数据,汇总到一个 MySQL 实例的一个表中,然后在这个汇总实例上做逻辑操作,执行流程:
+ * 在汇总库上创建一个临时表 temp_ht,表里包含三个字段 v、k、t_modified
+ * 在各个分库执行:`select v,k,t_modified from ht_x where k >= M order by t_modified desc limit 100`
+ * 把分库执行的结果插入到 temp_ht 表中
+ * 在临时表上执行:`select v from temp_ht order by t_modified desc limit 100`
+
+
+
+
+
+***
+
+
+
### 优化步骤
#### 执行频率
-随着生产数据量的急剧增长,很多 SQL 语句逐渐显露出性能问题,对生产的影响也越来越大,此时有问题的 SQL 语句就成为整个系统性能的瓶颈,因此必须要进行优化
-
MySQL 客户端连接成功后,查询服务器状态信息:
```mysql
@@ -4228,7 +4587,7 @@ SHOW [SESSION|GLOBAL] STATUS LIKE '';
-- GLOBAL: 显示自数据库上次启动至今的统计结果
```
-* 查看SQL执行频率:
+* 查看 SQL 执行频率:
```mysql
SHOW STATUS LIKE 'Com_____';
@@ -4236,7 +4595,7 @@ SHOW [SESSION|GLOBAL] STATUS LIKE '';
Com_xxx 表示每种语句执行的次数
- 
+ 
* 查询 SQL 语句影响的行数:
@@ -4244,11 +4603,11 @@ SHOW [SESSION|GLOBAL] STATUS LIKE '';
SHOW STATUS LIKE 'Innodb_rows_%';
```
- 
+ 
Com_xxxx:这些参数对于所有存储引擎的表操作都会进行累计
-Innodb_xxxx:这几个参数只是针对InnoDB 存储引擎的,累加的算法也略有不同
+Innodb_xxxx:这几个参数只是针对 InnoDB 存储引擎的,累加的算法也略有不同
| 参数 | 含义 |
| :------------------- | ------------------------------------------------------------ |
@@ -4274,7 +4633,7 @@ Innodb_xxxx:这几个参数只是针对InnoDB 存储引擎的,累加的算
SQL 执行慢有两种情况:
-* 偶尔慢:DB 在刷新脏页
+* 偶尔慢:DB 在刷新脏页(学完事务就懂了)
* redo log 写满了
* 内存不够用,要从 LRU 链表中淘汰
* MySQL 认为系统空闲的时候
@@ -4309,7 +4668,7 @@ SQL 执行慢有两种情况:
* SHOW PROCESSLIST:**实时查看**当前 MySQL 在进行的连接线程,包括线程的状态、是否锁表、SQL 的执行情况,同时对一些锁表操作进行优化
- 
+ 
@@ -4332,7 +4691,7 @@ SQL 执行慢有两种情况:
EXPLAIN SELECT * FROM table_1 WHERE id = 1;
```
-
+
| 字段 | 含义 |
| ------------- | ------------------------------------------------------------ |
@@ -4351,18 +4710,16 @@ EXPLAIN SELECT * FROM table_1 WHERE id = 1;
MySQL **执行计划的局限**:
* 只是计划,不是执行 SQL 语句,可以随着底层优化器输入的更改而更改
-* EXPLAIN 不会告诉显示关于触发器、存储过程的信息对查询的影响情况
-* EXPLAIN 不考虑各种 Cache
-* EXPLAIN 不能显示 MySQL 在执行查询时的动态,因为执行计划在执行查询之前生成
-* EXPALIN 部分统计信息是估算的,并非精确值
+* EXPLAIN 不会告诉显示关于触发器、存储过程的信息对查询的影响情况, 不考虑各种 Cache
+* EXPLAIN 不能显示 MySQL 在执行查询时的动态,因为执行计划在执行**查询之前生成**
* EXPALIN 只能解释 SELECT 操作,其他操作要重写为 SELECT 后查看执行计划
-* EXPLAIN PLAN 显示的是在解释语句时数据库将如何运行 SQL 语句,由于执行环境和 EXPLAIN PLAN 环境的不同,此计划可能与 SQL 语句实际的执行计划不同
+* EXPLAIN PLAN 显示的是在解释语句时数据库将如何运行 SQL 语句,由于执行环境和 EXPLAIN PLAN 环境的不同,此计划可能与 SQL 语句**实际的执行计划不同**,部分统计信息是估算的,并非精确值
SHOW WARINGS:在使用 EXPALIN 命令后执行该语句,可以查询与执行计划相关的拓展信息,展示出 Level、Code、Message 三个字段,当 Code 为 1003 时,Message 字段展示的信息类似于将查询语句重写后的信息,但是不是等价,不能执行复制过来运行
环境准备:
-
+
@@ -4382,7 +4739,7 @@ id 代表 SQL 执行的顺序的标识,每个 SELECT 关键字对应一个唯
EXPLAIN SELECT * FROM t_role r, t_user u, user_role ur WHERE r.id = ur.role_id AND u.id = ur.user_id ;
```
- 
+ 
* id 不同时,id 值越大优先级越高,越先被执行
@@ -4390,7 +4747,7 @@ id 代表 SQL 执行的顺序的标识,每个 SELECT 关键字对应一个唯
EXPLAIN SELECT * FROM t_role WHERE id = (SELECT role_id FROM user_role WHERE user_id = (SELECT id FROM t_user WHERE username = 'stu1'))
```
- 
+ 
* id 有相同也有不同时,id 相同的可以认为是一组,从上往下顺序执行;在所有的组中,id 的值越大的组,优先级越高,越先执行
@@ -4398,7 +4755,7 @@ id 代表 SQL 执行的顺序的标识,每个 SELECT 关键字对应一个唯
EXPLAIN SELECT * FROM t_role r , (SELECT * FROM user_role ur WHERE ur.`user_id` = '2') a WHERE r.id = a.role_id ;
```
- 
+ 
* id 为 NULL 时代表的是临时表
@@ -4489,14 +4846,14 @@ key_len:
其他的额外的执行计划信息,在该列展示:
-* No tables used:查询语句中使用 FROM dual 或者没有 FROM 语句
+* No tables used:查询语句中使用 FROM dual 或者没有 FROM 语句
* Impossible WHERE:查询语句中的 WHERE 子句条件永远为 FALSE,会导致没有符合条件的行
* Using index:该值表示相应的 SELECT 操作中使用了**覆盖索引**(Covering Index)
* Using index condition:第一种情况是搜索条件中虽然出现了索引列,但是部分条件无法形成扫描区间(**索引失效**),会根据可用索引的条件先搜索一遍再匹配无法使用索引的条件,回表查询数据;第二种是使用了**索引条件下推**优化
-* Using where:搜索条件需要在 Server 层判断,判断后执行回表操作查询,无法使用索引下推
+* Using where:搜索的数据需要在 Server 层判断,无法使用索引下推
* Using join buffer:连接查询被驱动表无法利用索引,需要连接缓冲区来存储中间结果
* Using filesort:无法利用索引完成排序(优化方向),需要对数据使用外部排序算法,将取得的数据在内存或磁盘中进行排序
-* Using temporary:表示 MySQL 需要使用临时表来存储结果集,常见于排序、去重、分组等场景
+* Using temporary:表示 MySQL 需要使用临时表来存储结果集,常见于**排序、去重(UNION)、分组**等场景
* Select tables optimized away:说明仅通过使用索引,优化器可能仅从聚合函数结果中返回一行
* No tables used:Query 语句中使用 from dual 或不含任何 from 子句
@@ -4515,11 +4872,11 @@ key_len:
SHOW PROFILES 能够在做 SQL 优化时分析当前会话中语句执行的**资源消耗**情况
* 通过 have_profiling 参数,能够看到当前 MySQL 是否支持 profile:
- 
+ 
* 默认 profiling 是关闭的,可以通过 set 语句在 Session 级别开启 profiling:
- 
+ 
```mysql
SET profiling=1; #开启profiling 开关;
@@ -4531,7 +4888,7 @@ SHOW PROFILES 能够在做 SQL 优化时分析当前会话中语句执行的**
SHOW PROFILES;
```
- 
+ 
* 查看到该 SQL 执行过程中每个线程的状态和消耗的时间:
@@ -4539,13 +4896,11 @@ SHOW PROFILES 能够在做 SQL 优化时分析当前会话中语句执行的**
SHOW PROFILE FOR QUERY query_id;
```
- 
-
- **Sending data 状态**表示 MySQL 线程开始访问数据行并把结果返回给客户端,而不仅仅是返回给客户端。由于在 Sending data 状态下,MySQL 线程需要做大量磁盘读取操作,所以是整个查询中耗时最长的状态。
+ 
* 在获取到最消耗时间的线程状态后,MySQL 支持选择 all、cpu、block io 、context switch、page faults 等类型查看 MySQL 在使用什么资源上耗费了过高的时间。例如,选择查看 CPU 的耗费时间:
- 
+ 
* Status:SQL 语句执行的状态
* Durationsql:执行过程中每一个步骤的耗时
@@ -4560,7 +4915,7 @@ SHOW PROFILES 能够在做 SQL 优化时分析当前会话中语句执行的**
#### TRACE
-MySQL 提供了对 SQL 的跟踪, 通过 trace 文件可以查看优化器生成执行计划的过程
+MySQL 提供了对 SQL 的跟踪, 通过 trace 文件可以查看优化器**生成执行计划的过程**
* 打开 trace 功能,设置格式为 JSON,并设置 trace 的最大使用内存,避免解析过程中因默认内存过小而不能够完整展示
@@ -4591,7 +4946,7 @@ MySQL 提供了对 SQL 的跟踪, 通过 trace 文件可以查看优化器生
-### 索引失效
+### 索引优化
#### 创建索引
@@ -4609,10 +4964,10 @@ CREATE TABLE `tb_seller` (
PRIMARY KEY(`sellerid`)
)ENGINE=INNODB DEFAULT CHARSET=utf8mb4;
INSERT INTO `tb_seller` (`sellerid`, `name`, `nickname`, `password`, `status`, `address`, `createtime`) values('xiaomi','小米科技','小米官方旗舰店','e10adc3949ba59abbe56e057f20f883e','1','西安市','2088-01-01 12:00:00');
-CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
+CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address); # 联合索引
```
-
+
@@ -4630,7 +4985,7 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
EXPLAIN SELECT * FROM tb_seller WHERE name='小米科技' AND status='1' AND address='西安市';
```
- 
+ 
* **最左前缀法则**:联合索引遵守最左前缀法则
@@ -4641,7 +4996,7 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
EXPLAIN SELECT * FROM tb_seller WHERE name='小米科技' AND status='1';
```
- 
+ 
违法最左前缀法则 , 索引失效:
@@ -4650,7 +5005,7 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
EXPLAIN SELECT * FROM tb_seller WHERE status='1' AND address='西安市';
```
- 
+ 
如果符合最左法则,但是出现跳跃某一列,只有最左列索引生效:
@@ -4658,9 +5013,9 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
EXPLAIN SELECT * FROM tb_seller WHERE name='小米科技' AND address='西安市';
```
- 
+ 
- 虽然索引列失效,但是系统**使用了索引下推进行了优化**
+ 虽然索引列失效,但是系统会**使用了索引下推进行了优化**
* **范围查询**右边的列,不能使用索引:
@@ -4670,25 +5025,31 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
根据前面的两个字段 name , status 查询是走索引的, 但是最后一个条件 address 没有用到索引,使用了索引下推
- 
+ 
-* 在索引列上进行**运算操作**, 索引将失效:
+* 在索引列上**函数或者运算(+ - 数值)操作**, 索引将失效:会破坏索引值的有序性
```mysql
EXPLAIN SELECT * FROM tb_seller WHERE SUBSTRING(name,3,2) = '科技';
```
- 
+ 
-* **字符串不加单引号**,造成索引失效:
+* **字符串不加单引号**,造成索引失效:隐式类型转换,当字符串和数字比较时会**把字符串转化为数字**
- 在查询时,没有对字符串加单引号,MySQL 的查询优化器,会自动的进行类型转换,造成索引失效
+ 没有对字符串加单引号,查询优化器会调用 CAST 函数将 status 转换为 int 进行比较,造成索引失效
```mysql
- EXPLAIN SELECT * FROM tb_seller WHERE name='小米科技' AND status=1;
+ EXPLAIN SELECT * FROM tb_seller WHERE name='小米科技' AND status = 1;
```
- 
+ 
+
+ 如果 status 是 int 类型,SQL 为 `SELECT * FROM tb_seller WHERE status = '1' ` 并不会造成索引失效,因为会将 `'1'` 转换为 `1`,并**不会对索引列产生操作**
+
+* 多表连接查询时,如果两张表的**字符集不同**,会造成索引失效,因为会进行类型转换
+
+ 解决方法:CONVERT 函数是加在输入参数上、修改表的字符集
* **用 OR 分割条件,索引失效**,导致全表查询:
@@ -4699,7 +5060,7 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
EXPLAIN SELECT * FROM tb_seller WHERE name='小米科技' OR status='1';
```
- 
+ 
**AND 分割的条件不影响**:
@@ -4707,17 +5068,17 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
EXPLAIN SELECT * FROM tb_seller WHERE name='阿里巴巴' AND createtime = '2088-01-01 12:00:00';
```
- 
+ 
* **以 % 开头的 LIKE 模糊查询**,索引失效:
- 如果是尾部模糊匹配,索引不会失效;如果是头部模糊匹配,索引失效。
+ 如果是尾部模糊匹配,索引不会失效;如果是头部模糊匹配,索引失效
```mysql
EXPLAIN SELECT * FROM tb_seller WHERE name like '%科技%';
```
- 
+ 
解决方案:通过覆盖索引来解决
@@ -4725,7 +5086,7 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
EXPLAIN SELECT sellerid,name,status FROM tb_seller WHERE name like '%科技%';
```
- 
+ 
原因:在覆盖索引的这棵 B+ 数上只需要进行 like 的匹配,或者是基于覆盖索引查询再进行 WHERE 的判断就可以获得结果
@@ -4749,7 +5110,7 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
北京市的键值占 9/10(区分度低),所以优化为全表扫描,type = ALL
- 
+ 
* IS NULL、IS NOT NULL **有时**索引失效:
@@ -4760,7 +5121,7 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
NOT NULL 失效的原因是 name 列全部不是 null,优化为全表扫描,当 NULL 过多时,IS NULL 失效
- 
+ 
* IN 肯定会走索引,但是当 IN 的取值范围较大时会导致索引失效,走全表扫描:
@@ -4769,6 +5130,8 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
EXPLAIN SELECT * FROM tb_seller WHERE sellerId NOT IN ('alibaba','huawei');
```
+* [MySQL 实战 45 讲](https://time.geekbang.org/column/article/74687)该章节最后提出了一种慢查询场景,获取到数据以后 Server 层还会做判断
+
***
@@ -4779,16 +5142,20 @@ CREATE INDEX idx_seller_name_sta_addr ON tb_seller(name, status, address);
索引失效一般是针对联合索引,联合索引一般由几个字段组成,排序方式是先按照第一个字段进行排序,然后排序第二个,依此类推,图示(a, b)索引,**a 相等的情况下 b 是有序的**
-
+
* 最左前缀法则:当不匹配前面的字段的时候,后面的字段都是无序的。这种无序不仅体现在叶子节点,也会**导致查询时扫描的非叶子节点也是无序的**,因为索引树相当于忽略的第一个字段,就无法使用二分查找
* 范围查询右边的列,不能使用索引,比如语句: `WHERE a > 1 AND b = 1 `,在 a 大于 1 的时候,b 是无序的,a > 1 是扫描时有序的,但是找到以后进行寻找 b 时,索引树就不是有序的了
-
+
* 以 % 开头的 LIKE 模糊查询,索引失效,比如语句:`WHERE a LIKE '%d'`,前面的不确定,导致不符合最左匹配,直接去索引中搜索以 d 结尾的节点,所以没有顺序
- 
+ 
+
+
+
+参考文章:https://mp.weixin.qq.com/s/B_M09dzLe9w7cT46rdGIeQ
@@ -4803,7 +5170,7 @@ SHOW STATUS LIKE 'Handler_read%';
SHOW GLOBAL STATUS LIKE 'Handler_read%';
```
-
+
* Handler_read_first:索引中第一条被读的次数,如果较高,表示服务器正执行大量全索引扫描(这个值越低越好)
@@ -4827,17 +5194,77 @@ SHOW GLOBAL STATUS LIKE 'Handler_read%';
### SQL 优化
-#### 覆盖索引
+#### 自增主键
-复合索引叶子节点不仅保存了复合索引的值,还有主键索引,所以使用覆盖索引的时候,加上主键也会用到索引
+##### 自增机制
-尽量使用覆盖索引,避免 SELECT *:
+自增主键可以让主键索引尽量地保持在数据页中递增顺序插入,不自增需要寻找其他页插入,导致随机 IO 和页分裂的情况
-```mysql
-EXPLAIN SELECT name,status,address FROM tb_seller WHERE name='小米科技' AND status='1' AND address='西安市';
+表的结构定义存放在后缀名为.frm 的文件中,但是并不会保存自增值,不同的引擎对于自增值的保存策略不同:
+
+* MyISAM 引擎的自增值保存在数据文件中
+* InnoDB 引擎的自增值保存在了内存里,每次打开表都会去找自增值的最大值 max(id),然后将 max(id)+1 作为当前的自增值;8.0 版本后,才有了自增值持久化的能力,将自增值的变更记录在了 redo log 中,重启的时候依靠 redo log 恢复重启之前的值
+
+在插入一行数据的时候,自增值的行为如下:
+
+* 如果插入数据时 id 字段指定为 0、null 或未指定值,那么就把这个表当前的 AUTO_INCREMENT 值填到自增字段
+* 如果插入数据时 id 字段指定了具体的值,比如某次要插入的值是 X,当前的自增值是 Y
+ * 如果 X 200000 LIMIT 10; -- 写法 1
+ EXPLAIN SELECT * FROM tb_user_1 WHERE id > 200000 LIMIT 10; -- 写法 1
EXPLAIN SELECT * FROM tb_user_1 WHERE id BETWEEN 200000 and 200010; -- 写法 2
```
- 
+ 
@@ -5168,7 +5608,7 @@ SQL 提示,是优化数据库的一个重要手段,就是在 SQL 语句中
EXPLAIN SELECT * FROM tb_seller USE INDEX(idx_seller_name) WHERE name='小米科技';
```
- 
+ 
* IGNORE INDEX:让 MySQL 忽略一个或者多个索引,则可以使用 IGNORE INDEX 作为提示
@@ -5176,7 +5616,7 @@ SQL 提示,是优化数据库的一个重要手段,就是在 SQL 语句中
EXPLAIN SELECT * FROM tb_seller IGNORE INDEX(idx_seller_name) WHERE name = '小米科技';
```
- 
+ 
* FORCE INDEX:强制 MySQL 使用一个特定的索引
@@ -5184,7 +5624,7 @@ SQL 提示,是优化数据库的一个重要手段,就是在 SQL 语句中
EXPLAIN SELECT * FROM tb_seller FORCE INDEX(idx_seller_name_sta_addr) WHERE NAME='小米科技';
```
- 
+ 
@@ -5208,7 +5648,7 @@ SQL 提示,是优化数据库的一个重要手段,就是在 SQL 语句中
* 计数直接放到数据库里单独的一张计数表中,利用事务解决计数精确问题:
-
+
会话 B 的读操作在 T3 执行的,这时更新事务还没有提交,所以计数值加 1 这个操作对会话 B 还不可见,因此会话 B 查询的计数值和最近 100 条记录,返回的结果逻辑上就是一致的
@@ -5218,8 +5658,8 @@ count 函数的按照效率排序:`count(字段) < count(主键id) < count(1)
* count(主键 id):InnoDB 引擎会遍历整张表,把每一行的 id 值都取出来返回给 Server 层,Server 判断 id 不为空就按行累加
* count(1):InnoDB 引擎遍历整张表但不取值,Server 层对于返回的每一行,放一个数字 1 进去,判断不为空就按行累加
-
* count(字段):如果这个字段是定义为 not null 的话,一行行地从记录里面读出这个字段,判断不能为 null,按行累加;如果这个字段定义允许为 null,那么执行的时候,判断到有可能是 null,还要把值取出来再判断一下,不是 null 才累加
+* count(*):不取值,按行累加
@@ -5233,7 +5673,7 @@ count 函数的按照效率排序:`count(字段) < count(主键id) < count(1)
-### 内存优化
+### 缓冲优化
#### 优化原则
@@ -5243,25 +5683,6 @@ count 函数的按照效率排序:`count(字段) < count(主键id) < count(1)
* MyISAM 存储引擎的数据文件读取依赖于操作系统自身的 IO 缓存,如果有 MyISAM 表,就要预留更多的内存给操作系统做 IO 缓存
* 排序区、连接区等缓存是分配给每个数据库会话(Session)专用的,值的设置要根据最大连接数合理分配,如果设置太大,不但浪费资源,而且在并发数较高时会导致物理内存耗尽
-MyISAM 存储引擎使用 key_buffer 缓存索引块,加速 MyISAM 索引的读写速度。对于 MyISAM 表的数据块没有特别的缓存机制,完全依赖于操作系统的 IO 缓存
-
-* key_buffer_size:该变量决定 MyISAM 索引块缓存区的大小,直接影响到 MyISAM 表的存取效率
-
- ```mysql
- SHOW VARIABLES LIKE 'key_buffer_size'; -- 单位是字节
- ```
-
- 在 MySQL 配置文件中设置该值,建议至少将1/4可用内存分配给 key_buffer_size:
-
- ```sh
- vim /etc/mysql/my.cnf
- key_buffer_size=1024M
- ```
-
-* read_buffer_size:如果需要经常顺序扫描 MyISAM 表,可以通过增大 read_buffer_size 的值来改善性能。但 read_buffer_size 是每个 Session 独占的,如果默认值设置太大,并发环境就会造成内存浪费
-
-* read_rnd_buffer_size:对于需要做排序的 MyISAM 表的查询,如带有 ORDER BY 子句的语句,适当增加该的值,可以改善此类的 SQL 的性能,但是 read_rnd_buffer_size 是每个 Session 独占的,如果默认值设置太大,就会造成内存浪费
-
***
@@ -5272,17 +5693,19 @@ MyISAM 存储引擎使用 key_buffer 缓存索引块,加速 MyISAM 索引的
Buffer Pool 本质上是 InnoDB 向操作系统申请的一段连续的内存空间。InnoDB 的数据是按数据页为单位来读写,每个数据页的大小默认是 16KB。数据是存放在磁盘中,每次读写数据都需要进行磁盘 IO 将数据读入内存进行操作,效率会很低,所以提供了 Buffer Pool 来暂存这些数据页,缓存中的这些页又叫缓冲页
-工作流程:
+工作原理:
* 从数据库读取数据时,会首先从缓存中读取,如果缓存中没有,则从磁盘读取后放入 Buffer Pool
-* 向数据库写入数据时,会首先写入缓存,缓存中修改的数据会**定期刷新**到磁盘,这一过程称为刷脏
+* 向数据库写入数据时,会写入缓存,缓存中修改的数据会**定期刷新**到磁盘,这一过程称为刷脏
Buffer Pool 中每个缓冲页都有对应的控制信息,包括表空间编号、页号、偏移量、链表信息等,控制信息存放在占用的内存称为控制块,控制块与缓冲页是一一对应的,但并不是物理上相连的,都在缓冲池中
MySQL 提供了缓冲页的快速查找方式:**哈希表**,使用表空间号和页号作为 Key,缓冲页控制块的地址作为 Value 创建一个哈希表,获取数据页时根据 Key 进行哈希寻址:
* 如果不存在对应的缓存页,就从 free 链表中选一个空闲缓冲页,把磁盘中的对应页加载到该位置
-* 如果存在对应的缓存页,直接获取使用
+* 如果存在对应的缓存页,直接获取使用,提高查询数据的效率
+
+当内存数据页跟磁盘数据页内容不一致时,称这个内存页为脏页;内存数据写入磁盘后,内存和磁盘上的数据页一致,称为干净页
@@ -5294,11 +5717,11 @@ MySQL 提供了缓冲页的快速查找方式:**哈希表**,使用表空间
##### Free 链表
-MySQL 启动时完成对 Buffer Pool 的初始化,先向操作系统申请连续的内存空间,然后将内存划分为若干对控制块和缓冲页。为了区分空闲和已占用的数据页,将所有缓冲页对应的控制块作为一个节点放入一个链表中,就是 Free 链表(**空闲链表**)
+MySQL 启动时完成对 Buffer Pool 的初始化,先向操作系统申请连续的内存空间,然后将内存划分为若干对控制块和缓冲页。为了区分空闲和已占用的数据页,将所有空闲缓冲页对应的**控制块作为一个节点**放入一个链表中,就是 Free 链表(**空闲链表**)
-
+
-基节点:是一块单独申请的内存空间(占 40 字节),并不在Buffer Pool的那一大片连续内存空间里
+基节点:是一块单独申请的内存空间(占 40 字节),并不在 Buffer Pool 的那一大片连续内存空间里
磁盘加载页的流程:
@@ -5318,15 +5741,15 @@ MySQL 启动时完成对 Buffer Pool 的初始化,先向操作系统申请连
##### Flush 链表
-Flush 链表是一个用来**存储脏页**的链表,对于已经修改过的缓冲脏页,出于性能考虑并不是直接更新到磁盘,而是在未来的某个时间进行刷脏,所以需要暂时存储所有的脏页
+Flush 链表是一个用来**存储脏页**的链表,对于已经修改过的缓冲脏页,第一次修改后加入到**链表头部**,以后每次修改都不会重新加入,只修改部分控制信息,出于性能考虑并不是直接更新到磁盘,而是在未来的某个时间进行刷脏
-
+
-后台有专门的线程每隔一段时间把脏页刷新到磁盘:
+**后台有专门的线程每隔一段时间把脏页刷新到磁盘**:
* 从 Flush 链表中刷新一部分页面到磁盘:
- * 后台线程定时从 Flush 链表刷脏,根据系统的繁忙程度来决定刷新速率,这种方式称为 BUF_FLUSH_LIST
- * 线程刷脏的比较慢,导致用户线程加载一个新的数据页时发现没有空闲缓冲页,此时会尝试从 LRU 链表尾部寻找未修改的缓冲页直接释放,如果没有就会将 LRU 链表尾部的一个脏页**同步刷新**到磁盘,速度较慢,这种方式称为 BUF_FLUSH_SINGLE_PAGE
+ * **后台线程定时**从 Flush 链表刷脏,根据系统的繁忙程度来决定刷新速率,这种方式称为 BUF_FLUSH_LIST
+ * 线程刷脏的比较慢,导致用户线程加载一个新的数据页时发现没有空闲缓冲页,此时会尝试从 LRU 链表尾部寻找缓冲页直接释放,如果该页面是已经修改过的脏页就**同步刷新**到磁盘,速度较慢,这种方式称为 BUF_FLUSH_SINGLE_PAGE
* 从 LRU 链表的冷数据中刷新一部分页面到磁盘,即:BUF_FLUSH_LRU
* 后台线程会定时从 LRU 链表的尾部开始扫描一些页面,扫描的页面数量可以通过系统变量 `innodb_lru_scan_depth` 指定,如果在 LRU 链表中发现脏页,则把它们刷新到磁盘,这种方式称为 BUF_FLUSH_LRU
* 控制块里会存储该缓冲页是否被修改的信息,所以可以很容易的获取到某个缓冲页是否是脏页
@@ -5337,52 +5760,48 @@ Flush 链表是一个用来**存储脏页**的链表,对于已经修改过的
-
-
***
##### LRU 链表
-当 Buffer Pool 中没有空闲缓冲页时就需要淘汰掉最近最少使用的部分缓冲页,为了实现这个功能,MySQL 创建了一个 LRU 链表,当访问某个页时:
+Buffer Pool 需要保证缓存的命中率,所以 MySQL 创建了一个 LRU 链表,当访问某个页时:
-* 如果该页不在 Buffer Pool 中,把该页从磁盘加载进来后会将该缓冲页对应的控制块作为节点放入 **LRU 链表的头部**
-* 如果该页在 Buffer Pool 中,则直接把该页对应的控制块移动到 LRU 链表的头部
-
-这样操作后 LRU 链表的尾部就是最近最少使用的缓冲页
+* 如果该页不在 Buffer Pool 中,把该页从磁盘加载进来后会将该缓冲页对应的控制块作为节点放入 **LRU 链表的头部**,保证热点数据在链表头
+* 如果该页在 Buffer Pool 中,则直接把该页对应的控制块移动到 LRU 链表的头部,所以 LRU 链表尾部就是最近最少使用的缓冲页
MySQL 基于局部性原理提供了预读功能:
* 线性预读:系统变量 `innodb_read_ahead_threshold`,如果顺序访问某个区(extent:16 KB 的页,连续 64 个形成一个区,一个区默认 1MB 大小)的页面数超过了该系统变量值,就会触发一次**异步读取**下一个区中全部的页面到 Buffer Pool 中
* 随机预读:如果某个区 13 个连续的页面都被加载到 Buffer Pool,无论这些页面是否是顺序读取,都会触发一次**异步读取**本区所有的其他页面到 Buffer Pool 中
-预读会造成加载太多用不到的数据页,造成那些使用频率很高的数据页被挤到 LRU 链表尾部,所以 InnoDB 将 LRU 链表分成两段:
+预读会造成加载太多用不到的数据页,造成那些使用频率很高的数据页被挤到 LRU 链表尾部,所以 InnoDB 将 LRU 链表分成两段,**冷热数据隔离**:
-* 一部分存储使用频率很高的数据页,这部分链表也叫热数据,young 区
-* 一部分存储使用频率不高的冷数据,old 区,默认占 37%,可以通过系统变量 `innodb_old_blocks_pct` 指定
+* 一部分存储使用频率很高的数据页,这部分链表也叫热数据,young 区,靠近链表头部的区域
+* 一部分存储使用频率不高的冷数据,old 区,靠近链表尾部,默认占 37%,可以通过系统变量 `innodb_old_blocks_pct` 指定
当磁盘上的某数据页被初次加载到 Buffer Pool 中会被放入 old 区,淘汰时优先淘汰 old 区
-* 当对 old 区的数据进行访问时,会在控制块记录下访问时间,等待后续的访问时间与第一次访问的时间是否在某个时间间隔内,通过系统变量 `innodb_old_blocks_time` 指定时间间隔,默认 1000ms,成立就移动到 young 区的链表头部
+* 当对 old 区的数据进行访问时,会在控制块记录下访问时间,等待后续的访问时间与第一次访问的时间是否在某个时间间隔内,通过系统变量 `innodb_old_blocks_time` 指定时间间隔,默认 1000ms,成立就**移动到 young 区的链表头部**
* `innodb_old_blocks_time` 为 0 时,每次访问一个页面都会放入 young 区的头部
-
-
***
#### 参数优化
-Innodb 用一块内存区做 IO 缓存池,该缓存池不仅用来缓存 Innodb 的索引块,也用来缓存 Innodb 的数据块,可以通过下面的指令查看 Buffer Pool 的状态信息:
+InnoDB 用一块内存区做 IO 缓存池,该缓存池不仅用来缓存 InnoDB 的索引块,也用来缓存 InnoDB 的数据块,可以通过下面的指令查看 Buffer Pool 的状态信息:
```mysql
SHOW ENGINE INNODB STATUS\G
```
+`Buffer pool hit rate` 字段代表**内存命中率**,表示 Buffer Pool 对查询的加速效果
+
核心参数:
* `innodb_buffer_pool_size`:该变量决定了 Innodb 存储引擎表数据和索引数据的最大缓存区大小,默认 128M
@@ -5391,7 +5810,7 @@ SHOW ENGINE INNODB STATUS\G
SHOW VARIABLES LIKE 'innodb_buffer_pool_size';
```
- 在保证操作系统及其他程序有足够内存可用的情况下,`innodb_buffer_pool_size` 的值越大,缓存命中率越高
+ 在保证操作系统及其他程序有足够内存可用的情况下,`innodb_buffer_pool_size` 的值越大,缓存命中率越高,建议设置成可用物理内存的 60%~80%
```sh
innodb_buffer_pool_size=512M
@@ -5405,252 +5824,218 @@ SHOW ENGINE INNODB STATUS\G
innodb_log_buffer_size=10M
```
-在多线程下,访问 Buffer Pool 中的各种链表都需要加锁,所以将 Buffer Pool 拆成若干个小实例,每个实例独立管理内存空间和各种链表(类似 ThreadLocal),多线程访问各实例互不影响,提高了并发能力
+在多线程下,访问 Buffer Pool 中的各种链表都需要加锁,所以将 Buffer Pool 拆成若干个小实例,**每个线程对应一个实例**,独立管理内存空间和各种链表(类似 ThreadLocal),多线程访问各自实例互不影响,提高了并发能力
-* 在系统启动时设置系统变量 `innodb_buffer_pool_instance` 可以指定 Buffer Pool 实例的个数,但是当 Buffer Pool 小于 1GB 时,设置多个实例时无效的
-
-MySQL 5.7.5 之前 `innodb_buffer_pool_size` 只支持在系统启动时修改,现在已经支持运行时修改 Buffer Pool 的大小,但是每次调整参数都会重新向操作系统申请一块连续的内存空间,将旧的缓冲池的内容拷贝到新空间非常耗时,所以 MySQL 开始以一个 chunk 为单位向操作系统申请内存,所以一个 Buffer Pool 实例由多个 chunk 组成
+MySQL 5.7.5 之前 `innodb_buffer_pool_size` 只支持在系统启动时修改,现在已经支持运行时修改 Buffer Pool 的大小,但是每次调整参数都会重新向操作系统申请一块连续的内存空间,**将旧的缓冲池的内容拷贝到新空间**非常耗时,所以 MySQL 开始以一个 chunk 为单位向操作系统申请内存,所以一个 Buffer Pool 实例可以由多个 chunk 组成
+* 在系统启动时设置系统变量 `innodb_buffer_pool_instance` 可以指定 Buffer Pool 实例的个数,但是当 Buffer Pool 小于 1GB 时,设置多个实例时无效的
* 指定系统变量 `innodb_buffer_pool_chunk_size` 来改变 chunk 的大小,只能在启动时修改,运行中不能修改,而且该变量并不包含缓冲页的控制块的内存大小
* `innodb_buffer_pool_size` 必须是 `innodb_buffer_pool_chunk_size × innodb_buffer_pool_instance` 的倍数,默认值是 `128M × 16 = 2G`,Buffer Pool 必须是 2G 的整数倍,如果指定 5G,会自动调整成 6G
-
* 如果启动时 `chunk × instances` > `pool_size`,那么 chunk 的值会自动设置为 `pool_size ÷ instances`
+***
-***
+### 内存优化
+#### Change
-### 并发优化
+InnoDB 管理的 Buffer Pool 中有一块内存叫 Change Buffer 用来对**增删改操作**提供缓存,可以通过参数来动态设置,设置为 50 时表示 Change Buffer 的大小最多占用 Buffer Pool 的 50%
-MySQL Server 是多线程结构,包括后台线程和客户服务线程。多线程可以有效利用服务器资源,提高数据库的并发性能。在 MySQL 中,控制并发连接和线程的主要参数:
+* 唯一索引的更新不能使用 Change Buffer,需要将数据页读入内存,判断没有冲突在写入
+* 普通索引可以使用 Change Buffer,**直接写入 Buffer 就结束**,不用校验唯一性
-* max_connections:控制允许连接到 MySQL 数据库的最大连接数,默认值是 151
+Change Buffer 并不是数据页,只是对操作的缓存,所以需要将 Change Buffer 中的操作应用到旧数据页,得到新的数据页(脏页)的过程称为 Merge
- 如果状态变量 connection_errors_max_connections 不为零,并且一直增长,则说明不断有连接请求因数据库连接数已达到允许最大值而失败,这时可以考虑增大max_connections 的值
+* 触发时机:访问数据页时会触发 Merge、后台有定时线程进行 Merge、在数据库正常关闭(shutdown)的过程中也会触发
+* 工作流程:首先从磁盘读入数据页到内存(因为 Buffer Pool 中不一定存在对应的数据页),从 Change Buffer 中找到对应的操作应用到数据页,得到新的数据页即为脏页,然后写入 redo log,等待刷脏即可
- Mysql 最大可支持的连接数取决于很多因素,包括操作系统平台的线程库的质量、内存大小、每个连接的负荷、CPU的处理速度、期望的响应时间等。在 Linux 平台下,性能好的服务器,可以支持 500-1000 个连接,需要根据服务器性能进行评估设定
+说明:Change Buffer 中的记录,在事务提交时也会写入 redo log,所以是可以保证不丢失的
-* back_log:控制 MySQL 监听 TCP 端口时的积压请求栈的大小
+业务场景:
- 如果 Mysql 的连接数达到 max_connections 时,新来的请求将会被存在堆栈中,以等待某一连接释放资源,该堆栈的数量即 back_log。如果等待连接的数量超过 back_log,将不被授予连接资源直接报错
+* 对于**写多读少**的业务来说,页面在写完以后马上被访问到的概率比较小,此时 Change Buffer 的使用效果最好,常见的就是账单类、日志类的系统
- 5.6.6 版本之前默认值为 50,之后的版本默认为 `50 + (max_connections/5)`,但最大不超过900,如果需要数据库在较短的时间内处理大量连接请求, 可以考虑适当增大 back_log 的值
+* 一个业务的更新模式是写入后马上做查询,那么即使满足了条件,将更新先记录在 Change Buffer,但之后由于马上要访问这个数据页,会立即触发 Merge 过程,这样随机访问 IO 的次数不会减少,并且增加了 Change Buffer 的维护代价
-* table_open_cache:控制所有 SQL 语句执行线程可打开表缓存的数量
+补充:Change Buffer 的前身是 Insert Buffer,只能对 Insert 操作优化,后来增加了 Update/Delete 的支持,改为 Change Buffer
- 在执行 SQL 语句时,每个执行线程至少要打开1个表缓存,该参数的值应该根据设置的最大连接数以及每个连接执行关联查询中涉及的表的最大数量来设定:`max_connections * N`
-* thread_cache_size:可控制 MySQL 缓存客户服务线程的数量
- 为了加快连接数据库的速度,MySQL 会缓存一定数量的客户服务线程以备重用,池化思想
+***
-* innodb_lock_wait_timeout:设置 InnoDB 事务等待行锁的时间,默认值是 50ms
- 对于需要快速反馈的业务系统,可以将行锁的等待时间调小,以避免事务被长时间挂起; 对于后台运行的批量处理程序来说,可以将行锁的等待时间调大,以避免发生大的回滚操作
+#### Net
+Server 层针对优化**查询**的内存为 Net Buffer,内存的大小是由参数 `net_buffer_length`定义,默认 16k,实现流程:
+* 获取一行数据写入 Net Buffer,重复获取直到 Net Buffer 写满,调用网络接口发出去
+* 若发送成功就清空 Net Buffer,然后继续取下一行;若发送函数返回 EAGAIN 或 WSAEWOULDBLOCK,表示本地网络栈 `socket send buffer` 写满了,**进入等待**,直到网络栈重新可写再继续发送
+MySQL 采用的是边读边发的逻辑,因此对于数据量很大的查询来说,不会在 Server 端保存完整的结果集,如果客户端读结果不及时,会堵住 MySQL 的查询过程,但是**不会把内存打爆导致 OOM**
+
+SHOW PROCESSLIST 获取线程信息后,处于 Sending to client 状态代表服务器端的网络栈写满,等待客户端接收数据
-***
+假设有一个业务的逻辑比较复杂,每读一行数据以后要处理很久的逻辑,就会导致客户端要过很久才会去取下一行数据,导致 MySQL 的阻塞,一直处于 Sending to client 的状态
+解决方法:如果一个查询的返回结果很是很多,建议使用 mysql_store_result 这个接口,直接把查询结果保存到本地内存
+参考文章:https://blog.csdn.net/qq_33589510/article/details/117673449
-## 事务机制
-### 管理事务
-事务(Transaction)是访问和更新数据库的程序执行单元;事务中可能包含一个或多个 sql 语句,这些语句要么都执行,要么都不执行。作为一个关系型数据库,MySQL 支持事务。
+***
-事务的四大特征:ACID
-- 原子性 (atomicity)
-- 一致性 (consistency)
-- 隔离性 (isolaction)
-- 持久性 (durability)
-单元中的每条 SQL 语句都相互依赖,形成一个整体
+#### Read
-* 如果某条 SQL 语句执行失败或者出现错误,那么整个单元就会回滚,撤回到事务最初的状态
+read_rnd_buffer 是 MySQL 的随机读缓冲区,当按任意顺序读取记录行时将分配一个随机读取缓冲区,进行排序查询时,MySQL 会首先扫描一遍该缓冲,以避免磁盘搜索,提高查询速度,大小是由 read_rnd_buffer_size 参数控制的
-* 如果单元中所有的 SQL 语句都执行成功,则事务就顺利执行
+Multi-Range Read 优化,**将随机 IO 转化为顺序 IO** 以降低查询过程中 IO 开销,因为大多数的数据都是按照主键递增顺序插入得到,所以按照主键的递增顺序查询的话,对磁盘的读比较接近顺序读,能够提升读性能
-管理事务的三个步骤
+二级索引为 a,聚簇索引为 id,优化回表流程:
-1. 开启事务:记录回滚点,并通知服务器,将要执行一组操作,要么同时成功、要么同时失败
+* 根据索引 a,定位到满足条件的记录,将 id 值放入 read_rnd_buffer 中
+* 将 read_rnd_buffer 中的 id 进行**递增排序**
+* 排序后的 id 数组,依次回表到主键 id 索引中查记录,并作为结果返回
-2. 执行 SQL 语句:执行具体的一条或多条 SQL 语句
+说明:如果步骤 1 中 read_rnd_buffer 放满了,就会先执行步骤 2 和 3,然后清空 read_rnd_buffer,之后继续找索引 a 的下个记录
-3. 结束事务(提交|回滚)
+使用 MRR 优化需要设进行设置:
- - 提交:没出现问题,数据进行更新
- - 回滚:出现问题,数据恢复到开启事务时的状态
+```mysql
+SET optimizer_switch='mrr_cost_based=off'
+```
-事务操作:
-* 开启事务
+***
+
- ```mysql
- START TRANSACTION;
- ```
-* 回滚事务
+#### Key
+
+MyISAM 存储引擎使用 key_buffer 缓存索引块,加速 MyISAM 索引的读写速度。对于 MyISAM 表的数据块没有特别的缓存机制,完全依赖于操作系统的 IO 缓存
+
+* key_buffer_size:该变量决定 MyISAM 索引块缓存区的大小,直接影响到 MyISAM 表的存取效率
```mysql
- ROLLBACK;
+ SHOW VARIABLES LIKE 'key_buffer_size'; -- 单位是字节
```
-* 提交事务,显示执行是手动提交,MySQL 默认为自动提交
+ 在 MySQL 配置文件中设置该值,建议至少将1/4可用内存分配给 key_buffer_size:
- ```mysql
- COMMIT;
+ ```sh
+ vim /etc/mysql/my.cnf
+ key_buffer_size=1024M
```
- 工作原理:
+* read_buffer_size:如果需要经常顺序扫描 MyISAM 表,可以通过增大 read_buffer_size 的值来改善性能。但 read_buffer_size 是每个 Session 独占的,如果默认值设置太大,并发环境就会造成内存浪费
- * 自动提交模式下,如果没有 start transaction 显式地开始一个事务,那么**每个 SQL 语句都会被当做一个事务执行提交操作**
- * 手动提交模式下,所有的 SQL 语句都在一个事务中,直到执行了 commit 或 rollback
+* read_rnd_buffer_size:对于需要做排序的 MyISAM 表的查询,如带有 ORDER BY 子句的语句,适当增加该的值,可以改善此类的 SQL 的性能,但是 read_rnd_buffer_size 是每个 Session 独占的,如果默认值设置太大,就会造成内存浪费
- * 存在一些特殊的命令,在事务中执行了这些命令会马上强制执行 COMMIT 提交事务,如 DDL 语句 (create/drop/alter/table)、lock tables 语句等
- 提交方式语法:
- - 查看事务提交方式
- ```mysql
- SELECT @@AUTOCOMMIT; -- 1 代表自动提交 0 代表手动提交
- ```
- - 修改事务提交方式
+***
- ```mysql
- SET @@AUTOCOMMIT=数字; -- 系统
- SET AUTOCOMMIT=数字; -- 会话
- ```
- - **系统变量的操作**:
- ```sql
- SET [GLOBAL|SESSION] 变量名 = 值; -- 默认是会话
- SET @@[(GLOBAL|SESSION).]变量名 = 值; -- 默认是系统
- ```
- ```sql
- SHOW [GLOBAL|SESSION] VARIABLES [LIKE '变量%']; -- 默认查看会话内系统变量值
- ```
-* 操作演示
+### 存储优化
- ```mysql
- -- 开启事务
- START TRANSACTION;
-
- -- 张三给李四转账500元
- -- 1.张三账户-500
- UPDATE account SET money=money-500 WHERE NAME='张三';
- -- 2.李四账户+500
- UPDATE account SET money=money+500 WHERE NAME='李四';
-
- -- 回滚事务(出现问题)
- ROLLBACK;
-
- -- 提交事务(没出现问题)
- COMMIT;
- ```
+#### 数据存储
+系统表空间是用来放系统信息的,比如数据字典什么的,对应的磁盘文件是 ibdata,数据表空间是一个个的表数据文件,对应的磁盘文件就是表名.ibd
+表数据既可以存在共享表空间里,也可以是单独的文件,这个行为是由参数 innodb_file_per_table 控制的:
+* OFF:表示表的数据放在系统共享表空间,也就是跟数据字典放在一起
+* ON :表示每个 InnoDB 表数据存储在一个以 .ibd 为后缀的文件中(默认)
-***
+一个表单独存储为一个文件更容易管理,在不需要这个表时通过 drop table 命令,系统就会直接删除这个文件;如果是放在共享表空间中,即使表删掉了,空间也是不会回收的
-### 隔离级别
-事务的隔离级别:多个客户端操作时,各个客户端的事务之间应该是隔离的,**不同的事务之间不该互相影响**,而如果多个事务操作同一批数据时,则需要设置不同的隔离级别,否则就会产生问题。
-隔离级别分类:
+***
-| 隔离级别 | 名称 | 会引发的问题 | 数据库默认隔离级别 |
-| ---------------- | -------- | -------------------------------- | ------------------- |
-| read uncommitted | 读未提交 | 脏读、不可重复读、幻读 | |
-| read committed | 读已提交 | 不可重复读、幻读 | Oracle / SQL Server |
-| repeatable read | 可重复读 | 幻读 | MySQL |
-| serializable | 串行化 | 无(因为写会加写锁,读会加读锁) | |
-一般来说,隔离级别越低,系统开销越低,可支持的并发越高,但隔离性也越差
-* 丢失更新 (Lost Update):当两个或多个事务选择同一行,最初的事务修改的值,被后面事务修改的值覆盖,所有的隔离级别都可以避免丢失更新(行锁)
+#### 数据删除
-* 脏读 (Dirty Reads):在事务中先后两次读取同一个数据,两次读取的结果不一样,原因是在一个事务处理过程中读取了另一个**未提交**的事务中的数据
+MySQL 的数据删除就是移除掉某个记录后,该位置就被标记为**可复用**,如果有符合范围条件的数据可以插入到这里。符合范围条件的意思是假设删除记录 R4,之后要再插入一个 ID 在 300 和 600 之间的记录时,就会复用这个位置
-* 不可重复读 (Non-Repeatable Reads):在事务中先后两次读取同一个数据,两次读取的结果不一样,原因是在一个事务处理过程中读取了另一个事务中修改并**已提交**的数据
+
- > 可重复读的意思是不管读几次,结果都一样,可以重复的读,可以理解为快照读,要读的数据集不会发生变化
+InnoDB 的数据是按页存储的如果删掉了一个数据页上的所有记录,整个数据页就可以被复用了,如果相邻的两个数据页利用率都很小,系统就会把这两个页上的数据合到其中一个页上,另外一个数据页就被标记为可复用
-* 幻读 (Phantom Reads):在事务中按某个条件先后两次查询数据库,后一次查询查到了前一次查询没有查到的行,**数据条目**发生了变化。比如查询某数据不存在,准备插入此记录,但执行插入时发现此记录已存在,无法插入
+删除命令其实只是把记录的位置,或者**数据页标记为了可复用,但磁盘文件的大小是不会变的**,这些可以复用还没有被使用的空间,看起来就像是空洞,造成数据库的稀疏,因此需要进行紧凑处理
-**隔离级别操作语法:**
-* 查询数据库隔离级别
- ```mysql
- SELECT @@TX_ISOLATION;
- SHOW VARIABLES LIKE 'tx_isolation';
- ```
+***
-* 修改数据库隔离级别
- ```mysql
- SET GLOBAL TRANSACTION ISOLATION LEVEL 级别字符串;
- ```
+#### 重建数据
+重建表就是按照主键 ID 递增的顺序,把数据一行一行地从旧表中读出来再插入到新表中,让数据更加紧凑。重建表时 MySQL 会自动完成转存数据、交换表名、删除旧表的操作,线上操作会阻塞大量的线程增删改查的操作
+重建命令:
+```sql
+ALTER TABLE A ENGINE=InnoDB
+```
-***
+工作流程:新建临时表 tmp_table B(在 Server 层创建的),把表 A 中的数据导入到表 B 中,操作完成后用表 B 替换表 A,完成重建
+重建表的步骤需要 DDL 不是 Online 的,因为在导入数据的过程有新的数据要写入到表 A 的话,就会造成数据丢失
+MySQL 5.6 版本开始引入的 **Online DDL**,重建表的命令默认执行此步骤:
-### 原子特性
+* 建立一个临时文件 tmp_file(InnoDB 创建),扫描表 A 主键的所有数据页
+* 用数据页中表 A 的记录生成 B+ 树,存储到临时文件中
+* 生成临时文件的过程中,将所有对 A 的操作记录在一个日志文件(row log)中,对应的是图中 state2 的状态
+* 临时文件生成后,将日志文件中的操作应用到临时文件,得到一个逻辑数据上与表 A 相同的数据文件,对应的就是图中 state3
+* 用临时文件替换表 A 的数据文件
-原子性是指事务是一个不可分割的工作单位,事务的操作如果成功就必须要完全应用到数据库,失败则不能对数据库有任何影响。比如事务中一个 SQL 语句执行失败,则已执行的语句也必须回滚,数据库退回到事务前的状态
+
-InnoDB 存储引擎提供了两种事务日志:redo log(重做日志)和 undo log(回滚日志)
+Online DDL 操作会先获取 MDL 写锁,再退化成 MDL 读锁。但 MDL 写锁持有时间比较短,所以可以称为 Online; 而 MDL 读锁,不阻止数据增删查改,但会阻止其它线程修改表结构(可以对比 `ANALYZE TABLE t` 命令)
-* redo log 用于保证事务持久性
-* undo log 用于保证事务原子性和隔离性
+问题:重建表可以收缩表空间,但是执行指令后整体占用空间增大
-undo log 属于逻辑日志,根据每行操作进行记录,记录了 SQL 执行相关的信息,用来回滚行记录到某个版本
+原因:在重建表后 InnoDB 不会把整张表占满,每个页留了 1/16 给后续的更新使用。表在未整理之前页已经占用 15/16 以上,收缩之后需要保持数据占用空间在 15/16,所以文件占用空间更大才能保持
-当事务对数据库进行修改时,InnoDB 会先记录对应的 undo log,如果事务执行失败或调用了 rollback 导致事务回滚,InnoDB 会根据 undo log 的内容**做与之前相反的操作**:
+注意:临时文件也要占用空间,如果空间不足会重建失败
-* 对于每个 insert,回滚时会执行 delete
-* 对于每个 delete,回滚时会执行 insert
-* 对于每个 update,回滚时会执行一个相反的 update,把数据修改回去
+****
-undo log 是采用段(segment)的方式来记录,每个 undo 操作在记录的时候占用一个 undo log segment
-rollback segment 称为回滚段,每个回滚段中有 1024 个 undo log segment
-* 在以前老版本,只支持 1 个 rollback segment,只能记录 1024 个 undo log segment
-* MySQL5.5 开始支持 128 个 rollback segment,支持 128*1024 个 undo 操作
+#### 原地置换
+DDL 中的临时表 tmp_table 是在 Server 层创建的,Online DDL 中的临时文件 tmp_file 是 InnoDB 在内部创建出来的,整个 DDL 过程都在 InnoDB 内部完成,对于 Server 层来说,没有把数据挪动到临时表,是一个原地操作,这就是 inplace
+两者的关系:
-参考文章:https://www.cnblogs.com/kismetv/p/10331633.html
+* DDL 过程如果是 Online 的,就一定是 inplace 的
+* inplace 的 DDL,有可能不是 Online 的,截止到 MySQL 8.0,全文索引(FULLTEXT)和空间索引(SPATIAL)属于这种情况
@@ -5660,122 +6045,146 @@ rollback segment 称为回滚段,每个回滚段中有 1024 个 undo log segme
-### 隔离特性
+### 并发优化
-#### 实现方式
+MySQL Server 是多线程结构,包括后台线程和客户服务线程。多线程可以有效利用服务器资源,提高数据库的并发性能。在 MySQL 中,控制并发连接和线程的主要参数:
-隔离性是指,事务内部的操作与其他事务是隔离的,多个并发事务之间要相互隔离,不能互相干扰
+* max_connections:控制允许连接到 MySQL 数据库的最大连接数,默认值是 151
-* 严格的隔离性,对应了事务隔离级别中的 serializable,实际应用中对性能考虑很少使用可串行化
+ 如果状态变量 connection_errors_max_connections 不为零,并且一直增长,则说明不断有连接请求因数据库连接数已达到允许最大值而失败,这时可以考虑增大 max_connections 的值
-* 与原子性、持久性侧重于研究事务本身不同,隔离性研究的是**不同事务**之间的相互影响
+ MySQL 最大可支持的连接数取决于很多因素,包括操作系统平台的线程库的质量、内存大小、每个连接的负荷、CPU的处理速度、期望的响应时间等。在 Linux 平台下,性能好的服务器,可以支持 500-1000 个连接,需要根据服务器性能进行评估设定
-隔离性让并发情形下的事务之间互不干扰:
+* innodb_thread_concurrency:并发线程数,代表系统内同时运行的线程数量(已经被移除)
-- 一个事务的写操作对另一个事务的写操作(写写):锁机制保证隔离性
-- 一个事务的写操作对另一个事务的读操作(读写):MVCC 保证隔离性
+* back_log:控制 MySQL 监听 TCP 端口时的积压请求栈的大小
-锁机制:事务在修改数据之前,需要先获得相应的锁,获得锁之后,事务便可以修改数据;该事务操作期间,这部分数据是锁定的,其他事务如果需要修改数据,需要等待当前事务提交或回滚后释放锁(详解见锁机制)
+ 如果 Mysql 的连接数达到 max_connections 时,新来的请求将会被存在堆栈中,以等待某一连接释放资源,该堆栈的数量即 back_log。如果等待连接的数量超过 back_log,将不被授予连接资源直接报错
+ 5.6.6 版本之前默认值为 50,之后的版本默认为 `50 + (max_connections/5)`,但最大不超过900,如果需要数据库在较短的时间内处理大量连接请求, 可以考虑适当增大 back_log 的值
+* table_open_cache:控制所有 SQL 语句执行线程可打开表缓存的数量
-***
+ 在执行 SQL 语句时,每个执行线程至少要打开1个表缓存,该参数的值应该根据设置的最大连接数以及每个连接执行关联查询中涉及的表的最大数量来设定:`max_connections * N`
+* thread_cache_size:可控制 MySQL 缓存客户服务线程的数量
+ 为了加快连接数据库的速度,MySQL 会缓存一定数量的客户服务线程以备重用,池化思想
-#### 并发控制
+* innodb_lock_wait_timeout:设置 InnoDB 事务等待行锁的时间,默认值是 50ms
-MVCC 全称 Multi-Version Concurrency Control,即多版本并发控制,用来**解决读写冲突的无锁并发控制**
+ 对于需要快速反馈的业务系统,可以将行锁的等待时间调小,以避免事务被长时间挂起; 对于后台运行的批量处理程序来说,可以将行锁的等待时间调大,以避免发生大的回滚操作
-MVCC 处理读写请求,可以做到在发生读写请求冲突时不用加锁,这个读是指的快照读,而不是当前读
-* 快照读:实现基于 MVCC,因为是多版本并发,所以快照读读到的数据不一定是当前最新的数据,有可能是历史版本的数据
-* 当前读:读取数据库记录是当前最新的版本(产生幻读、不可重复读),可以对读取的数据进行加锁,防止其他事务修改数据,是悲观锁的一种操作,读写操作加共享锁或者排他锁和串行化事务的隔离级别都是当前读
-数据库并发场景:
-* 读-读:不存在任何问题,也不需要并发控制
-* 读-写:有线程安全问题,可能会造成事务隔离性问题,可能遇到脏读,幻读,不可重复读
+***
-* 写-写:有线程安全问题,可能会存在丢失更新问题
-MVCC 的优点:
-* 在并发读写数据库时,做到在读操作时不用阻塞写操作,写操作也不用阻塞读操作,提高了并发读写的性能
-* 可以解决脏读,不可重复读等事务隔离问题(加锁也能解决),但不能解决更新丢失问题
-提高读写和写写的并发性能:
-* MVCC + 悲观锁:MVCC 解决读写冲突,悲观锁解决写写冲突
-* MVCC + 乐观锁:MVCC 解决读写冲突,乐观锁解决写写冲突
+## 事务机制
+### 基本介绍
+事务(Transaction)是访问和更新数据库的程序执行单元;事务中可能包含一个或多个 SQL 语句,这些语句要么都执行,要么都不执行,作为一个关系型数据库,MySQL 支持事务。
-参考文章:https://www.jianshu.com/p/8845ddca3b23
+单元中的每条 SQL 语句都相互依赖,形成一个整体
+* 如果某条 SQL 语句执行失败或者出现错误,那么整个单元就会回滚,撤回到事务最初的状态
+* 如果单元中所有的 SQL 语句都执行成功,则事务就顺利执行
-***
-
-
-
-#### 实现原理
+事务的四大特征:ACID
-##### 隐藏字段
+- 原子性 (atomicity)
+- 一致性 (consistency)
+- 隔离性 (isolaction)
+- 持久性 (durability)
-实现原理主要是隐藏字段,undo日志,Read View 来实现的
+事务的几种状态:
-数据库中的每行数据,除了自定义的字段,还有数据库隐式定义的字段:
+* 活动的(active):事务对应的数据库操作正在执行中
+* 部分提交的(partially committed):事务的最后一个操作执行完,但是内存还没刷新至磁盘
+* 失败的(failed):当事务处于活动状态或部分提交状态时,如果数据库遇到了错误或刷脏失败,或者用户主动停止当前的事务
+* 中止的(aborted):失败状态的事务回滚完成后的状态
+* 提交的(committed):当处于部分提交状态的事务刷脏成功,就处于提交状态
-* DB_TRX_ID:6byte,最近修改事务ID,记录创建该数据或最后一次修改(修改/插入)该数据的事务ID。当每个事务开启时,都会被分配一个ID,这个 ID 是递增的
-* DB_ROLL_PTR:7byte,回滚指针,配合 undo 日志,指向上一个旧版本(存储在 rollback segment)
-* DB_ROW_ID:6byte,隐含的自增ID(**隐藏主键**),如果数据表没有主键,InnoDB 会自动以 DB_ROW_ID 作为聚簇索引
-* DELETED_BIT:删除标志的隐藏字段,记录被更新或删除并不代表真的删除,而是删除位变了
-
+***
+### 事务管理
+#### 基本操作
+事务管理的三个步骤
+1. 开启事务:记录回滚点,并通知服务器,将要执行一组操作,要么同时成功、要么同时失败
-***
+2. 执行 SQL 语句:执行具体的一条或多条 SQL 语句
+3. 结束事务(提交|回滚)
+ - 提交:没出现问题,数据进行更新
+ - 回滚:出现问题,数据恢复到开启事务时的状态
-##### undo
-undo log 是逻辑日志,记录的是每个事务对数据执行的操作,而不是记录的全部数据,需要根据 undo log 逆推出以往事务的数据
+事务操作:
-undo log 的作用:
+* 显式开启事务
-* 保证事务进行 rollback 时的原子性和一致性,当事务进行回滚的时候可以用 undo log 的数据进行恢复
-* 用于 MVCC 快照读,通过读取 undo log 的历史版本数据可以实现不同事务版本号都拥有自己独立的快照数据版本
+ ```mysql
+ START TRANSACTION [READ ONLY|READ WRITE|WITH CONSISTENT SNAPSHOT]; #可以跟一个或多个状态,最后的是一致性读
+ BEGIN [WORK];
+ ```
-undo log 主要分为两种:
+ 说明:不填状态默认是读写事务
-* insert undo log:事务在 insert 新记录时产生的 undo log,只在事务回滚时需要,并且在事务提交后可以被立即丢弃
+* 回滚事务,用来手动中止事务
-* update undo log:事务在进行 update 或 delete 时产生的 undo log,在事务回滚时需要,在快照读时也需要。不能随意删除,只有在快速读或事务回滚不涉及该日志时,对应的日志才会被 purge 线程统一清除
+ ```mysql
+ ROLLBACK;
+ ```
-每次对数据库记录进行改动,都会将旧值放到一条 undo 日志中,算是该记录的一个旧版本,随着更新次数的增多,所有的版本都会被 roll_pointer 属性连接成一个链表,把这个链表称之为**版本链**,版本链的头节点就是当前记录最新的值,链尾就是最早的旧记录
+* 提交事务,显示执行是手动提交,MySQL 默认为自动提交
-
+ ```mysql
+ COMMIT;
+ ```
-* 有个事务插入 persion 表一条新记录,name 为 Jerry,age 为 24
+* 保存点:在事务的执行过程中设置的还原点,调用 ROLLBACK 时可以指定回滚到哪个点
-* 事务 1 修改该行数据时,数据库会先对该行加排他锁,然后先记录 undo log,然后修改该行 name 为 Tom,并且修改隐藏字段的事务 ID 为当前事务 1 的 ID(默认为 1 之后递增),回滚指针指向拷贝到 undo log 的副本记录,事务提交后,释放锁
-* 以此类推
+ ```mysql
+ SAVEPOINT point_name; #设置保存点
+ RELEASE point_name #删除保存点
+ ROLLBACK [WORK] TO [SAVEPOINT] point_name #回滚至某个保存点,不填默认回滚到事务执行之前的状态
+ ```
-补充知识:purge 线程
+* 操作演示
-* 为了实现 InnoDB 的 MVCC 机制,更新或者删除操作都只是设置一下老记录的 deleted_bit,并不真正将过时的记录删除,为了节省磁盘空间,InnoDB 有专门的 purge 线程来清理 deleted_bit 为 true 的记录
-* purge 线程维护了一个 Read view(这个 Read view 相当于系统中最老活跃事务的 Read view),如果某个记录的 deleted_bit 为 true,并且 DB_TRX_ID 相对于 purge 线程的 Read view 可见,那么这条记录一定是可以被安全清除的
+ ```mysql
+ -- 开启事务
+ START TRANSACTION;
+
+ -- 张三给李四转账500元
+ -- 1.张三账户-500
+ UPDATE account SET money=money-500 WHERE NAME='张三';
+ -- 2.李四账户+500
+ UPDATE account SET money=money+500 WHERE NAME='李四';
+
+ -- 回滚事务(出现问题)
+ ROLLBACK;
+
+ -- 提交事务(没出现问题)
+ COMMIT;
+ ```
@@ -5783,126 +6192,138 @@ undo log 主要分为两种:
-##### 读视图
-
-Read View 是事务进行**快照读**操作时产生的读视图,该事务执行快照读的那一刻会生成数据库系统当前的一个快照,记录并维护系统当前活跃事务的 ID,用来做可见性判断,根据视图判断当前事务能够看到哪个版本的数据
+#### 提交方式
-注意:这里的快照并不是把所有的数据拷贝一份副本,而是由 undo log 记录的逻辑日志,根据库中的数据进行计算出历史数据
+提交方式的相关语法:
-工作流程:将版本链的头节点的事务 ID(最新数据事务 ID)DB_TRX_ID 取出来,与系统当前活跃事务的 ID 对比,如果 DB_TRX_ID 不符合可见性,通过 DB_ROLL_PTR 回滚指针去取出 undo log 中的下一个 DB_TRX_ID 比较,直到找到最近的满足特定条件的 DB_TRX_ID,该事务 ID 所在的旧记录就是当前事务能看见的最新的记录
+- 查看事务提交方式
-Read View 几个属性:
+ ```mysql
+ SELECT @@AUTOCOMMIT; -- 会话,1 代表自动提交 0 代表手动提交
+ SELECT @@GLOBAL.AUTOCOMMIT; -- 系统
+ ```
-- m_ids:生成 Read View 时当前系统中活跃的事务 id 列表(未提交的事务集合,当前事务也在其中)
-- up_limit_id:生成 Read View 时当前系统中活跃的最小的事务 id,也就是 m_ids 中的最小值(已提交的事务集合)
-- low_limit_id:生成 Read View 时系统应该分配给下一个事务的 id 值,m_ids 中的最大值加 1(未开始事务)
-- creator_trx_id:生成该 Read View 的事务的事务 id,就是判断该 id 的事务能读到什么数据
+- 修改事务提交方式
-creator 创建一个 Read View,进行可见性算法分析:(解决了读未提交)
+ ```mysql
+ SET @@AUTOCOMMIT=数字; -- 系统
+ SET AUTOCOMMIT=数字; -- 会话
+ ```
-* db_trx_id == creator_trx_id:表示这个数据就是当前事务自己生成的,自己生成的数据自己肯定能看见,所以这种情况下此数据对 creator 是可见的
-* db_trx_id < up_limit_id:该版本对应的事务 ID 小于 Read view 中的最小活跃事务 ID,则这个事务在当前事务之前就已经被提交了,对 creator 可见
+- **系统变量的操作**:
-* db_trx_id >= low_limit_id:该版本对应的事务 ID 大于 Read view 中当前系统的最大事务 ID,则说明该数据是在当前 Read view 创建之后才产生的,对 creator 不可见
-* up_limit_id <= db_trx_id < low_limit_id:判断 db_trx_id 是否在活跃事务列表 m_ids 中
- * 在列表中,说明该版本对应的事务正在运行,数据不能显示(**不能读到未提交的数据**)
- * 不在列表中,说明该版本对应的事务已经被提交,数据可以显示(**可以读到已经提交的数据**)
+ ```sql
+ SET [GLOBAL|SESSION] 变量名 = 值; -- 默认是会话
+ SET @@[(GLOBAL|SESSION).]变量名 = 值; -- 默认是系统
+ ```
+ ```sql
+ SHOW [GLOBAL|SESSION] VARIABLES [LIKE '变量%']; -- 默认查看会话内系统变量值
+ ```
+工作原理:
-***
+* 自动提交:如果没有 START TRANSACTION 显式地开始一个事务,那么**每条 SQL 语句都会被当做一个事务执行提交操作**;显式开启事务后,会在本次事务结束(提交或回滚)前暂时关闭自动提交
+* 手动提交:不需要显式的开启事务,所有的 SQL 语句都在一个事务中,直到执行了提交或回滚,然后进入下一个事务
+* 隐式提交:存在一些特殊的命令,在事务中执行了这些命令会马上**强制执行 COMMIT 提交事务**
+ * **DDL 语句** (CREATE/DROP/ALTER)、LOCK TABLES 语句、LOAD DATA 导入数据语句、主从复制语句等
+ * 当一个事务还没提交或回滚,显式的开启一个事务会隐式的提交上一个事务
-##### 工作流程
+****
-表 user 数据
-```sh
-id name age
-1 张三 18
-```
-Transaction 20:
+#### 事务 ID
-```mysql
-START TRANSACTION; -- 开启事务
-UPDATE user SET name = '李四' WHERE id = 1;
-UPDATE user SET name = '王五' WHERE id = 1;
-```
+事务在执行过程中对某个表执行了**增删改操作或者创建表**,就会为当前事务分配一个独一无二的事务 ID(对临时表并不会分配 ID),如果当前事务没有被分配 ID,默认是 0
-Transaction 60:
+说明:只读事务不能对普通的表进行增删改操作,但是可以对临时表增删改,读写事务可以对数据表执行增删改查操作
-```mysql
-START TRANSACTION; -- 开启事务
--- 操作表的其他数据
-```
+事务 ID 本质上就是一个数字,服务器在内存中维护一个全局变量:
-
+* 每当需要为某个事务分配 ID,就会把全局变量的值赋值给事务 ID,然后变量自增 1
+* 每当变量值为 256 的倍数时,就将该变量的值刷新到系统表空间的 Max Trx ID 属性中,该属性占 8 字节
+* 系统再次启动后,会读取表空间的 Max Trx ID 属性到内存,加上 256 后赋值给全局变量,因为关机时的事务 ID 可能并不是 256 的倍数,会比 Max Trx ID 大,所以需要加上 256 保持事务 ID 是一个**递增的数字**
-ID 为 0 的事务创建 Read View:
+**聚簇索引**的行记录除了完整的数据,还会自动添加 trx_id、roll_pointer 隐藏列,如果表中没有主键并且没有非空唯一索引,也会添加一个 row_id 的隐藏列作为聚簇索引
-* m_ids:20、60
-* up_limit_id:20
-* low_limit_id:61
-* creator_trx_id:0
-
-只有红框部分才复合条件,所以只有张三对应的版本的数据可以被看到
+***
-参考视频:https://www.bilibili.com/video/BV1t5411u7Fg
+### 隔离级别
+#### 四种级别
-***
+事务的隔离级别:多个客户端操作时,各个客户端的事务之间应该是隔离的,**不同的事务之间不该互相影响**,而如果多个事务操作同一批数据时,则需要设置不同的隔离级别,否则就会产生问题。
+隔离级别分类:
+| 隔离级别 | 名称 | 会引发的问题 | 数据库默认隔离级别 |
+| ---------------- | -------- | ---------------------- | ------------------- |
+| Read Uncommitted | 读未提交 | 脏读、不可重复读、幻读 | |
+| Read Committed | 读已提交 | 不可重复读、幻读 | Oracle / SQL Server |
+| Repeatable Read | 可重复读 | 幻读 | MySQL |
+| Serializable | 可串行化 | 无 | |
-#### RC RR
+一般来说,隔离级别越低,系统开销越低,可支持的并发越高,但隔离性也越差
-Read View 用于支持 RC(Read Committed,读已提交)和 RR(Repeatable Read,可重复读)隔离级别的实现
+* 脏写 (Dirty Write):当两个或多个事务选择同一行,最初的事务修改的值被后面事务修改的值覆盖,所有的隔离级别都可以避免脏写(又叫丢失更新),因为有行锁
-RR、RC 生成时机:
+* 脏读 (Dirty Reads):在一个事务处理过程中读取了另一个**未提交**的事务中修改过的数据
-- RC 隔离级别下,每个快照读都会生成并获取最新的 Read View
-- RR 隔离级别下,则是同一个事务中的第一个快照读才会创建 Read View
+* 不可重复读 (Non-Repeatable Reads):在一个事务处理过程中读取了另一个事务中修改并**已提交**的数据
-RC、RR 级别下的 InnoDB 快照读区别
+ > 可重复读的意思是不管读几次,结果都一样,可以重复的读,可以理解为快照读,要读的数据集不会发生变化
-- RC 级别下的,事务中每次快照读都会新生成一个 Read View,这就是在 RC 级别下的事务中可以看到别的事务提交的更新的原因
+* 幻读 (Phantom Reads):在事务中按某个条件先后两次查询数据库,后一次查询查到了前一次查询没有查到的行,**数据条目**发生了变化。比如查询某数据不存在,准备插入此记录,但执行插入时发现此记录已存在,无法插入
-- RR 级别下的某个事务的对某条记录的第一次快照读会创建一个 Read View, 将当前系统活跃的其他事务记录起来,此后在调用快照读的时候,使用的是同一个Read View,所以一个事务的查询结果每次都是相同的
+隔离级别操作语法:
- 当前事务在其他事务提交之前使用过快照读,那么以后其他事务对数据的修改都是不可见的,就算以后其他事务提交了数据也不可见;早于 Read View 创建的事务所做的修改并提交的均是可见的
+* 查询数据库隔离级别
-解决幻读问题:
+ ```mysql
+ SELECT @@TX_ISOLATION; -- 会话
+ SELECT @@GLOBAL.TX_ISOLATION; -- 系统
+ ```
-- 快照读:通过 MVCC 来进行控制的,在可重复读隔离级别下,普通查询是快照读,是不会看到别的事务插入的数据的,但是**并不能完全避免幻读**
+* 修改数据库隔离级别
- 场景:RR 级别,T1 事务开启,创建 Read View,此时 T2 去 INSERT 新的一行然后提交,然后 T1去 UPDATE 该行会发现更新成功,因为 Read View 并不能阻止事务去更新数据,并且把这条新记录的 trx_id 给变为当前的事务 id,对当前事务就是可见的了
+ ```mysql
+ SET GLOBAL TRANSACTION ISOLATION LEVEL 级别字符串;
+ ```
-- 当前读:通过 next-key 锁(行锁 + 间隙锁)来解决问题
+***
+#### 加锁分析
+InnoDB 存储引擎支持事务,所以加锁分析是基于该存储引擎
-***
+* Read Uncommitted 级别,任何操作都不会加锁
+* Read Committed 级别,增删改操作会加写锁(行锁),读操作不加锁
+ 在 Server 层过滤条件时发现不满足的记录会调用 unlock_row 方法释放该记录的行锁,保证最后只有满足条件的记录加锁,但是扫表过程中每条记录的**加锁操作不能省略**。所以对数据量很大的表做批量修改时,如果无法使用相应的索引(全表扫描),在 Server 过滤数据时就会特别慢,出现虽然没有修改某些行的数据,但是还是被锁住了的现象(锁表),这种情况同样适用于 RR
-### 持久特性
+* Repeatable Read 级别,增删改操作会加写锁,读操作不加锁。因为读写锁不兼容,**加了读锁后其他事务就无法修改数据**,影响了并发性能,为了保证隔离性和并发性,MySQL 通过 MVCC 解决了读写冲突。RR 级别下的锁有很多种,锁机制章节详解
-#### 重做日志
+* Serializable 级别,读加共享锁,写加排他锁,读写互斥,使用的悲观锁的理论,实现简单,数据更加安全,但是并发能力非常差
+ * 串行化:让所有事务按顺序单独执行,写操作会加写锁,读操作会加读锁
+ * 可串行化:让所有操作相同数据的事务顺序执行,通过加锁实现
+参考文章:https://tech.meituan.com/2014/08/20/innodb-lock.html
@@ -5910,46 +6331,30 @@ RC、RR 级别下的 InnoDB 快照读区别
-#### 实现原理
-
-##### 数据恢复
-
-持久性是指一个事务一旦被提交了,那么对数据库中数据的改变就是永久性的,接下来的其他操作或故障不应该对其有任何影响。
+### 原子特性
-Buffer Pool 是一片内存空间,可以通过 innodb_buffer_pool_size 来控制 Buffer Pool 的大小(内存优化部分会详解参数)
+#### 实现方式
-* Change Buffer 是 Buffer Pool 里的内存,不能无限增大,用来对增删改操作提供缓存
-* Change Buffer 的大小可以通过参数 innodb_change_buffer_max_size 来动态设置,设置为 50 时表示 Change Buffer 的大小最多只能占用 Buffer Pool 的 50%
-* 补充知识:**唯一索引的更新不能使用 Buffer**,一般只有普通索引可以使用,直接写入 Buffer 就结束
+原子性是指事务是一个不可分割的工作单位,事务的操作如果成功就必须要完全应用到数据库,失败则不能对数据库有任何影响。比如事务中一个 SQL 语句执行失败,则已执行的语句也必须回滚,数据库退回到事务前的状态
-Buffer Pool 的使用提高了读写数据的效率,但是也带了新的问题:如果 MySQL 宕机,此时 Buffer Pool 中修改的数据还没有刷新到磁盘,就会导致数据的丢失,事务的持久性无法保证,所以引入 redo log
+InnoDB 存储引擎提供了两种事务日志:redo log(重做日志)和 undo log(回滚日志)
-* 当数据修改时,先修改 Change Buffer 中的数据,然后在 redo log buffer 记录这次操作
-* 如果 MySQL 宕机,InnoDB 判断一个数据页在崩溃恢复时丢失了更新,就会将它读到内存,然后根据 redo log 内容更新内存,更新完成后,内存页变成脏页,然后进行刷脏(buffer pool 的任务)
+* redo log 用于保证事务持久性
+* undo log 用于保证事务原子性和隔离性
-redo log **记录数据页的物理修改**,而不是某一行或某几行的修改,用来恢复提交后的物理数据页,且只能恢复到最后一次提交的位置
+undo log 属于**逻辑日志**,根据每行操作进行记录,记录了 SQL 执行相关的信息,用来回滚行记录到某个版本
-redo log 采用的是 WAL(Write-ahead logging,**预写式日志**),所有修改要先写入日志,再更新到磁盘,保证了数据不会因 MySQL 宕机而丢失,从而满足了持久性要求
+当事务对数据库进行修改时,InnoDB 会先记录对应的 undo log,如果事务执行失败或调用了 rollback 导致事务回滚,InnoDB 会根据 undo log 的内容**做与之前相反的操作**:
-redo log 也需要在事务提交时将日志写入磁盘,但是比将内存中的 Buffer Pool 修改的数据写入磁盘的速度快:
+* 对于每个 insert,回滚时会执行 delete
-* 刷脏是随机 IO,因为每次修改的数据位置随机,但写 redo log 是尾部追加操作,属于顺序 IO
-* 刷脏是以数据页(Page)为单位的,一个页上的一个小修改都要整页写入,而 redo log 中只包含真正需要写入的部分,减少无效 IO
+* 对于每个 delete,回滚时会执行 insert
-InnoDB 引擎会在适当的时候,把内存中 redo log buffer 持久化到磁盘,具体的刷盘策略:
+* 对于每个 update,回滚时会执行一个相反的 update,把数据修改回去
-* 通过修改参数 `innodb_flush_log_at_trx_commit` 设置:
- * 0:表示当提交事务时,并不将缓冲区的 redo 日志写入磁盘,而是等待主线程每秒刷新一次
- * 1:在事务提交时将缓冲区的 redo 日志**同步写入**到磁盘,保证一定会写入成功
- * 2:在事务提交时将缓冲区的 redo 日志异步写入到磁盘,不能保证提交时肯定会写入,只是有这个动作
-* 如果写入 redo log buffer 的日志已经占据了 redo log buffer 总容量的一半了,此时就会刷入到磁盘文件,这时会影响执行效率,所以开发中应该**避免大事务**
-刷脏策略:
-* redo log 文件是固定大小的,如果写满了就要擦除以前的记录,在擦除之前需要把旧记录更新到磁盘中的数据文件中
-* Buffer Pool 内存不足,需要淘汰部分数据页,如果淘汰的是脏页,就要先将脏页写到磁盘(大事务)
-* 系统空闲时,后台线程会自动进行刷脏
-* MySQL 正常关闭时,会把内存的脏页都 flush 到磁盘上
+参考文章:https://www.cnblogs.com/kismetv/p/10331633.html
@@ -5957,135 +6362,122 @@ InnoDB 引擎会在适当的时候,把内存中 redo log buffer 持久化到
-##### 工作流程
+#### DML 解析
-MySQL 中还存在 binlog(二进制日志)也可以记录写操作并用于数据的恢复,**保证数据不丢失**,二者的区别是:
+##### INSERT
-* 作用不同:redo log 是用于 crash recovery (故障恢复),保证 MySQL 宕机也不会影响持久性;binlog 是用于 point-in-time recovery 的,保证服务器可以基于时间点恢复数据,此外 binlog 还用于主从复制
+乐观插入:当前数据页的剩余空间充足,直接将数据进行插入
-* 层次不同:redo log 是 InnoDB 存储引擎实现的,而 binlog 是MySQL的服务器层实现的,同时支持 InnoDB 和其他存储引擎
+悲观插入:当前数据页的剩余空间不足,需要进行页分裂,申请一个新的页面来插入数据,会造成更多的 redo log,undo log 影响不大
-* 内容不同:redo log 是物理日志,内容基于磁盘的 Page;binlog 的内容是二进制的,根据 binlog_format 参数的不同,可能基于SQL 语句、基于数据本身或者二者的混合(日志部分详解)
+当向某个表插入一条记录,实际上需要向聚簇索引和所有二级索引都插入一条记录,但是 undo log **只针对聚簇索引记录**,在回滚时会根据聚簇索引去所有的二级索引进行回滚操作
-* 写入时机不同:binlog 在事务提交时一次写入;redo log 的写入时机相对多元
+roll_pointer 是一个指针,**指向记录对应的 undo log 日志**,一条记录就是一个数据行,行格式中的 roll_pointer 就指向 undo log
-两种日志在 update 更新数据的**作用时机**:
-```sql
-update T set c=c+1 where ID=2;
-```
-
+***
-流程说明:执行引擎将这行新数据更新到内存中(Buffer Pool)后,然后会将这个更新操作记录到 redo log buffer 里,此时 redo log 处于 prepare 状态,代表执行完成随时可以提交事务,然后执行器生成这个操作的 binlog 并**把 binlog 写入磁盘**,在提交事务后 **redo log 也持久化到磁盘**
-redo log 和 binlog 都可以用于表示事务的提交状态,而**两阶段提交就是让这两个状态保持逻辑上的一致**,也有利于主从复制,更好的保持主从数据的一致性
-故障恢复数据:
+##### DELETE
-* 如果在时刻 A 发生了崩溃(crash),由于此时 binlog 还没写,redo log 也没提交,所以数据恢复的时候这个事务会回滚
-* 如果在时刻 B 发生了崩溃,redo log 和 binlog 有一个共同的数据字段叫 XID,崩溃恢复的时候,会按顺序扫描 redo log:
- * 如果 redo log 里面的事务是完整的,也就是已经有了 commit 标识,说明 binlog 也已经记录完整,直接从 redo log 恢复数据
- * 如果 redo log 里面的事务只有 prepare,就根据 XID 去 binlog 中判断对应的事务是否存在并完整,如果完整可以从 binlog 恢复 redo log 的信息,进而恢复数据,提交事务
+插入到页面中的记录会根据 next_record 属性组成一个单向链表,这个链表称为正常链表,被删除的记录也会通过 next_record 组成一个垃圾链表,该链表中所占用的存储空间可以被重新利用,并不会直接清除数据
+在页面 Page Header 中,PAGE_FREE 属性指向垃圾链表的头节点,删除的工作过程:
-判断一个事务的 binlog 是否完整的方法:
+* 将要删除的记录的 delete_flag 位置为 1,其他不做修改,这个过程叫 **delete mark**
-* statement 格式的 binlog,最后会有 COMMIT
-* row 格式的 binlog,最后会有一个 XID event
-* MySQL 5.6.2 版本以后,引入了 binlog-checksum 参数用来验证 binlog 内容的正确性
+* 在事务提交前,delete_flag = 1 的记录一直都会处于中间状态
+* 事务提交后,有专门的线程将 delete_flag = 1 的记录从正常链表移除并加入垃圾链表,这个过程叫 **purge**
+ purge 线程在执行删除操作时会创建一个 ReadView,根据事务的可见性移除数据(隔离特性部分详解)
-参考文章:https://time.geekbang.org/column/article/73161
+当有新插入的记录时,首先判断 PAGE_FREE 指向的头节点是否足够容纳新纪录:
+* 如果可以容纳新纪录,就会直接重用已删除的记录的存储空间,然后让 PAGE_FREE 指向垃圾链表的下一个节点
+* 如果不能容纳新纪录,就直接向页面申请新的空间存储,并不会遍历垃圾链表
+重用已删除的记录空间,可能会造成空间碎片,当数据页容纳不了一条记录时,会判断将碎片空间加起来是否可以容纳,判断为真就会重新组织页内的记录:
-***
+* 开辟一个临时页面,将页内记录一次插入到临时页面,此时临时页面时没有碎片的
+* 把临时页面的内容复制到本页,这样就解放出了内存碎片,但是会耗费很大的性能资源
-#### 系统优化
+****
-系统在进行刷脏时会占用一部分系统资源,会影响系统的性能,产生系统抖动
-* 一个查询要淘汰的脏页个数太多,会导致查询的响应时间明显变长
-* 日志写满,更新全部堵住,写性能跌为 0,这种情况对敏感业务来说,是不能接受的
-InnoDB 刷脏页的控制策略:
+##### UPDATE
-* `innodb_io_capacity` 参数代表磁盘的读写能力,建议设置成磁盘的 IOPS(每秒的 IO 次数)
+执行 UPDATE 语句,对于更新主键和不更新主键有两种不同的处理方式
-* 刷脏速度参考两个因素:脏页比例和 redo log 写盘速度
- * 参数 `innodb_max_dirty_pages_pct` 是脏页比例上限,默认值是 75%,InnoDB 会根据当前的脏页比例,算出一个范围在 0 到 100 之间的数字
- * InnoDB 每次写入的日志都有一个序号,当前写入的序号跟 checkpoint 对应的序号之间的差值,InnoDB 根据差值算出一个范围在 0 到 100 之间的数字
- * 两者较大的值记为 R,执行引擎按照 innodb_io_capacity 定义的能力乘以 R% 来控制刷脏页的速度
+不更新主键的情况:
-* `innodb_flush_neighbors` 参数置为 1 代表控制刷脏时检查相邻的数据页,如果也是脏页就一起刷脏,并检查邻居的邻居,这个行为会一直蔓延直到不是脏页,在 MySQL 8.0 中该值的默认值是 0,不建议开启此功能
+* 就地更新(in-place update),如果更新后的列和更新前的列占用的存储空间一样大,就可以直接在原记录上修改
+* 先删除旧纪录,再插入新纪录,这里的删除不是 delete mark,而是直接将记录加入垃圾链表,并且修改页面的相应的控制信息,执行删除的线程不是 purge,是执行更新的用户线程,插入新记录时可能造成页空间不足,从而导致页分裂
+更新主键的情况:
+* 将旧纪录进行 delete mark,在更新语句提交后由 purge 线程移入垃圾链表
+* 根据更新的各列的值创建一条新纪录,插入到聚簇索引中
-****
+在对一条记录修改前会**将记录的隐藏列 trx_id 和 roll_pointer 的旧值记录到当前 undo log 对应的属性中**,这样当前记录的 roll_pointer 指向当前 undo log 记录,当前 undo log 记录的 roll_pointer 指向旧的 undo log 记录,**形成一个版本链**
+UPDATE、DELETE 操作产生的 undo 日志会用于其他事务的 MVCC 操作,所以不能立即删除,INSERT 可以删除的原因是 MVCC 是对现有数据的快照
-### 一致特性
-一致性是指事务执行前后,数据库的完整性约束没有被破坏,事务执行的前后都是合法的数据状态。
+***
-数据库的完整性约束包括但不限于:实体完整性(如行的主键存在且唯一)、列完整性(如字段的类型、大小、长度要符合要求)、外键约束、用户自定义完整性(如转账前后,两个账户余额的和应该不变)
-实现一致性的措施:
-- 保证原子性、持久性和隔离性,如果这些特性无法保证,事务的一致性也无法保证
-- 数据库本身提供保障,例如不允许向整形列插入字符串值、字符串长度不能超过列的限制等
-- 应用层面进行保障,例如如果转账操作只扣除转账者的余额,而没有增加接收者的余额,无论数据库实现的多么完美,也无法保证状态的一致
+#### 回滚日志
+undo log 是采用段的方式来记录,Rollback Segement 称为回滚段,本质上就是一个类型是 Rollback Segement Header 的页面
+每个回滚段中有 1024 个 undo slot,每个 slot 存放 undo 链表页面的头节点页号,每个链表对应一个叫 undo log segment 的段
+* 在以前老版本,只支持 1 个 Rollback Segement,只能记录 1024 个 undo log segment
+* MySQL5.5 开始支持 128 个 Rollback Segement,支持 128*1024 个 undo 操作
+工作流程:
+* 事务执行前需要到系统表空间第 5 号页面中分配一个回滚段(页),获取一个 Rollback Segement Header 页面的地址
+* 回滚段页面有 1024 个 undo slot,首先去回滚段的两个 cached 链表获取缓存的 slot,缓存中没有就在回滚段页面中找一个可用的 undo slot 分配给当前事务
+* 如果是缓存中获取的 slot,则该 slot 对应的 undo log segment 已经分配了,需要重新分配,然后从 undo log segment 中申请一个页面作为日志链表的头节点,并填入对应的 slot 中
+* 每个事务 undo 日志在记录的时候**占用两个 undo 页面的组成链表**,分别为 insert undo 链表和 update undo 链表,链表的头节点页面为 first undo page 会包含一些管理信息,其他页面为 normal undo page
+ 说明:事务执行过程的临时表也需要两个 undo 链表,不和普通表共用,这些链表并不是事务开始就分配,而是按需分配
-****
+***
-## 锁机制
-### 基本介绍
-锁机制:数据库为了保证数据的一致性,在共享的资源被并发访问时变得安全有序所设计的一种规则
+### 隔离特性
-作用:锁机制类似于多线程中的同步,可以保证数据的一致性和安全性
+#### 实现方式
-锁的分类:
+隔离性是指,事务内部的操作与其他事务是隔离的,多个并发事务之间要相互隔离,不能互相干扰
-- 按操作分类:
- - 共享锁:也叫读锁。对同一份数据,多个事务读操作可以同时加锁而不互相影响 ,但不能修改数据
- - 排他锁:也叫写锁。当前的操作没有完成前,会阻断其他操作的读取和写入
-- 按粒度分类:
- - 表级锁:会锁定整个表,开销小,加锁快;不会出现死锁;锁定力度大,发生锁冲突概率高,并发度最低,偏向 MyISAM
- - 行级锁:会锁定当前操作行,开销大,加锁慢;会出现死锁;锁定力度小,发生锁冲突概率低,并发度高,偏向 InnoDB
- - 页级锁:锁的力度、发生冲突的概率和加锁开销介于表锁和行锁之间,会出现死锁,并发性能一般
-- 按使用方式分类:
- - 悲观锁:每次查询数据时都认为别人会修改,很悲观,所以查询时加锁
- - 乐观锁:每次查询数据时都认为别人不会修改,很乐观,但是更新时会判断一下在此期间别人有没有去更新这个数据
+* 严格的隔离性,对应了事务隔离级别中的 serializable,实际应用中对性能考虑很少使用可串行化
-* 不同存储引擎支持的锁
+* 与原子性、持久性侧重于研究事务本身不同,隔离性研究的是**不同事务**之间的相互影响
- | 存储引擎 | 表级锁 | 行级锁 | 页级锁 |
- | -------- | -------- | -------- | ------ |
- | MyISAM | 支持 | 不支持 | 不支持 |
- | InnoDB | **支持** | **支持** | 不支持 |
- | MEMORY | 支持 | 不支持 | 不支持 |
- | BDB | 支持 | 不支持 | 支持 |
+隔离性让并发情形下的事务之间互不干扰:
-从锁的角度来说:表级锁更适合于以查询为主,只有少量按索引条件更新数据的应用,如 Web 应用;而行级锁则更适合于有大量按索引条件并发更新少量不同数据,同时又有并查询的应用,如一些在线事务处理系统
+- 一个事务的写操作对另一个事务的写操作(写写):锁机制保证隔离性
+- 一个事务的写操作对另一个事务的读操作(读写):MVCC 保证隔离性
+
+锁机制:事务在修改数据之前,需要先获得相应的锁,获得锁之后,事务便可以修改数据;该事务操作期间,这部分数据是锁定的,其他事务如果需要修改数据,需要等待当前事务提交或回滚后释放锁(详解见锁机制)
@@ -6093,195 +6485,182 @@ InnoDB 刷脏页的控制策略:
-### Server
+#### 并发控制
-FLUSH TABLES WITH READ LOCK 简称(FTWRL),全局读锁,让整个库处于只读状态,工作流程:
+MVCC 全称 Multi-Version Concurrency Control,即多版本并发控制,用来**解决读写冲突的无锁并发控制**,可以在发生读写请求冲突时不用加锁解决,这个读是指的快照读(也叫一致性读或一致性无锁读),而不是当前读:
-1. 上全局读锁(lock_global_read_lock)
-2. 清理表缓存(close_cached_tables)
-3. 上全局 COMMIT 锁(make_global_read_lock_block_commit)
+* 快照读:实现基于 MVCC,因为是多版本并发,所以快照读读到的数据不一定是当前最新的数据,有可能是历史版本的数据
+* 当前读:又叫加锁读,读取数据库记录是当前**最新的版本**(产生幻读、不可重复读),可以对读取的数据进行加锁,防止其他事务修改数据,是悲观锁的一种操作,读写操作加共享锁或者排他锁和串行化事务的隔离级别都是当前读
-该命令主要用于备份工具做一致性备份,由于 FTWRL 需要持有两把全局的 MDL 锁,并且还要关闭所有表对象,因此杀伤性很大
+数据库并发场景:
-MySQL 里面表级别的锁有两种:一种是表锁,一种是元数据锁(meta data lock,MDL)
+* 读-读:不存在任何问题,也不需要并发控制
-MDL 叫元数据锁,主要用来保护 MySQL内部对象的元数据,保证数据读写的正确性,通过 MDL 机制保证 DDL、DML、DQL 操作的并发,**当对一个表做增删改查操作的时候,加 MDL 读锁;当要对表做结构变更操作的时候,加 MDL 写锁**
+* 读-写:有线程安全问题,可能会造成事务隔离性问题,可能遇到脏读,幻读,不可重复读
-* MDL 锁不需要显式使用,在访问一个表的时候会被自动加上,事务中的 MDL 锁,在语句执行开始时申请,在整个事务提交后释放
+* 写-写:有线程安全问题,可能会存在脏写(丢失更新)问题
-* MDL 锁是在 Server 中实现,不是 InnoDB 存储引擎层不能直接实现的锁
+MVCC 的优点:
-* MDL 锁还能实现其他粒度级别的锁,比如全局锁、库级别的锁、表空间级别的锁
+* 在并发读写数据库时,做到在读操作时不用阻塞写操作,写操作也不用阻塞读操作,提高了并发读写的性能
+* 可以解决脏读,不可重复读等事务隔离问题(加锁也能解决),但不能解决更新丢失问题(写锁会解决)
+提高读写和写写的并发性能:
+* MVCC + 悲观锁:MVCC 解决读写冲突,悲观锁解决写写冲突
+* MVCC + 乐观锁:MVCC 解决读写冲突,乐观锁解决写写冲突
-***
+参考文章:https://www.jianshu.com/p/8845ddca3b23
-### MyISAM
+***
-#### 表级锁
-MyISAM 存储引擎只支持表锁,这也是 MySQL 开始几个版本中唯一支持的锁类型
-MyISAM 引擎在执行查询语句之前,会**自动**给涉及到的所有表加读锁,在执行增删改之前,会**自动**给涉及的表加写锁,这个过程并不需要用户干预,所以用户一般不需要直接用 LOCK TABLE 命令给 MyISAM 表显式加锁
+#### 实现原理
-* 加锁命令:
+##### 隐藏字段
- 读锁:所有连接只能读取数据,不能修改
+实现原理主要是隐藏字段,undo日志,Read View 来实现的
- 写锁:其他连接不能查询和修改数据
+InnoDB 存储引擎,数据库中的**聚簇索引**每行数据,除了自定义的字段,还有数据库隐式定义的字段:
- ```mysql
- -- 读锁
- LOCK TABLE table_name READ;
-
- -- 写锁
- LOCK TABLE table_name WRITE;
- ```
+* DB_TRX_ID:最近修改事务 ID,记录创建该数据或最后一次修改该数据的事务 ID
+* DB_ROLL_PTR:回滚指针,**指向记录对应的 undo log 日志**,undo log 中又指向上一个旧版本的 undo log
+* DB_ROW_ID:隐含的自增 ID(**隐藏主键**),如果数据表没有主键,InnoDB 会自动以 DB_ROW_ID 作为聚簇索引
-* 解锁命令:
+
- ```mysql
- -- 将当前会话所有的表进行解锁
- UNLOCK TABLES;
- ```
-锁的兼容性:
-* 对 MyISAM 表的读操作,不会阻塞其他用户对同一表的读请求,但会阻塞对同一表的写请求
-* 对 MyISAM 表的写操作,则会阻塞其他用户对同一表的读和写操作
-
-锁调度:MyISAM 的读写锁调度是写优先,因为写锁后其他线程不能做任何操作,大量的更新会使查询很难得到锁,从而造成永远阻塞,所以 MyISAM 不适合做写为主的表的存储引擎
+***
-***
+##### 版本链
+undo log 是逻辑日志,记录的是每个事务对数据执行的操作,而不是记录的全部数据,要**根据 undo log 逆推出以往事务的数据**
+undo log 的作用:
-#### 锁操作
+* 保证事务进行 rollback 时的原子性和一致性,当事务进行回滚的时候可以用 undo log 的数据进行恢复
+* 用于 MVCC 快照读,通过读取 undo log 的历史版本数据可以实现不同事务版本号都拥有自己独立的快照数据
-##### 读锁
+undo log 主要分为两种:
-两个客户端操作 Client 1和 Client 2,简化为 C1、C2
+* insert undo log:事务在 insert 新记录时产生的 undo log,只在事务回滚时需要,并且在事务提交后可以被立即丢弃
-* 数据准备:
+* update undo log:事务在进行 update 或 delete 时产生的 undo log,在事务回滚时需要,在快照读时也需要。不能随意删除,只有在当前读或事务回滚不涉及该日志时,对应的日志才会被 purge 线程统一清除
- ```mysql
- CREATE TABLE `tb_book` (
- `id` INT(11) AUTO_INCREMENT,
- `name` VARCHAR(50) DEFAULT NULL,
- `publish_time` DATE DEFAULT NULL,
- `status` CHAR(1) DEFAULT NULL,
- PRIMARY KEY (`id`)
- ) ENGINE=MYISAM DEFAULT CHARSET=utf8 ;
-
- INSERT INTO tb_book (id, NAME, publish_time, STATUS) VALUES(NULL,'java编程思想','2088-08-01','1');
- INSERT INTO tb_book (id, NAME, publish_time, STATUS) VALUES(NULL,'mysql编程思想','2088-08-08','0');
- ```
+每次对数据库记录进行改动,都会产生的新版本的 undo log,随着更新次数的增多,所有的版本都会被 roll_pointer 属性连接成一个链表,把这个链表称之为**版本链**,版本链的头节点就是当前的最新的 undo log,链尾就是最早的旧 undo log
-* C1、C2 加读锁,同时查询可以正常查询出数据
+说明:因为 DELETE 删除记录,都是移动到垃圾链表中,不是真正的删除,所以才可以通过版本链访问原始数据
- ```mysql
- LOCK TABLE tb_book READ; -- C1、C2
- SELECT * FROM tb_book; -- C1、C2
- ```
+
- 
+注意:undo 是逻辑日志,这里只是直观的展示出来
-* C1 加读锁,C1、C2查询未锁定的表,C1 报错,C2 正常查询
+工作流程:
- ```mysql
- LOCK TABLE tb_book READ; -- C1
- SELECT * FROM tb_user; -- C1、C2
- ```
+* 有个事务插入 persion 表一条新记录,name 为 Jerry,age 为 24
+* 事务 1 修改该行数据时,数据库会先对该行加排他锁,然后先记录 undo log,然后修改该行 name 为 Tom,并且修改隐藏字段的事务 ID 为当前事务 1 的 ID(默认为 1 之后递增),回滚指针指向拷贝到 undo log 的副本记录,事务提交后,释放锁
+* 以此类推
- 
- C1、C2 执行插入操作,C1 报错,C2 等待获取
- ```mysql
- INSERT INTO tb_book VALUES(NULL,'Spring高级','2088-01-01','1'); -- C1、C2
- ```
+***
- 
- 当在 C1 中释放锁指令 UNLOCK TABLES,C2 中的 INSERT 语句立即执行
+##### 读视图
+Read View 是事务进行读数据操作时产生的读视图,该事务执行快照读的那一刻会生成数据库系统当前的一个快照,记录并维护系统当前活跃事务的 ID,用来做可见性判断,根据视图判断当前事务能够看到哪个版本的数据
-***
+注意:这里的快照并不是把所有的数据拷贝一份副本,而是由 undo log 记录的逻辑日志,根据库中的数据进行计算出历史数据
+工作流程:将版本链的头节点的事务 ID(最新数据事务 ID,大概率不是当前线程)DB_TRX_ID 取出来,与系统当前活跃事务的 ID 对比进行可见性分析,不可见就通过 DB_ROLL_PTR 回滚指针去取出 undo log 中的下一个 DB_TRX_ID 比较,直到找到最近的满足可见性的 DB_TRX_ID,该事务 ID 所在的旧记录就是当前事务能看见的最新的记录
+Read View 几个属性:
-##### 写锁
+- m_ids:生成 Read View 时当前系统中活跃的事务 id 列表(未提交的事务集合,当前事务也在其中)
+- min_trx_id:生成 Read View 时当前系统中活跃的最小的事务 id,也就是 m_ids 中的最小值(已提交的事务集合)
+- max_trx_id:生成 Read View 时当前系统应该分配给下一个事务的 id 值,m_ids 中的最大值加 1(未开始事务)
+- creator_trx_id:生成该 Read View 的事务的事务 id,就是判断该 id 的事务能读到什么数据
-两个客户端操作 Client 1和 Client 2,简化为 C1、C2
+creator 创建一个 Read View,进行可见性算法分析:(解决了读未提交)
-* C1 加写锁,C1、C2查询表,C1 正常查询,C2 需要等待
+* db_trx_id == creator_trx_id:表示这个数据就是当前事务自己生成的,自己生成的数据自己肯定能看见,所以此数据对 creator 是可见的
+* db_trx_id < min_trx_id:该版本对应的事务 ID 小于 Read view 中的最小活跃事务 ID,则这个事务在当前事务之前就已经被提交了,对 creator 可见(因为比已提交的最大事务 ID 小的并不一定已经提交,所以应该判断是否在活跃事务列表)
- ```mysql
- LOCK TABLE tb_book WRITE; -- C1
- SELECT * FROM tb_book; -- C1、C2
- ```
+* db_trx_id >= max_trx_id:该版本对应的事务 ID 大于 Read view 中当前系统的最大事务 ID,则说明该数据是在当前 Read view 创建之后才产生的,对 creator 不可见
+* min_trx_id<= db_trx_id < max_trx_id:判断 db_trx_id 是否在活跃事务列表 m_ids 中
+ * 在列表中,说明该版本对应的事务正在运行,数据不能显示(**不能读到未提交的数据**)
+ * 不在列表中,说明该版本对应的事务已经被提交,数据可以显示(**可以读到已经提交的数据**)
- 
- 当在 C1 中释放锁指令 UNLOCK TABLES,C2 中的 SELECT 语句立即执行
-* C1、C2 同时加写锁
+***
- ```mysql
- LOCK TABLE tb_book WRITE;
- ```
- 
-* C1 加写锁,C1、C2查询未锁定的表,C1 报错,C2 正常查询
+##### 工作流程
+
+表 user 数据
+
+```sh
+id name age
+1 张三 18
+```
+Transaction 20:
+```mysql
+START TRANSACTION; -- 开启事务
+UPDATE user SET name = '李四' WHERE id = 1;
+UPDATE user SET name = '王五' WHERE id = 1;
+```
-***
+Transaction 60:
+```mysql
+START TRANSACTION; -- 开启事务
+-- 操作表的其他数据
+```
+
-#### 锁状态
+ID 为 0 的事务创建 Read View:
-* 查看锁竞争:
+* m_ids:20、60
+* min_trx_id:20
+* max_trx_id:61
+* creator_trx_id:0
- ```mysql
- SHOW OPEN TABLES;
- ```
+
- 
+只有红框部分才复合条件,所以只有张三对应的版本的数据可以被看到
- In_user:表当前被查询使用的次数,如果该数为零,则表是打开的,但是当前没有被使用
- Name_locked:表名称是否被锁定,名称锁定用于取消表或对表进行重命名等操作
- ```mysql
- LOCK TABLE tb_book READ; -- 执行命令
- ```
+参考视频:https://www.bilibili.com/video/BV1t5411u7Fg
- 
-* 查看锁状态:
- ```mysql
- SHOW STATUS LIKE 'Table_locks%';
- ```
+***
- 
- Table_locks_immediate:指的是能立即获得表级锁的次数,每立即获取锁,值加 1
- Table_locks_waited:指的是不能立即获取表级锁而需要等待的次数,每等待一次,该值加 1,此值高说明存在着较为严重的表级锁争用情况
+##### 二级索引
+
+只有在聚簇索引中才有 trx_id 和 roll_pointer 的隐藏列,对于二级索引判断可见性的方式:
+
+* 二级索引页面的 Page Header 中有一个 PAGE_MAX_TRX_ID 属性,代表修改当前页面的最大的事务 ID,SELECT 语句访问某个二级索引时会判断 ReadView 的 min_trx_id 是否大于该属性,大于说明该页面的所有属性对 ReadView 可见
+* 如果属性判断不可见,就需要利用二级索引获取主键值进行**回表操作**,得到聚簇索引后按照聚簇索引的可见性判断的方法操作
@@ -6289,32 +6668,30 @@ MyISAM 引擎在执行查询语句之前,会**自动**给涉及到的所有表
-### InnoDB
+#### RC RR
-#### 行级锁
+Read View 用于支持 RC(Read Committed,读已提交)和 RR(Repeatable Read,可重复读)隔离级别的实现,所以 **SELECT 在 RC 和 RR 隔离级别使用 MVCC 读取记录**
-InnoDB 与 MyISAM 的**最大不同**有两点:一是支持事务;二是采用了行级锁,InnoDB 同时支持表锁和行锁
+RR、RC 生成时机:
-InnoDB 实现了以下两种类型的行锁:
+- RC 隔离级别下,每次读取数据前都会生成最新的 Read View(当前读)
+- RR 隔离级别下,在第一次数据读取时才会创建 Read View(快照读)
-- 共享锁 (S):又称为读锁,简称 S 锁,就是多个事务对于同一数据可以共享一把锁,都能访问到数据,但是只能读不能修改
-- 排他锁 (X):又称为写锁,简称 X 锁,就是不能与其他锁并存,如一个事务获取了一个数据行的排他锁,其他事务就不能再获取该行的其他锁,包括共享锁和排他锁,只有获取排他锁的事务是可以对数据读取和修改
+RC、RR 级别下的 InnoDB 快照读区别
-对于 UPDATE、DELETE 和 INSERT 语句,InnoDB 会**自动给涉及数据集加排他锁**(行锁),在 commit 的时候会自动释放;对于普通 SELECT 语句,不会加任何锁
+- RC 级别下,事务中每次快照读都会新生成一个 Read View,这就是在 RC 级别下的事务中可以看到别的事务提交的更新的原因
-锁的兼容性:
+- RR 级别下,某个事务的对某条记录的**第一次快照读**会创建一个 Read View, 将当前系统活跃的其他事务记录起来,此后在调用快照读的时候,使用的是同一个 Read View,所以一个事务的查询结果每次都是相同的
-- 共享锁和共享锁 兼容
-- 共享锁和排他锁 冲突
-- 排他锁和排他锁 冲突
-- 排他锁和共享锁 冲突
+ RR 级别下,通过 `START TRANSACTION WITH CONSISTENT SNAPSHOT` 开启事务,会在执行该语句后立刻生成一个 Read View,不是在执行第一条 SELECT 语句时生成(所以说 `START TRANSACTION` 并不是事务的起点,执行第一条语句才算起点)
-可以通过以下语句显式给数据集加共享锁或排他锁:
+解决幻读问题:
-```mysql
-SELECT * FROM table_name WHERE ... LOCK IN SHARE MODE -- 共享锁
-SELECT * FROM table_name WHERE ... FOR UPDATE -- 排他锁
-```
+- 快照读:通过 MVCC 来进行控制的,在可重复读隔离级别下,普通查询是快照读,是不会看到别的事务插入的数据的,但是**并不能完全避免幻读**
+
+ 场景:RR 级别,T1 事务开启,创建 Read View,此时 T2 去 INSERT 新的一行然后提交,然后 T1 去 UPDATE 该行会发现更新成功,并且把这条新记录的 trx_id 变为当前的事务 id,所以对当前事务就是可见的。因为 **Read View 并不能阻止事务去更新数据,更新数据都是先读后写并且是当前读**,读取到的是最新版本的数据
+
+- 当前读:通过 next-key 锁(行锁 + 间隙锁)来解决问题
@@ -6324,165 +6701,138 @@ SELECT * FROM table_name WHERE ... FOR UPDATE -- 排他锁
-#### 锁操作
+### 持久特性
-两个客户端操作 Client 1和 Client 2,简化为 C1、C2
+#### 实现方式
-* 环境准备
+持久性是指一个事务一旦被提交了,那么对数据库中数据的改变就是永久性的,接下来的其他操作或故障不应该对其有任何影响。
- ```mysql
- CREATE TABLE test_innodb_lock(
- id INT(11),
- name VARCHAR(16),
- sex VARCHAR(1)
- )ENGINE = INNODB DEFAULT CHARSET=utf8;
-
- INSERT INTO test_innodb_lock VALUES(1,'100','1');
- -- ..........
-
- CREATE INDEX idx_test_innodb_lock_id ON test_innodb_lock(id);
- CREATE INDEX idx_test_innodb_lock_name ON test_innodb_lock(name);
- ```
+Buffer Pool 的使用提高了读写数据的效率,但是如果 MySQL 宕机,此时 Buffer Pool 中修改的数据还没有刷新到磁盘,就会导致数据的丢失,事务的持久性无法保证,所以引入了 redo log 日志:
-* 关闭自动提交功能:
+* redo log **记录数据页的物理修改**,而不是某一行或某几行的修改,用来恢复提交后的数据页,只能**恢复到最后一次提交**的位置
+* redo log 采用的是 WAL(Write-ahead logging,**预写式日志**),所有修改要先写入日志,再更新到磁盘,保证了数据不会因 MySQL 宕机而丢失,从而满足了持久性要求
+* 简单的 redo log 是纯粹的物理日志,复杂的 redo log 会存在物理日志和逻辑日志
- ```mysql
- SET AUTOCOMMIT=0; -- C1、C2
- ```
+工作过程:MySQL 发生了宕机,InnoDB 会判断一个数据页在崩溃恢复时丢失了更新,就会将它读到内存,然后根据 redo log 内容更新内存,更新完成后,内存页变成脏页,然后进行刷脏
- 正常查询数据:
+缓冲池的**刷脏策略**:
- ```mysql
- SELECT * FROM test_innodb_lock; -- C1、C2
- ```
+* redo log 文件是固定大小的,如果写满了就要擦除以前的记录,在擦除之前需要把对应的更新持久化到磁盘中
+* Buffer Pool 内存不足,需要淘汰部分数据页(LRU 链表尾部),如果淘汰的是脏页,就要先将脏页写到磁盘(要避免大事务)
+* 系统空闲时,后台线程会自动进行刷脏(Flush 链表部分已经详解)
+* MySQL 正常关闭时,会把内存的脏页都刷新到磁盘上
-* 查询 id 为 3 的数据,正常查询:
- ```mysql
- SELECT * FROM test_innodb_lock WHERE id=3; -- C1、C2
- ```
- 
+****
-* C1 更新 id 为 3 的数据,但不提交:
- ```mysql
- UPDATE test_innodb_lock SET name='300' WHERE id=3; -- C1
- ```
- 
+#### 重做日志
- C2 查询不到 C1 修改的数据,因为隔离界别为 REPEATABLE READ,C1 提交事务,C2 查询:
+##### 日志缓冲
- ```mysql
- COMMIT; -- C1
- ```
+服务器启动时会向操作系统申请一片连续内存空间作为 redo log buffer(重做日志缓冲区),可以通过 `innodb_log_buffer_size` 系统变量指定 redo log buffer 的大小,默认是 16MB
- 
+log buffer 被划分为若干 redo log block(块,类似数据页的概念),每个默认大小 512 字节,每个 block 由 12 字节的 log block head、496 字节的 log block body、4 字节的 log block trailer 组成
- 提交后仍然查询不到 C1 修改的数据,因为隔离级别可以防止脏读、不可重复读,所以 C2 需要提交才可以查询到其他事务对数据的修改:
+* 当数据修改时,先修改 Change Buffer 中的数据,然后在 redo log buffer 记录这次操作,写入 log buffer 的过程是**顺序写入**的(先写入前面的 block,写满后继续写下一个)
+* log buffer 中有一个指针 buf_free,来标识该位置之前都是填满的 block,该位置之后都是空闲区域
- ```mysql
- COMMIT; -- C2
- SELECT * FROM test_innodb_lock WHERE id=3; -- C2
- ```
+MySQL 规定对底层页面的一次原子访问称为一个 Mini-Transaction(MTR),比如在 B+ 树上插入一条数据就算一个 MTR
- 
+* 一个事务包含若干个 MTR,一个 MTR 对应一组若干条 redo log,一组 redo log 是不可分割的,在进行数据恢复时也把一组 redo log 当作一个不可分割的整体处理
-* C1 更新 id 为 3 的数据,但不提交,C2 也更新 id 为 3 的数据:
+* 不是每生成一条 redo 日志就将其插入到 log buffer 中,而是一个 MTR 结束后**将一组 redo 日志写入**
- ```mysql
- UPDATE test_innodb_lock SET name='3' WHERE id=3; -- C1
- UPDATE test_innodb_lock SET name='30' WHERE id=3; -- C2
- ```
+InnoDB 的 redo log 是**固定大小**的,redo 日志在磁盘中以文件组的形式存储,同一组中的每个文件大小一样格式一样
- 
+* `innodb_log_group_home_dir` 代表磁盘存储 redo log 的文件目录,默认是当前数据目录
+* `innodb_log_file_size` 代表文件大小,默认 48M,`innodb_log_files_in_group` 代表文件个数,默认 2 最大 100,所以日志的文件大小为 `innodb_log_file_size * innodb_log_files_in_group`
- 当 C1 提交,C2 直接解除阻塞,直接更新
+redo 日志文件也是由若干个 512 字节的 block 组成,日志文件的前 2048 个字节(前 4 个 block)用来存储一些管理信息,以后的用来存储 log buffer 中的 block 镜像
-* 操作不同行的数据:
+注意:block 并不代表一组 redo log,一组日志可能占用不到一个 block 或者几个 block,依赖于 MTR 的大小
- ```mysql
- UPDATE test_innodb_lock SET name='10' WHERE id=1; -- C1
- UPDATE test_innodb_lock SET name='30' WHERE id=3; -- C2
- ```
- 
- 由于C1、C2 操作的不同行,获取不同的行锁,所以都可以正常获取行锁
+***
-
+##### 日志刷盘
-***
+redo log 需要在事务提交时将日志写入磁盘,但是比 Buffer Pool 修改的数据写入磁盘的速度快,原因:
+* 刷脏是随机 IO,因为每次修改的数据位置随机;redo log 和 binlog 都是**顺序写**,磁盘的顺序 IO 比随机 IO 速度要快
+* 刷脏是以数据页(Page)为单位的,一个页上的一个小修改都要整页写入;redo log 中只包含真正需要写入的部分,好几页的数据修改可能只记录在一个 redo log 页中,减少无效 IO
+* **组提交机制**,可以大幅度降低磁盘的 IO 消耗
+InnoDB 引擎会在适当的时候,把内存中 redo log buffer 持久化(fsync)到磁盘,具体的**刷盘策略**:
-#### 锁分类
+* 在事务提交时需要进行刷盘,通过修改参数 `innodb_flush_log_at_trx_commit` 设置:
+ * 0:表示当提交事务时,并不将缓冲区的 redo 日志写入磁盘,而是等待**后台线程每秒刷新一次**
+ * 1:在事务提交时将缓冲区的 redo 日志**同步写入**到磁盘,保证一定会写入成功(默认值)
+ * 2:在事务提交时将缓冲区的 redo 日志异步写入到磁盘,不能保证提交时肯定会写入,只是有这个动作。日志已经在操作系统的缓存,如果操作系统没有宕机而 MySQL 宕机,也是可以恢复数据的
+* 写入 redo log buffer 的日志超过了总容量的一半,就会将日志刷入到磁盘文件,这会影响执行效率,所以开发中应**避免大事务**
+* 服务器关闭时
+* 并行的事务提交(组提交)时,会将将其他事务的 redo log 持久化到磁盘。假设事务 A 已经写入 redo log buffer 中,这时另外一个线程的事务 B 提交,如果 innodb_flush_log_at_trx_commit 设置的是 1,那么事务 B 要把 redo log buffer 里的日志全部持久化到磁盘,**因为多个事务共用一个 redo log buffer**,所以一次 fsync 可以刷盘多个事务的 redo log,提升了并发量
-##### 间隙锁
+服务器启动后 redo 磁盘空间不变,所以 redo 磁盘中的日志文件是被**循环使用**的,采用循环写数据的方式,写完尾部重新写头部,所以要确保头部 log 对应的修改已经持久化到磁盘
-当使用范围条件检索数据,并请求共享或排他锁时,InnoDB 会给符合条件的已有数据进行加锁,对于键值在条件范围内但并不存在的记录,叫做间隙(GAP), InnoDB 会对间隙进行加锁,就是间隙锁
-* 唯一索引加锁只有在值存在时才是行锁,值不存在会变成间隙锁,所以范围查询时容易出现间隙锁
-* 对于联合索引且是唯一索引,如果 where 条件只包括联合索引的一部分,那么会加间隙锁
-加锁的基本单位是 next-key lock,该锁是行锁和这条记录前面的 gap lock 的组合,就是行锁加间隙锁
+***
-* 加锁遵循前开后闭原则
-* 假设有索引值 10、11、13,那么可能的间隙锁包括:(负无穷,10]、(10,11]、(11,13]、(13,20,正无穷),锁住索引 11 会同时对间隙 (10,11]、(11,13] 加锁
-间隙锁优点:RR 级别下间隙锁可以解决事务的**幻读问题**,通过对间隙加锁,防止读取过程中数据条目发生变化
-间隙锁危害:当锁定一个范围的键值后,即使某些不存在的键值也会被无辜的锁定,造成在锁定的时候无法插入锁定键值范围内的任何数据,在某些场景下这可能会对性能造成很大的危害
+##### 日志序号
-* 关闭自动提交功能:
+lsn (log sequence number) 代表已经写入的 redo 日志量、flushed_to_disk_lsn 指刷新到磁盘中的 redo 日志量,两者都是**全局变量**,如果两者的值相同,说明 log buffer 中所有的 redo 日志都已经持久化到磁盘
- ```mysql
- SET AUTOCOMMIT=0; -- C1、C2
- ```
+工作过程:写入 log buffer 数据时,buf_free 会进行偏移,偏移量就会加到 lsn 上
-* 查询数据表:
+MTR 的执行过程中修改过的页对应的控制块会加到 Buffer Pool 的 flush 链表中,链表中脏页是按照第一次修改的时间进行排序的(头插),控制块中有两个指针用来记录脏页被修改的时间:
- ```mysql
- SELECT * FROM test_innodb_lock;
- ```
+* oldest_modification:第一次修改 Buffer Pool 中某个缓冲页时,将修改该页的 MTR **开始时**对应的 lsn 值写入这个属性
+* newest_modification:每次修改页面,都将 MTR 结束时全局的 lsn 值写入这个属性,所以该值是该页面最后一次修改后的 lsn 值
- 
+全局变量 checkpoint_lsn 表示**当前系统可以被覆盖的 redo 日志总量**,当 redo 日志对应的脏页已经被刷新到磁盘后,该文件空间就可以被覆盖重用,此时执行一次 checkpoint 来更新 checkpoint_lsn 的值存入管理信息(刷脏和执行一次 checkpoint 并不是同一个线程),该值的增量就代表磁盘文件中当前位置向后可以被覆盖的文件的量,所以该值是一直增大的
-* C1 根据 id 范围更新数据,C2 插入数据:
+**checkpoint**:从 flush 链表尾部中找出还未刷脏的页面,该页面是当前系统中最早被修改的脏页,该页面之前产生的脏页都已经刷脏,然后将该页 oldest_modification 值赋值给 checkpoint_lsn,因为 lsn 小于该值时产生的 redo 日志都可以被覆盖了
- ```mysql
- UPDATE test_innodb_lock SET name='8888' WHERE id < 4; -- C1
- INSERT INTO test_innodb_lock VALUES(2,'200','2'); -- C2
- ```
+但是在系统忙碌时,后台线程的刷脏操作不能将脏页快速刷出,导致系统无法及时执行 checkpoint ,这时需要用户线程从 flush 链表中把最早修改的脏页刷新到磁盘中,然后执行 checkpoint
- 
+```java
+write pos ------- checkpoint_lsn // 两值之间的部分表示可以写入的日志量,当 pos 追赶上 lsn 时必须执行 checkpoint
+```
- 出现间隙锁,C2 被阻塞,等待 C1 提交事务后才能更新
+使用命令可以查看当前 InnoDB 存储引擎各种 lsn 的值:
+```mysql
+SHOW ENGINE INNODB STATUS\G
+```
-***
+****
-##### 意向锁
-InnoDB 为了支持多粒度的加锁,允许行锁和表锁同时存在,支持在不同粒度上的加锁操作,InnoDB 增加了意向锁(Intention Lock )
+##### 崩溃恢复
-意向锁是将锁定的对象分为多个层次,意向锁意味着事务希望在更细粒度上进行加锁,意向锁分为两种:
+恢复的起点:在从 redo 日志文件组的管理信息中获取最近发生 checkpoint 的信息,**从 checkpoint_lsn 对应的日志文件开始恢复**
-* 意向共享锁(IS):事务有意向对表中的某些行加共享锁
+恢复的终点:扫描日志文件的 block,block 的头部记录着当前 block 使用了多少字节,填满的 block 总是 512 字节, 如果某个 block 不是 512 字节,说明该 block 就是需要恢复的最后一个 block
-* 意向排他锁(IX):事务有意向对表中的某些行加排他锁
+恢复的过程:按照 redo log 依次执行恢复数据,优化方式
-InnoDB 存储引擎支持的是行级别的锁,因此意向锁不会阻塞除全表扫描以外的任何请求,表级意向锁与行级锁的兼容性如下所示:
+* 使用哈希表:根据 redo log 的 space id 和 page number 属性计算出哈希值,将对同一页面的修改放入同一个槽里,可以一次性完成对某页的恢复,**避免了随机 IO**
+* 跳过已经刷新到磁盘中的页面:数据页的 File Header 中的 FILE_PAGE_LSN 属性(类似 newest_modification)表示最近一次修改页面时的 lsn 值,数据页被刷新到磁盘中,那么该页 lsn 属性肯定大于 checkpoint_lsn
-
-插入意向锁是在插入一行记录操作之前设置的一种间隙锁,这个锁释放了一种插入方式的信号,即多个事务在相同的索引间隙插入时如果不是插入间隙中相同的位置就不需要互相等待。假设某列有索引值2,6,只要两个事务插入位置不同,如事务 A 插入 3,事务 B 插入 4,那么就可以同时插入
+
+参考书籍:https://book.douban.com/subject/35231266/
@@ -6490,51 +6840,56 @@ InnoDB 存储引擎支持的是行级别的锁,因此意向锁不会阻塞除
-##### 死锁
+#### 工作流程
-当并发系统中不同线程出现循环资源依赖,线程都在等待别的线程释放资源时,就会导致这几个线程都进入无限等待的状态,称为死锁
+##### 日志对比
-死锁情况:线程 A 修改了 id = 1 的数据,请求修改 id = 2 的数据,线程 B 修改了 id = 2 的数据,请求修改 id = 1 的数据,产生死锁
+MySQL 中还存在 binlog(二进制日志)也可以记录写操作并用于数据的恢复,**保证数据不丢失**,二者的区别是:
-解决策略:
+* 作用不同:redo log 是用于 crash recovery (故障恢复),保证 MySQL 宕机也不会影响持久性;binlog 是用于 point-in-time recovery 的,保证服务器可以基于时间点恢复数据,此外 binlog 还用于主从复制
+* 层次不同:redo log 是 InnoDB 存储引擎实现的,而 binlog 是MySQL的 Server 层实现的,同时支持 InnoDB 和其他存储引擎
+* 内容不同:redo log 是物理日志,内容基于磁盘的 Page;binlog 的内容是二进制的,根据 binlog_format 参数的不同,可能基于SQL 语句、基于数据本身或者二者的混合(日志部分详解)
+* 写入时机不同:binlog 在事务提交时一次写入;redo log 的写入时机相对多元
-* 直接进入等待直到超时,超时时间可以通过参数 innodb_lock_wait_timeout 来设置,但是时间的设置不好控制,超时可能不是因为死锁,而是因为事务处理比较慢,所以一般不采取该方式
-* 主动死锁检测,发现死锁后**主动回滚死锁链条中的某一个事务**,让其他事务得以继续执行,将参数 innodb_deadlock_detect 设置为 on,表示开启这个逻辑
+binlog 为什么不支持崩溃恢复?
+* binlog 记录的是语句,并不记录数据页级的数据(哪个页改了哪些地方),所以没有能力恢复数据页
+* binlog 是追加写,保存全量的日志,没有标志确定从哪个点开始的数据是已经刷盘了,而 redo log 只要在 checkpoint_lsn 后面的就是没有刷盘的
-****
+***
-#### 锁优化
-##### 锁升级
+##### 更新记录
-索引失效造成行锁升级为表锁,不通过索引检索数据,InnoDB 会将对表中的所有记录加锁,实际效果和**表锁**一样实际开发过程应避免出现索引失效的状况
+更新一条记录的过程:写之前一定先读
-* 查看当前表的索引:
+* 在 B+ 树中定位到该记录,如果该记录所在的页面不在 Buffer Pool 里,先将其加载进内存
- ```mysql
- SHOW INDEX FROM test_innodb_lock;
- ```
+* 首先更新该记录对应的聚簇索引,更新聚簇索引记录时:
+ * 更新记录前向 undo 页面写 undo 日志,由于这是更改页面,所以需要记录一下相应的 redo 日志
+
+ 注意:修改 undo 页面也是在**修改页面**,事务只要修改页面就需要先记录相应的 redo 日志
+
+ * 然后**记录对应的 redo 日志**(等待 MTR 提交后写入 redo log buffer),**最后进行真正的更新记录**
+
+* 更新其他的二级索引记录,不会再记录 undo log,只记录 redo log 到 buffer 中
-* 关闭自动提交功能:
+* 在一条更新语句执行完成后(也就是将所有待更新记录都更新完了),就会开始记录该语句对应的 binlog 日志,此时记录的 binlog 并没有刷新到硬盘上,还在内存中,在事务提交时才会统一将该事务运行过程中的所有 binlog 日志刷新到硬盘
- ```mysql
- SET AUTOCOMMIT=0; -- C1、C2
- ```
+假设表中有字段 id 和 a,存在一条 `id = 1, a = 2` 的记录,此时执行更新语句:
-* 执行更新语句:
+```sql
+update table set a=2 where id=1;
+```
- ```mysql
- UPDATE test_innodb_lock SET sex='2' WHERE name=10; -- C1
- UPDATE test_innodb_lock SET sex='2' WHERE id=3; -- C2
- ```
+InnoDB 会真正的去执行把值修改成 (1,2) 这个操作,先加行锁,在去更新,并不会提前判断相同就不修改了
- 
- 索引失效:执行更新时 name 字段为 varchar 类型,造成索引失效,最终行锁变为表锁
+
+参考文章:https://mp.weixin.qq.com/s/wcJ2KisSaMnfP4nH5NYaQA
@@ -6542,21 +6897,24 @@ InnoDB 存储引擎支持的是行级别的锁,因此意向锁不会阻塞除
-##### 优化锁
+##### 两段提交
-InnoDB 存储引擎实现了行级锁定,虽然在锁定机制的实现方面带来了性能损耗可能比表锁会更高,但是在整体并发处理能力方面要远远优于 MyISAM 的表锁,当系统并发量较高的时候,InnoDB 的整体性能远远好于 MyISAM
+当客户端执行 COMMIT 语句或者在自动提交的情况下,MySQL 内部开启一个 XA 事务,分两阶段来完成 XA 事务的提交:
-但是使用不当可能会让InnoDB 的整体性能表现不仅不能比 MyISAM 高,甚至可能会更差
+```sql
+update T set c=c+1 where ID=2;
+```
-优化建议:
+
-- 尽可能让所有数据检索都能通过索引来完成,避免无索引行锁升级为表锁
-- 合理设计索引,尽量缩小锁的范围
-- 尽可能减少索引条件及索引范围,避免间隙锁
-- 尽量控制事务大小,减少锁定资源量和时间长度
-- 尽可使用低级别事务隔离(需要业务层面满足需求)
+流程说明:执行引擎将这行新数据读入到内存中(Buffer Pool)后,先将此次更新操作记录到 redo log buffer 里,然后更新记录。最后将 redo log 刷盘后事务处于 prepare 状态,执行器会生成这个操作的 binlog,并**把 binlog 写入磁盘**,完成提交
+两阶段:
+* Prepare 阶段:存储引擎将该事务的 **redo 日志刷盘**,并且将本事务的状态设置为 PREPARE,代表执行完成随时可以提交事务
+* Commit 阶段:先将事务执行过程中产生的 binlog 刷新到硬盘,再执行存储引擎的提交工作,引擎把 redo log 改成提交状态
+
+存储引擎层的 redo log 和 server 层的 binlog 可以认为是一个分布式事务, 都可以用于表示事务的提交状态,而**两阶段提交就是让这两个状态保持逻辑上的一致**,也有利于主从复制,更好的保持主从数据的一致性
@@ -6564,118 +6922,111 @@ InnoDB 存储引擎实现了行级锁定,虽然在锁定机制的实现方面
-#### 锁状态
+##### 数据恢复
-```mysql
-SHOW STATUS LIKE 'innodb_row_lock%';
-```
-
-
-
-参数说明:
-
-* Innodb_row_lock_current_waits:当前正在等待锁定的数量
+系统崩溃前没有提交的事务的 redo log 可能已经刷盘(定时线程或者 checkpoint),怎么处理崩溃恢复?
-* Innodb_row_lock_time:从系统启动到现在锁定总时间长度
+工作流程:获取 undo 链表首节点页面的 undo segement header 中的 TRX_UNDO_STATE 属性,表示当前链表的事务属性,**事务状态是活跃(未提交)的就全部回滚**,如果是 PREPARE 状态,就需要根据 binlog 的状态进行判断:
-* Innodb_row_lock_time_avg:每次等待所花平均时长
+* 如果在时刻 A 发生了崩溃(crash),由于此时 binlog 还没完成,所以需要进行回滚
+* 如果在时刻 B 发生了崩溃,redo log 和 binlog 有一个共**同的数据字段叫 XID**,崩溃恢复的时候,会按顺序扫描 redo log:
+ * 如果 redo log 里面的事务是完整的,也就是已经有了 commit 标识,说明 binlog 也已经记录完整,直接从 redo log 恢复数据
+ * 如果 redo log 里面的事务只有 prepare,就根据 XID 去 binlog 中判断对应的事务是否存在并完整,如果完整可以恢复数据
-* Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花的时间
-* Innodb_row_lock_waits:系统启动后到现在总共等待的次数
+判断一个事务的 binlog 是否完整的方法:
-当等待的次数很高,而且每次等待的时长也不短的时候,就需要分析系统中为什么会有如此多的等待,然后根据分析结果制定优化计划
+* statement 格式的 binlog,最后会有 COMMIT
+* row 格式的 binlog,最后会有一个 XID event
+* MySQL 5.6.2 版本以后,引入了 binlog-checksum 参数用来验证 binlog 内容的正确性(可能日志中间出错)
-查看锁状态:
-```mysql
-SELECT * FROM information_schema.innodb_locks; #锁的概况
-SHOW ENGINE INNODB STATUS; #InnoDB整体状态,其中包括锁的情况
-```
-
+参考文章:https://time.geekbang.org/column/article/73161
-lock_id 是锁 id;lock_trx_id 为事务 id;lock_mode 为 X 代表排它锁(写锁);lock_type 为 RECORD 代表锁为行锁(记录锁)
+***
-***
+#### 刷脏优化
+系统在进行刷脏时会占用一部分系统资源,会影响系统的性能,**产生系统抖动**
+* 一个查询要淘汰的脏页个数太多,会导致查询的响应时间明显变长
+* 日志写满,更新全部堵住,写性能跌为 0,这种情况对敏感业务来说,是不能接受的
-### 乐观锁
+InnoDB 刷脏页的控制策略:
-悲观锁和乐观锁使用前提:
+* `innodb_io_capacity` 参数代表磁盘的读写能力,建议设置成磁盘的 IOPS(每秒的 IO 次数)
+* 刷脏速度参考两个因素:脏页比例和 redo log 写盘速度
+ * 参数 `innodb_max_dirty_pages_pct` 是脏页比例上限,默认值是 75%,InnoDB 会根据当前的脏页比例,算出一个范围在 0 到 100 之间的数字
+ * InnoDB 每次写入的日志都有一个序号,当前写入的序号跟 checkpoint 对应的序号之间的差值,InnoDB 根据差值算出一个范围在 0 到 100 之间的数字
+ * 两者较大的值记为 R,执行引擎按照 innodb_io_capacity 定义的能力乘以 R% 来控制刷脏页的速度
+* `innodb_flush_neighbors` 参数置为 1 代表控制刷脏时检查相邻的数据页,如果也是脏页就一起刷脏,并检查邻居的邻居,这个行为会一直蔓延直到不是脏页,在 MySQL 8.0 中该值的默认值是 0,不建议开启此功能
-- 对于读的操作远多于写的操作的时候,一个更新操作加锁会阻塞所有的读取操作,降低了吞吐量,最后需要释放锁,锁是需要一些开销的,这时候可以选择乐观锁
-- 如果是读写比例差距不是非常大或者系统没有响应不及时,吞吐量瓶颈的问题,那就不要去使用乐观锁,它增加了复杂度,也带来了业务额外的风险,这时候可以选择悲观锁
-乐观锁的现方式:
-* 版本号
- 1. 给数据表中添加一个 version 列,每次更新后都将这个列的值加 1
- 2. 读取数据时,将版本号读取出来,在执行更新的时候,比较版本号
+****
- 3. 如果相同则执行更新,如果不相同,说明此条数据已经发生了变化
- 4. 用户自行根据这个通知来决定怎么处理,比如重新开始一遍,或者放弃本次更新
- ```mysql
- -- 创建city表
- CREATE TABLE city(
- id INT PRIMARY KEY AUTO_INCREMENT, -- 城市id
- NAME VARCHAR(20), -- 城市名称
- VERSION INT -- 版本号
- );
-
- -- 添加数据
- INSERT INTO city VALUES (NULL,'北京',1),(NULL,'上海',1),(NULL,'广州',1),(NULL,'深圳',1);
-
- -- 修改北京为北京市
- -- 1.查询北京的version
- SELECT VERSION FROM city WHERE NAME='北京';
- -- 2.修改北京为北京市,版本号+1。并对比版本号
- UPDATE city SET NAME='北京市',VERSION=VERSION+1 WHERE NAME='北京' AND VERSION=1;
- ```
+### 一致特性
-* 时间戳
+一致性是指事务执行前后,数据库的完整性约束没有被破坏,事务执行的前后都是合法的数据状态。
- - 和版本号方式基本一样,给数据表中添加一个列,名称无所谓,数据类型需要是 **timestamp**
- - 每次更新后都将最新时间插入到此列
- - 读取数据时,将时间读取出来,在执行更新的时候,比较时间
- - 如果相同则执行更新,如果不相同,说明此条数据已经发生了变化
+数据库的完整性约束包括但不限于:实体完整性(如行的主键存在且唯一)、列完整性(如字段的类型、大小、长度要符合要求)、外键约束、用户自定义完整性(如转账前后,两个账户余额的和应该不变)
+实现一致性的措施:
+- 保证原子性、持久性和隔离性,如果这些特性无法保证,事务的一致性也无法保证
+- 数据库本身提供保障,例如不允许向整形列插入字符串值、字符串长度不能超过列的限制等
+- 应用层面进行保障,例如如果转账操作只扣除转账者的余额,而没有增加接收者的余额,无论数据库实现的多么完美,也无法保证状态的一致
-***
+****
-## 主从
+## 锁机制
### 基本介绍
-复制是指将主数据库的 DDL 和 DML 操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库和主库的数据保持同步
+锁机制:数据库为了保证数据的一致性,在共享的资源被并发访问时变得安全有序所设计的一种规则
-MySQL 支持一台主库同时向多台从库进行复制,从库同时也可以作为其他从服务器的主库,实现链状复制
+利用 MVCC 性质进行读取的操作叫**一致性读**,读取数据前加锁的操作叫**锁定读**
-MySQL 复制的优点主要包含以下三个方面:
+锁的分类:
-- 主库出现问题,可以快速切换到从库提供服务
+- 按操作分类:
+ - 共享锁:也叫读锁。对同一份数据,多个事务读操作可以同时加锁而不互相影响 ,但不能修改数据
+ - 排他锁:也叫写锁。当前的操作没有完成前,会阻断其他操作的读取和写入
+- 按粒度分类:
+ - 表级锁:会锁定整个表,开销小,加锁快;不会出现死锁;锁定力度大,发生锁冲突概率高,并发度最低,偏向 MyISAM
+ - 行级锁:会锁定当前操作行,开销大,加锁慢;会出现死锁;锁定力度小,发生锁冲突概率低,并发度高,偏向 InnoDB
+ - 页级锁:锁的力度、发生冲突的概率和加锁开销介于表锁和行锁之间,会出现死锁,并发性能一般
+- 按使用方式分类:
+ - 悲观锁:每次查询数据时都认为别人会修改,很悲观,所以查询时加锁
+ - 乐观锁:每次查询数据时都认为别人不会修改,很乐观,但是更新时会判断一下在此期间别人有没有去更新这个数据
-- 可以在从库上执行查询操作,从主库中更新,实现读写分离
+* 不同存储引擎支持的锁
+
+ | 存储引擎 | 表级锁 | 行级锁 | 页级锁 |
+ | -------- | -------- | -------- | ------ |
+ | MyISAM | 支持 | 不支持 | 不支持 |
+ | InnoDB | **支持** | **支持** | 不支持 |
+ | MEMORY | 支持 | 不支持 | 不支持 |
+ | BDB | 支持 | 不支持 | 支持 |
-- 可以在从库中执行备份,以避免备份期间影响主库的服务
+从锁的角度来说:表级锁更适合于以查询为主,只有少量按索引条件更新数据的应用,如 Web 应用;而行级锁则更适合于有大量按索引条件并发更新少量不同数据,同时又有并查询的应用,如一些在线事务处理系统
@@ -6683,530 +7034,547 @@ MySQL 复制的优点主要包含以下三个方面:
-### 复制原理
+### 内存结构
-#### 主从结构
+对一条记录加锁的本质就是**在内存中**创建一个锁结构与之关联,结构包括
-MySQL 的主从之间维持了一个长连接。主库内部有一个线程,专门用于服务从库的长连接,连接过程:
+* 事务信息:锁对应的事务信息,一个锁属于一个事务
+* 索引信息:对于行级锁,需要记录加锁的记录属于哪个索引
+* 表锁和行锁信息:表锁记录着锁定的表,行锁记录了 Space ID 所在表空间、Page Number 所在的页号、n_bits 使用了多少比特
+* type_mode:一个 32 比特的数,被分成 lock_mode、lock_type、rec_lock_type 三个部分
+ * lock_mode:锁模式,记录是共享锁、排他锁、意向锁之类
+ * lock_type:代表表级锁还是行级锁
+ * rec_lock_type:代表行锁的具体类型和 is_waiting 属性,is_waiting = true 时表示当前事务尚未获取到锁,处于等待状态。事务获取锁后的锁结构是 is_waiting 为 false,释放锁时会检查是否与当前记录关联的锁结构,如果有就唤醒对应事务的线程
-* 从库执行 change master 命令,设置主库的 IP、端口、用户名、密码以及要从哪个位置开始请求 binlog,这个位置包含文件名和日志偏移量
-* 从库执行 start slave 命令,这时从库会启动两个线程,就是图中的 io_thread 和 sql_thread,其中 io_thread 负责与主库建立连接
-* 主库校验完用户名、密码后,开始按照从传过来的位置,从本地读取 binlog 发给从库,开始主从复制
+一个事务可能操作多条记录,为了节省内存,满足下面条件的锁使用同一个锁结构:
-主从复制原理图:
+* 在同一个事务中的加锁操作
+* 被加锁的记录在同一个页面中
+* 加锁的类型是一样的
+* 加锁的状态是一样的
-
-主从复制主要依赖的是 binlog,MySQL 默认是异步复制,需要三个线程:
-- binlog dump thread:在主库事务提交时,负责把数据变更记录在二进制日志文件 binlog 中,并通知 slave 有数据更新
-- I/O thread:负责从主服务器上拉取二进制日志,并将 binlog 日志内容依次写到 relay log 中转日志的最末端,并将新的 binlog 文件名和 offset 记录到 master-info 文件中,以便下一次读取日志时从指定 binlog 日志文件及位置开始读取新的 binlog 日志内容
-- SQL thread:监测本地 relay log 中新增了日志内容,读取中继日志并重做其中的 SQL 语句,从库在 relay-log.info 中记录当前应用中继日志的文件名和位置点以便下一次执行
-同步与异步:
-* 异步复制有数据丢失风险,例如数据还未同步到从库,主库就给客户端响应,然后主库挂了,此时从库晋升为主库的话数据是缺失的
-* 同步复制,主库需要将 binlog 复制到所有从库,等所有从库响应了之后主库才进行其他逻辑,这样的话性能很差,一般不会选择
-* MySQL 5.7 之出现了半同步复制,有参数可以选择成功同步几个从库就返回响应
+****
-****
+### Server
+MySQL 里面表级别的锁有两种:一种是表锁,一种是元数据锁(meta data lock,MDL)
+MDL 叫元数据锁,主要用来保护 MySQL 内部对象的元数据,保证数据读写的正确性,**当对一个表做增删改查的时候,加 MDL 读锁;当要对表做结构变更操作 DDL 的时候,加 MDL 写锁**,两种锁不相互兼容,所以可以保证 DDL、DML、DQL 操作的安全
-#### 主主结构
+说明:DDL 操作执行前会隐式提交当前会话的事务,因为 DDL 一般会在若干个特殊事务中完成,开启特殊事务前需要提交到其他事务
-主主结构就是两个数据库之间总是互为主从关系,这样在切换的时候就不用再修改主从关系
+MDL 锁的特性:
-循环复制:在库 A 上更新了一条语句,然后把生成的 binlog 发给库 B,库 B 执行完这条更新语句后也会生成 binlog,会再发给 A
+* MDL 锁不需要显式使用,在访问一个表的时候会被自动加上,在事务开始时申请,整个事务提交后释放(执行完单条语句不释放)
-解决方法:
+* MDL 锁是在 Server 中实现,不是 InnoDB 存储引擎层能直接实现的锁
-* 两个库的 server id 必须不同,如果相同则它们之间不能设定为主主关系
-* 一个库接到 binlog 并在重放的过程中,生成与原 binlog 的 server id 相同的新的 binlog
-* 每个库在收到从主库发过来的日志后,先判断 server id,如果跟自己的相同,表示这个日志是自己生成的,就直接丢弃这个日志
+* MDL 锁还能实现其他粒度级别的锁,比如全局锁、库级别的锁、表空间级别的锁
+FLUSH TABLES WITH READ LOCK 简称(FTWRL),全局读锁,让整个库处于只读状态,DDL DML 都被阻塞,工作流程:
+1. 上全局读锁(lock_global_read_lock)
+2. 清理表缓存(close_cached_tables)
+3. 上全局 COMMIT 锁(make_global_read_lock_block_commit)
-***
+该命令主要用于备份工具做**一致性备份**,由于 FTWRL 需要持有两把全局的 MDL 锁,并且还要关闭所有表对象,因此杀伤性很大
-### 主从延迟
+***
-#### 延迟原因
-正常情况主库执行更新生成的所有 binlog,都可以传到从库并被正确地执行,从库就能达到跟主库一致的状态,这就是最终一致性
-主从延迟是主从之间是存在一定时间的数据不一致,就是同一个事务在从库执行完成的时间和主库执行完成的时间的差值,即 T2-T1
+### MyISAM
-- 主库 A 执行完成一个事务,写入 binlog,该时刻记为 T1
-- 日志传给从库 B,从库 B 执行完这个事务,该时刻记为 T2
+#### 表级锁
-通过在从库执行 `show slave status` 命令,返回结果会显示 seconds_behind_master 表示当前从库延迟了多少秒
+MyISAM 存储引擎只支持表锁,这也是 MySQL 开始几个版本中唯一支持的锁类型
-- 每一个事务的 binlog 都有一个时间字段,用于记录主库上**写入**的时间
-- 从库取出当前正在**执行**的事务的时间字段,跟系统的时间进行相减,得到的就是 seconds_behind_master
+MyISAM 引擎在执行查询语句之前,会**自动**给涉及到的所有表加读锁,在执行增删改之前,会**自动**给涉及的表加写锁,这个过程并不需要用户干预,所以用户一般不需要直接用 LOCK TABLE 命令给 MyISAM 表显式加锁
-主从延迟的原因:
+* 加锁命令:(对 InnoDB 存储引擎也适用)
-* 从库的查询压力大
-* 大事务的执行,主库必须要等到事务完成之后才会写入 binlog,导致从节点出现应用 binlog 延迟
-* 主库的 DDL,从库与主库的 DDL 同步是串行进行,DDL 在主库执行时间很长,那么从库也会消耗同样的时间
-* 锁冲突问题也可能导致从节点的 SQL 线程执行慢
-* 从库的机器性能比主库的差,导致从库的复制能力弱
+ 读锁:所有连接只能读取数据,不能修改
-主从同步问题永远都是**一致性和性能的权衡**,需要根据实际的应用场景,可以采取下面的办法:
+ 写锁:其他连接不能查询和修改数据
-* 优化 SQL,避免慢 SQL,减少批量操作
-* 降低多线程大事务并发的概率,优化业务逻辑
-* 业务中大多数情况查询操作要比更新操作更多,搭建一主多从结构,让这些从库来分担读的压力
+ ```mysql
+ -- 读锁
+ LOCK TABLE table_name READ;
+
+ -- 写锁
+ LOCK TABLE table_name WRITE;
+ ```
-* 尽量采用短的链路,主库和从库服务器的距离尽量要短,提升端口带宽,减少 binlog 传输的网络延时
-* 实时性要求高的业务读强制走主库,从库只做备份
+* 解锁命令:
+ ```mysql
+ -- 将当前会话所有的表进行解锁
+ UNLOCK TABLES;
+ ```
+锁的兼容性:
-***
+* 对 MyISAM 表的读操作,不会阻塞其他用户对同一表的读请求,但会阻塞对同一表的写请求
+* 对 MyISAM 表的写操作,则会阻塞其他用户对同一表的读和写操作
+
+锁调度:**MyISAM 的读写锁调度是写优先**,因为写锁后其他线程不能做任何操作,大量的更新会使查询很难得到锁,从而造成永远阻塞,所以 MyISAM 不适合做写为主的表的存储引擎
-#### 并行复制
-##### MySQL5.6
-高并发情况下,主库的会产生大量的 binlog,在从库中有两个线程 IO Thread 和 SQL Thread 单线程执行,会导致主库延迟变大。为了改善复制延迟问题,MySQL 5.6 版本增加了并行复制功能,以采用多线程机制来促进执行
+***
-coordinator 就是原来的 sql_thread,并行复制中它不再直接更新数据,只**负责读取中转日志和分发事务**:
-* 线程分配完成并不是立即执行,为了防止造成更新覆盖,更新同一 DB 的两个事务必须被分发到同一个工作线程
-* 同一个事务不能被拆开,必须放到同一个工作线程
-MySQL 5.6 版本的策略:每个线程对应一个 hash 表,用于保存当前这个线程的执行队列里的事务所涉及的表,hash 表的 key 是数据库 名,value 是一个数字,表示队列中有多少个事务修改这个库,适用于主库上有多个 DB 的情况
+#### 锁操作
-每个事务在分发的时候,跟线程的冲突(事务操作的是同一个 DB)关系包括以下三种情况:
+##### 读锁
-* 如果跟所有线程都不冲突,coordinator 线程就会把这个事务分配给最空闲的线程
-* 如果只跟一个线程冲突,coordinator 线程就会把这个事务分配给这个存在冲突关系的线程
-* 如果跟多于一个线程冲突,coordinator 线程就进入等待状态,直到和这个事务存在冲突关系的线程只剩下 1 个
+两个客户端操作 Client 1和 Client 2,简化为 C1、C2
-优缺点:
+* 数据准备:
-* 构造 hash 值的时候很快,只需要库名,而且一个实例上 DB 数也不会很多,不会出现需要构造很多个项的情况
-* 不要求 binlog 的格式,statement 格式的 binlog 也可以很容易拿到库名(日志章节详解了 binlog)
-* 主库上的表都放在同一个 DB 里面,这个策略就没有效果了;或者不同 DB 的热点不同,比如一个是业务逻辑库,一个是系统配置库,那也起不到并行的效果,需要**把相同热度的表均匀分到这些不同的 DB 中**,才可以使用这个策略
+ ```mysql
+ CREATE TABLE `tb_book` (
+ `id` INT(11) AUTO_INCREMENT,
+ `name` VARCHAR(50) DEFAULT NULL,
+ `publish_time` DATE DEFAULT NULL,
+ `status` CHAR(1) DEFAULT NULL,
+ PRIMARY KEY (`id`)
+ ) ENGINE=MYISAM DEFAULT CHARSET=utf8 ;
+
+ INSERT INTO tb_book (id, NAME, publish_time, STATUS) VALUES(NULL,'java编程思想','2088-08-01','1');
+ INSERT INTO tb_book (id, NAME, publish_time, STATUS) VALUES(NULL,'mysql编程思想','2088-08-08','0');
+ ```
+* C1、C2 加读锁,同时查询可以正常查询出数据
+ ```mysql
+ LOCK TABLE tb_book READ; -- C1、C2
+ SELECT * FROM tb_book; -- C1、C2
+ ```
-***
+ 
+* C1 加读锁,C1、C2 查询未锁定的表,C1 报错,C2 正常查询
+ ```mysql
+ LOCK TABLE tb_book READ; -- C1
+ SELECT * FROM tb_user; -- C1、C2
+ ```
-##### MySQL5.7
+ 
-MySQL 5.7 并行复制策略的思想是:
+ C1、C2 执行插入操作,C1 报错,C2 等待获取
-* 所有处于 commit 状态的事务可以并行执行
-* 同时处于 prepare 状态的事务,在从库执行时是可以并行的
-* 处于 prepare 状态的事务,与处于 commit 状态的事务之间,在从库执行时也是可以并行的
+ ```mysql
+ INSERT INTO tb_book VALUES(NULL,'Spring高级','2088-01-01','1'); -- C1、C2
+ ```
-MySQL 5.7 由参数 slave-parallel-type 来控制并行复制策略:
+ 
-* 配置为 DATABASE,表示使用 MySQL 5.6 版本的**按库(DB)并行策略**
-* 配置为 LOGICAL_CLOCK,表示的**按提交状态并行**执行
+ 当在 C1 中释放锁指令 UNLOCK TABLES,C2 中的 INSERT 语句立即执行
-MySQL 5.7.22 版本里,MySQL 增加了一个新的并行复制策略,基于 WRITESET 的并行复制。新增了一个参数 binlog-transaction-dependency-tracking,用来控制是否启用这个新策略:
-* COMMIT_ORDER:表示根据同时进入 prepare 和 commit 来判断是否可以并行的策略
-* WRITESET:表示的是对于每个事务涉及更新的每一行,计算出这一行的 hash 值,组成该事务的 writeset 集合,如果两个事务没有操作相同的行,也就是说它们的 writeset 没有交集,就可以并行(**按行并行**)
+***
-* WRITESET_SESSION:是在 WRITESET 的基础上多了一个约束,即在主库上同一个线程先后执行的两个事务,在备库执行的时候,要保证相同的先后顺序
- 为了唯一标识,这个 hash 表的值是通过 `库名 + 表名 + 索引名 + 值`(表示的是某一行)计算出来的
-MySQL 5.7.22 按行并发的优势:
+##### 写锁
-* writeset 是在主库生成后直接写入到 binlog 里面的,这样在备库执行的时候,不需要解析 binlog 内容,节省了计算量
-* 不需要把整个事务的 binlog 都扫一遍才能决定分发到哪个线程,更省内存
-* 从库的分发策略不依赖于 binlog 内容,所以 binlog 是 statement 格式也可以,更节约内存(因为 row 才记录更改的行)
+两个客户端操作 Client 1和 Client 2,简化为 C1、C2
-MySQL 5.7.22 的并行复制策略在通用性上是有保证的,但是对于表上没主键、唯一和外键约束的场景,WRITESET 策略也是没法并行的,也会暂时退化为单线程模型
+* C1 加写锁,C1、C2查询表,C1 正常查询,C2 需要等待
+ ```mysql
+ LOCK TABLE tb_book WRITE; -- C1
+ SELECT * FROM tb_book; -- C1、C2
+ ```
+ 
-参考文章:https://time.geekbang.org/column/article/77083
+ 当在 C1 中释放锁指令 UNLOCK TABLES,C2 中的 SELECT 语句立即执行
+* C1、C2 同时加写锁
+ ```mysql
+ LOCK TABLE tb_book WRITE;
+ ```
-***
+ 
+* C1 加写锁,C1、C2查询未锁定的表,C1 报错,C2 正常查询
-#### 读写分离
-读写分离:可以降低主库的访问压力,提高系统的并发能力
+***
-* 主库不建查询的索引,从库建查询的索引。因为索引需要维护的,比如插入一条数据,不仅要在聚簇索引上面插入,对应的二级索引也得插入
-* 将读操作分到从库了之后,可以在主库把查询要用的索引删了,减少写操作对主库的影响
-读写分离产生了读写延迟,造成数据的不一致性。假如客户端执行完一个更新事务后马上发起查询,如果查询选择的是从库的话,可能读到的还是以前的数据,叫过期读
-解决方案:
+#### 锁状态
-* 强制将写之后**立刻读的操作转移到主库**,比如刚注册的用户,直接登录从库查询可能查询不到,先走主库登录
+* 查看锁竞争:
-* **二次查询**,如果从库查不到数据,则再去主库查一遍,由 API 封装,比较简单,但导致主库压力大
+ ```mysql
+ SHOW OPEN TABLES;
+ ```
-* 更新主库后,读从库之前先 sleep 一下,类似于执行一条 `select sleep(1)` 命令
-* 确保主备无延迟的方法,每次从库执行查询请求前,先判断 seconds_behind_master 是否已经等于 0,如果不等于那就等到这个参数变为 0 才能执行查询请求
+ 
+ In_user:表当前被查询使用的次数,如果该数为零,则表是打开的,但是当前没有被使用
+ Name_locked:表名称是否被锁定,名称锁定用于取消表或对表进行重命名等操作
+ ```mysql
+ LOCK TABLE tb_book READ; -- 执行命令
+ ```
+ 
-***
+* 查看锁状态:
+ ```mysql
+ SHOW STATUS LIKE 'Table_locks%';
+ ```
+ 
-### 负载均衡
+ Table_locks_immediate:指的是能立即获得表级锁的次数,每立即获取锁,值加 1
-负载均衡是应用中使用非常普遍的一种优化方法,机制就是利用某种均衡算法,将固定的负载量分布到不同的服务器上,以此来降低单台服务器的负载,达到优化的效果
+ Table_locks_waited:指的是不能立即获取表级锁而需要等待的次数,每等待一次,该值加 1,此值高说明存在着较为严重的表级锁争用情况
-* 分流查询:通过 MySQL 的主从复制,实现读写分离,使增删改操作走主节点,查询操作走从节点,从而可以降低单台服务器的读写压力
- 
-* 分布式数据库架构:适合大数据量、负载高的情况,具有良好的拓展性和高可用性。通过在多台服务器之间分布数据,可以实现在多台服务器之间的负载均衡,提高访问效率
+***
-****
+### InnoDB
+#### 行级锁
+##### 记录锁
-### 主从搭建
+InnoDB 与 MyISAM 的最大不同有两点:一是支持事务;二是采用了行级锁,**InnoDB 同时支持表锁和行锁**
-#### 搭建流程
+行级锁,也称为记录锁(Record Lock),InnoDB 实现了以下两种类型的行锁:
-##### master
+- 共享锁 (S):又称为读锁,简称 S 锁,多个事务对于同一数据可以共享一把锁,都能访问到数据,但是只能读不能修改
+- 排他锁 (X):又称为写锁,简称 X 锁,不能与其他锁并存,获取排他锁的事务是可以对数据读取和修改
-1. 在master 的配置文件(/etc/mysql/my.cnf)中,配置如下内容:
+RR 隔离界别下,对于 UPDATE、DELETE 和 INSERT 语句,InnoDB 会**自动给涉及数据集加排他锁**(行锁),在 commit 时自动释放;对于普通 SELECT 语句,不会加任何锁(只是针对 InnoDB 层来说的,因为在 Server 层会**加 MDL 读锁**),通过 MVCC 防止并发冲突
- ```sh
- #mysql 服务ID,保证整个集群环境中唯一
- server-id=1
-
- #mysql binlog 日志的存储路径和文件名
- log-bin=/var/lib/mysql/mysqlbin
-
- #错误日志,默认已经开启
- #log-err
-
- #mysql的安装目录
- #basedir
-
- #mysql的临时目录
- #tmpdir
-
- #mysql的数据存放目录
- #datadir
-
- #是否只读,1 代表只读, 0 代表读写
- read-only=0
-
- #忽略的数据, 指不需要同步的数据库
- binlog-ignore-db=mysql
-
- #指定同步的数据库
- #binlog-do-db=db01
- ```
+在事务中加的锁,并不是不需要了就释放,而是在事务中止或提交时自动释放,这个就是**两阶段锁协议**。所以一般将更新共享资源(并发高)的 SQL 放到事务的最后执行,可以让其他线程尽量的减少等待时间
-2. 执行完毕之后,需要重启 MySQL
+锁的兼容性:
-3. 创建同步数据的账户,并且进行授权操作:
+- 共享锁和共享锁 兼容
+- 共享锁和排他锁 冲突
+- 排他锁和排他锁 冲突
+- 排他锁和共享锁 冲突
- ```mysql
- GRANT REPLICATION SLAVE ON *.* TO 'seazean'@'192.168.0.137' IDENTIFIED BY '123456';
- FLUSH PRIVILEGES;
- ```
+显式给数据集加共享锁或排他锁:**加锁读就是当前读,读取的是最新数据**
-4. 查看 master 状态:
+```mysql
+SELECT * FROM table_name WHERE ... LOCK IN SHARE MODE -- 共享锁
+SELECT * FROM table_name WHERE ... FOR UPDATE -- 排他锁
+```
- ```mysql
- SHOW MASTER STATUS;
- ```
+注意:**锁默认会锁聚簇索引(锁就是加在索引上)**,但是当使用覆盖索引时,加共享锁只锁二级索引,不锁聚簇索引
- 
- * File:从哪个日志文件开始推送日志文件
- * Position:从哪个位置开始推送日志
- * Binlog_Ignore_DB:指定不需要同步的数据库
+***
-***
+##### 锁操作
+两个客户端操作 Client 1和 Client 2,简化为 C1、C2
-##### slave
+* 环境准备
-1. 在 slave 端配置文件中,配置如下内容:
+ ```mysql
+ CREATE TABLE test_innodb_lock(
+ id INT(11),
+ name VARCHAR(16),
+ sex VARCHAR(1)
+ )ENGINE = INNODB DEFAULT CHARSET=utf8;
+
+ INSERT INTO test_innodb_lock VALUES(1,'100','1');
+ -- ..........
+
+ CREATE INDEX idx_test_innodb_lock_id ON test_innodb_lock(id);
+ CREATE INDEX idx_test_innodb_lock_name ON test_innodb_lock(name);
+ ```
- ```sh
- #mysql服务端ID,唯一
- server-id=2
-
- #指定binlog日志
- log-bin=/var/lib/mysql/mysqlbin
- ```
+* 关闭自动提交功能:
-2. 执行完毕之后,需要重启 MySQL
+ ```mysql
+ SET AUTOCOMMIT=0; -- C1、C2
+ ```
-3. 指定当前从库对应的主库的IP地址、用户名、密码,从哪个日志文件开始的那个位置开始同步推送日志
+ 正常查询数据:
- ```mysql
- CHANGE MASTER TO MASTER_HOST= '192.168.0.138', MASTER_USER='seazean', MASTER_PASSWORD='seazean', MASTER_LOG_FILE='mysqlbin.000001', MASTER_LOG_POS=413;
- ```
+ ```mysql
+ SELECT * FROM test_innodb_lock; -- C1、C2
+ ```
-4. 开启同步操作:
+* 查询 id 为 3 的数据,正常查询:
- ```mysql
- START SLAVE;
- SHOW SLAVE STATUS;
- ```
+ ```mysql
+ SELECT * FROM test_innodb_lock WHERE id=3; -- C1、C2
+ ```
-5. 停止同步操作:
+ 
- ```mysql
- STOP SLAVE;
- ```
+* C1 更新 id 为 3 的数据,但不提交:
+ ```mysql
+ UPDATE test_innodb_lock SET name='300' WHERE id=3; -- C1
+ ```
+ 
-***
+ C2 查询不到 C1 修改的数据,因为隔离界别为 REPEATABLE READ,C1 提交事务,C2 查询:
+ ```mysql
+ COMMIT; -- C1
+ ```
+ 
-##### 验证
+ 提交后仍然查询不到 C1 修改的数据,因为隔离级别可以防止脏读、不可重复读,所以 C2 需要提交才可以查询到其他事务对数据的修改:
-1. 在主库中创建数据库,创建表并插入数据:
+ ```mysql
+ COMMIT; -- C2
+ SELECT * FROM test_innodb_lock WHERE id=3; -- C2
+ ```
- ```mysql
- CREATE DATABASE db01;
- USE db01;
- CREATE TABLE user(
- id INT(11) NOT NULL AUTO_INCREMENT,
- name VARCHAR(50) NOT NULL,
- sex VARCHAR(1),
- PRIMARY KEY (id)
- )ENGINE=INNODB DEFAULT CHARSET=utf8;
-
- INSERT INTO user(id,NAME,sex) VALUES(NULL,'Tom','1');
- INSERT INTO user(id,NAME,sex) VALUES(NULL,'Trigger','0');
- INSERT INTO user(id,NAME,sex) VALUES(NULL,'Dawn','1');
- ```
+ 
-2. 在从库中查询数据,进行验证:
+* C1 更新 id 为 3 的数据,但不提交,C2 也更新 id 为 3 的数据:
- 在从库中,可以查看到刚才创建的数据库:
+ ```mysql
+ UPDATE test_innodb_lock SET name='3' WHERE id=3; -- C1
+ UPDATE test_innodb_lock SET name='30' WHERE id=3; -- C2
+ ```
- 
+ 
- 在该数据库中,查询表中的数据:
+ 当 C1 提交,C2 直接解除阻塞,直接更新
- 
+* 操作不同行的数据:
+ ```mysql
+ UPDATE test_innodb_lock SET name='10' WHERE id=1; -- C1
+ UPDATE test_innodb_lock SET name='30' WHERE id=3; -- C2
+ ```
+ 
-***
+ 由于 C1、C2 操作的不同行,获取不同的行锁,所以都可以正常获取行锁
-#### 主从切换
-正常切换步骤:
-* 在开始切换之前先对主库进行锁表 `flush tables with read lock`,然后等待所有语句执行完成,切换完成后可以释放锁
+****
-* 检查 slave 同步状态,在 slave 执行 `show processlist`
-* 停止 slave io 线程,执行命令 `STOP SLAVE IO_THREAD`
-* 提升 slave 为 master
+#### 锁分类
- ```sql
- Stop slave;
- Reset master;
- Reset slave all;
- set global read_only=off; -- 设置为可更新状态
- ```
+##### 间隙锁
-* 将原来 master 变为 slave(参考搭建流程中的 slave 方法)
+InnoDB 会对间隙(GAP)进行加锁,就是间隙锁 (RR 隔离级别下才有该锁)。间隙锁之间不存在冲突关系,**多个事务可以同时对一个间隙加锁**,但是间隙锁会阻止往这个间隙中插入一个记录的操作
-主库发生故障,从库会进行上位,其他从库指向新的主库
+InnoDB 加锁的基本单位是 next-key lock,该锁是行锁和 gap lock 的组合(X or S 锁),但是加锁过程是分为间隙锁和行锁两段执行
+* 可以**保护当前记录和前面的间隙**,遵循左开右闭原则,单纯的间隙锁是左开右开
+* 假设有 10、11、13,那么可能的间隙锁包括:(负无穷,10]、(10,11]、(11,13]、(13,正无穷)
+几种索引的加锁情况:
+* 唯一索引加锁在值存在时是行锁,next-key lock 会退化为行锁,值不存在会变成间隙锁
+* 普通索引加锁会继续向右遍历到不满足条件的值为止,next-key lock 退化为间隙锁
+* 范围查询无论是否是唯一索引,都需要访问到不满足条件的第一个值为止
+* 对于联合索引且是唯一索引,如果 where 条件只包括联合索引的一部分,那么会加间隙锁
+间隙锁优点:RR 级别下间隙锁可以**解决事务的一部分的幻读问题**,通过对间隙加锁,可以防止读取过程中数据条目发生变化。一部分的意思是不会对全部间隙加锁,只能加锁一部分的间隙
+间隙锁危害:
+* 当锁定一个范围的键值后,即使某些不存在的键值也会被无辜的锁定,造成在锁定的时候无法插入锁定键值范围内的任何数据,在某些场景下这可能会对性能造成很大的危害,影响并发度
+* 事务 A B 同时锁住一个间隙后,A 往当前间隙插入数据时会被 B 的间隙锁阻塞,B 也执行插入间隙数据的操作时就会**产生死锁**
-***
+现场演示:
+* 关闭自动提交功能:
+ ```mysql
+ SET AUTOCOMMIT=0; -- C1、C2
+ ```
+* 查询数据表:
+ ```mysql
+ SELECT * FROM test_innodb_lock;
+ ```
-## 日志
+ 
-### 日志分类
+* C1 根据 id 范围更新数据,C2 插入数据:
-在任何一种数据库中,都会有各种各样的日志,记录着数据库工作的过程,可以帮助数据库管理员追踪数据库曾经发生过的各种事件。
+ ```mysql
+ UPDATE test_innodb_lock SET name='8888' WHERE id < 4; -- C1
+ INSERT INTO test_innodb_lock VALUES(2,'200','2'); -- C2
+ ```
-MySQL日志主要包括六种:
+ 
-1. 重做日志(redo log)
-2. 回滚日志(undo log)
-3. 归档日志(binlog)(二进制日志)
-4. 错误日志(errorlog)
-5. 慢查询日志(slow query log)
-6. 一般查询日志(general log)
-7. 中继日志(relay log)
+ 出现间隙锁,C2 被阻塞,等待 C1 提交事务后才能更新
-***
+****
-### 错误日志
+##### 意向锁
-错误日志是 MySQL 中最重要的日志之一,记录了当 mysqld 启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。当数据库出现任何故障导致无法正常使用时,可以首先查看此日志
+InnoDB 为了支持多粒度的加锁,允许行锁和表锁同时存在,支持在不同粒度上的加锁操作,InnoDB 增加了意向锁(Intention Lock)
-该日志是默认开启的,默认位置是:`/var/log/mysql/error.log`
+意向锁是将锁定的对象分为多个层次,意向锁意味着事务希望在更细粒度上进行加锁,意向锁分为两种:
-查看指令:
+* 意向共享锁(IS):事务有意向对表加共享锁
+* 意向排他锁(IX):事务有意向对表加排他锁
-```mysql
-SHOW VARIABLES LIKE 'log_error%';
-```
+**IX,IS 是表级锁**,不会和行级的 X,S 锁发生冲突,意向锁是在加表级锁之前添加,为了在加表级锁时可以快速判断表中是否有记录被上锁,比如向一个表添加表级 X 锁的时:
-查看日志内容:
+- 没有意向锁,则需要遍历整个表判断是否有锁定的记录
+- 有了意向锁,首先判断是否存在意向锁,然后判断该意向锁与即将添加的表级锁是否兼容即可,因为意向锁的存在代表有表级锁的存在或者即将有表级锁的存在
-```sh
-tail -f /var/log/mysql/error.log
-```
+兼容性如下所示:
+
+**插入意向锁** Insert Intention Lock 是在插入一行记录操作之前设置的一种间隙锁,是行级锁
-***
+插入意向锁释放了一种插入信号,即多个事务在相同的索引间隙插入时如果不是插入相同的间隙位置就不需要互相等待。假设某列有索引,只要两个事务插入位置不同,如事务 A 插入 3,事务 B 插入 4,那么就可以同时插入
-### 归档日志
+***
-#### 基本介绍
-归档日志(BINLOG)也叫二进制日志,是因为采用二进制进行存储,记录了所有的 DDL(数据定义语言)语句和 DML(数据操作语言)语句,但**不包括数据查询语句,在事务提交前的最后阶段写入**
-作用:**灾难时的数据恢复和 MySQL 的主从复制**
+##### 自增锁
-归档日志默认情况下是没有开启的,需要在 MySQL 配置文件中开启,并配置 MySQL 日志的格式:
+系统会自动给 AUTO_INCREMENT 修饰的列进行递增赋值,实现方式:
-```sh
-cd /etc/mysql
-vim my.cnf
+* AUTO_INC 锁:表级锁,执行插入语句时会自动添加,在该语句执行完成后释放,并不是事务结束
+* 轻量级锁:为插入语句生成 AUTO_INCREMENT 修饰的列时获取该锁,生成以后释放掉,不需要等到插入语句执行完后释放
-# 配置开启binlog日志, 日志的文件前缀为 mysqlbin -----> 生成的文件名如: mysqlbin.000001
-log_bin=mysqlbin
-# 配置二进制日志的格式
-binlog_format=STATEMENT
-```
+系统变量 `innodb_autoinc_lock_mode` 控制采取哪种方式:
-日志存放位置:配置时给定了文件名但是没有指定路径,日志默认写入MySQL 的数据目录
+* 0:全部采用 AUTO_INC 锁
+* 1:全部采用轻量级锁
+* 2:混合使用,在插入记录的数量确定时采用轻量级锁,不确定时采用 AUTO_INC 锁
-日志格式:
-* STATEMENT:该日志格式在日志文件中记录的都是 SQL 语句,每一条对数据进行修改的 SQL 都会记录在日志文件中,通过 mysqlbinlog 工具,可以查看到每条语句的文本。主从复制时,从库会将日志解析为原语句,并在从库重新执行一遍
- 缺点:可能会导致主备不一致,因为记录的 SQL 在不同的环境中可能选择的索引不同,导致结果不同
-* ROW:该日志格式在日志文件中记录的是每一行的数据变更,而不是记录 SQL 语句。比如执行 SQL 语句 `update tb_book set status='1'`,如果是 STATEMENT,在日志中会记录一行 SQL 语句; 如果是 ROW,由于是对全表进行更新,就是每一行记录都会发生变更,ROW 格式的日志中会记录每一行的数据变更
+****
- 缺点:记录的数据比较多,占用很多的存储空间
-* MIXED:这是 MySQL 默认的日志格式,混合了STATEMENT 和 ROW 两种格式。MIXED 格式能尽量利用两种模式的优点,而避开它们的缺点
+##### 隐式锁
+一般情况下 INSERT 语句是不需要在内存中生成锁结构的,会进行隐式的加锁,保护的是插入后的安全
-***
+注意:如果插入的间隙被其他事务加了间隙锁,此次插入会被阻塞,并在该间隙插入一个插入意向锁
+* 聚簇索引:索引记录有 trx_id 隐藏列,表示最后改动该记录的事务 id,插入数据后事务 id 就是当前事务。其他事务想获取该记录的锁时会判断当前记录的事务 id 是否是活跃的,如果不是就可以正常加锁;如果是就创建一个 X 的锁结构,该锁的 is_waiting 是 false,为自己的事务创建一个锁结构,is_waiting 是 true(类似 Java 中的锁升级)
+* 二级索引:获取数据页 Page Header 中的 PAGE_MAX_TRX_ID 属性,代表修改当前页面的最大的事务 ID,如果小于当前活跃的最小事务 id,就证明插入该数据的事务已经提交,否则就需要获取到主键值进行回表操作
+隐式锁起到了延迟生成锁的效果,如果其他事务与隐式锁没有冲突,就可以避免锁结构的生成,节省了内存资源
-#### 日志读取
+INSERT 在两种情况下会生成锁结构:
-日志文件存储位置:/var/lib/mysql
+* 重复键:在插入主键或唯一二级索引时遇到重复的键值会报错,在报错前需要对对应的聚簇索引进行加锁
+ * 隔离级别 <= Read Uncommitted,加 S 型 Record Lock
+ * 隔离级别 >= Repeatable Read,加 S 型 next_key 锁
-由于日志以二进制方式存储,不能直接读取,需要用 mysqlbinlog 工具来查看,语法如下:
+* 外键检查:如果待插入的记录在父表中可以找到,会对父表的记录加 S 型 Record Lock。如果待插入的记录在父表中找不到
+ * 隔离级别 <= Read Committed,不加锁
+ * 隔离级别 >= Repeatable Read,加间隙锁
-```sh
-mysqlbinlog log-file;
-```
-查看 STATEMENT 格式日志:
-* 执行插入语句:
- ```mysql
- INSERT INTO tb_book VALUES(NULL,'Lucene','2088-05-01','0');
- ```
-* `cd /var/lib/mysql`:
+***
- ```sh
- -rw-r----- 1 mysql mysql 177 5月 23 21:08 mysqlbin.000001
- -rw-r----- 1 mysql mysql 18 5月 23 21:04 mysqlbin.index
- ```
- mysqlbin.index:该文件是日志索引文件 , 记录日志的文件名;
- mysqlbing.000001:日志文件
+#### 锁优化
-* 查看日志内容:
+##### 优化锁
- ```sh
- mysqlbinlog mysqlbing.000001;
- ```
+InnoDB 存储引擎实现了行级锁定,虽然在锁定机制的实现方面带来了性能损耗可能比表锁会更高,但是在整体并发处理能力方面要远远优于 MyISAM 的表锁,当系统并发量较高的时候,InnoDB 的整体性能远远好于 MyISAM
- 
-
- 日志结尾有 COMMIT
+但是使用不当可能会让 InnoDB 的整体性能表现不仅不能比 MyISAM 高,甚至可能会更差
-查看 ROW 格式日志:
+优化建议:
-* 修改配置:
+- 尽可能让所有数据检索都能通过索引来完成,避免无索引行锁升级为表锁
+- 合理设计索引,尽量缩小锁的范围
+- 尽可能减少索引条件及索引范围,避免间隙锁
+- 尽量控制事务大小,减少锁定资源量和时间长度
+- 尽可使用低级别事务隔离(需要业务层面满足需求)
- ```sh
- # 配置二进制日志的格式
- binlog_format=ROW
- ```
-* 插入数据:
+
+****
+
+
+
+##### 锁升级
+
+索引失效造成**行锁升级为表锁**,不通过索引检索数据,全局扫描的过程中 InnoDB 会将对表中的所有记录加锁,实际效果和**表锁**一样,实际开发过程应避免出现索引失效的状况
+
+* 查看当前表的索引:
```mysql
- INSERT INTO tb_book VALUES(NULL,'SpringCloud实战','2088-05-05','0');
+ SHOW INDEX FROM test_innodb_lock;
```
-* 查看日志内容:日志格式 ROW,直接查看数据是乱码,可以在 mysqlbinlog 后面加上参数 -vv
+* 关闭自动提交功能:
```mysql
- mysqlbinlog -vv mysqlbin.000002
+ SET AUTOCOMMIT=0; -- C1、C2
```
- 
+* 执行更新语句:
+
+ ```mysql
+ UPDATE test_innodb_lock SET sex='2' WHERE name=10; -- C1
+ UPDATE test_innodb_lock SET sex='2' WHERE id=3; -- C2
+ ```
+ 
+ 索引失效:执行更新时 name 字段为 varchar 类型,造成索引失效,最终行锁变为表锁
@@ -7214,305 +7582,309 @@ mysqlbinlog log-file;
-#### 日志删除
+##### 死锁
-对于比较繁忙的系统,生成日志量大,这些日志如果长时间不清除,将会占用大量的磁盘空间,需要删除日志
+不同事务由于互相持有对方需要的锁而导致事务都无法继续执行的情况称为死锁
-* Reset Master 指令删除全部 binlog 日志,删除之后,日志编号将从 xxxx.000001重新开始
+死锁情况:线程 A 修改了 id = 1 的数据,请求修改 id = 2 的数据,线程 B 修改了 id = 2 的数据,请求修改 id = 1 的数据,产生死锁
- ```mysql
- Reset Master -- MySQL指令
- ```
+解决策略:
-* 执行指令 `PURGE MASTER LOGS TO 'mysqlbin.***`,该命令将删除 ` ***` 编号之前的所有日志
+* 直接进入等待直到超时,超时时间可以通过参数 innodb_lock_wait_timeout 来设置,默认 50 秒,但是时间的设置不好控制,超时可能不是因为死锁,而是因为事务处理比较慢,所以一般不采取该方式
-* 执行指令 `PURGE MASTER LOGS BEFORE 'yyyy-mm-dd hh:mm:ss'` ,该命令将删除日志为 `yyyy-mm-dd hh:mm:ss` 之前产生的日志
+* 主动死锁检测,发现死锁后**主动回滚死锁链条中较小的一个事务**,让其他事务得以继续执行,将参数 `innodb_deadlock_detect` 设置为 on,表示开启该功能(事务较小的意思就是事务执行过程中插入、删除、更新的记录条数)
-* 设置参数 `--expire_logs_days=#`,此参数的含义是设置日志的过期天数,过了指定的天数后日志将会被自动删除,这样做有利于减少管理日志的工作量,配置 my.cnf 文件:
+ 死锁检测并不是每个语句都要检测,只有在加锁访问的行上已经有锁时,当前事务被阻塞了才会检测,也是从当前事务开始进行检测
- ```sh
- log_bin=mysqlbin
- binlog_format=ROW
- --expire_logs_days=3
- ```
+通过执行 `SHOW ENGINE INNODB STATUS` 可以查看最近发生的一次死循环,全局系统变量 `innodb_print_all_deadlocks` 设置为 on,就可以将每个死锁信息都记录在 MySQL 错误日志中
+死锁一般是行级锁,当表锁发生死锁时,会在事务中访问其他表时**直接报错**,破坏了持有并等待的死锁条件
-***
+***
-### 查询日志
-查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的 SQL 语句
+#### 锁状态
-默认情况下,查询日志是未开启的。如果需要开启查询日志,配置 my.cnf:
+查看锁信息
-```sh
-# 该选项用来开启查询日志,可选值0或者1,0代表关闭,1代表开启
-general_log=1
-# 设置日志的文件名,如果没有指定,默认的文件名为host_name.log,存放在/var/lib/mysql
-general_log_file=mysql_query.log
+```mysql
+SHOW STATUS LIKE 'innodb_row_lock%';
```
-配置完毕之后,在数据库执行以下操作:
+
-```mysql
-SELECT * FROM tb_book;
-SELECT * FROM tb_book WHERE id = 1;
-UPDATE tb_book SET name = 'lucene入门指南' WHERE id = 5;
-SELECT * FROM tb_book WHERE id < 8
-```
+参数说明:
-执行完毕之后, 再次来查询日志文件:
+* Innodb_row_lock_current_waits:当前正在等待锁定的数量
-
+* Innodb_row_lock_time:从系统启动到现在锁定总时间长度
+* Innodb_row_lock_time_avg:每次等待所花平均时长
+* Innodb_row_lock_time_max:从系统启动到现在等待最长的一次所花的时间
-***
+* Innodb_row_lock_waits:系统启动后到现在总共等待的次数
+当等待的次数很高,而且每次等待的时长也不短的时候,就需要分析系统中为什么会有如此多的等待,然后根据分析结果制定优化计划
+查看锁状态:
-### 慢日志
+```mysql
+SELECT * FROM information_schema.innodb_locks; #锁的概况
+SHOW ENGINE INNODB STATUS\G; #InnoDB整体状态,其中包括锁的情况
+```
-慢查询日志记录所有执行时间超过 long_query_time 并且扫描记录数不小于 min_examined_row_limit 的所有的 SQL 语句的日志。long_query_time 默认为 10 秒,最小为 0, 精度到微秒
+
-慢查询日志默认是关闭的,可以通过两个参数来控制慢查询日志,配置文件 `/etc/mysql/my.cnf`:
+lock_id 是锁 id;lock_trx_id 为事务 id;lock_mode 为 X 代表排它锁(写锁);lock_type 为 RECORD 代表锁为行锁(记录锁)
-```sh
-# 该参数用来控制慢查询日志是否开启,可选值0或者1,0代表关闭,1代表开启
-slow_query_log=1
-# 该参数用来指定慢查询日志的文件名,存放在 /var/lib/mysql
-slow_query_log_file=slow_query.log
-# 该选项用来配置查询的时间限制,超过这个时间将认为值慢查询,将需要进行日志记录,默认10s
-long_query_time=10
-```
-日志读取:
-* 直接通过 cat 指令查询该日志文件:
+***
- ```sh
- cat slow_query.log
- ```
- 
-* 如果慢查询日志内容很多,直接查看文件比较繁琐,可以借助 mysql 自带的 mysqldumpslow 工具对慢查询日志进行分类汇总:
+### 乐观锁
- ```sh
- mysqldumpslow slow_query.log
- ```
+悲观锁:在整个数据处理过程中,将数据处于锁定状态,为了保证事务的隔离性,就需要一致性锁定读。读取数据时给加锁,其它事务无法修改这些数据,修改删除数据时也加锁,其它事务同样无法读取这些数据
- 
+悲观锁和乐观锁使用前提:
+- 对于读的操作远多于写的操作的时候,一个更新操作加锁会阻塞所有的读取操作,降低了吞吐量,最后需要释放锁,锁是需要一些开销的,这时候可以选择乐观锁
+- 如果是读写比例差距不是非常大或者系统没有响应不及时,吞吐量瓶颈的问题,那就不要去使用乐观锁,它增加了复杂度,也带来了业务额外的风险,这时候可以选择悲观锁
+乐观锁的实现方式:就是 CAS,比较并交换
+* 版本号
+ 1. 给数据表中添加一个 version 列,每次更新后都将这个列的值加 1
-***
+ 2. 读取数据时,将版本号读取出来,在执行更新的时候,比较版本号
+ 3. 如果相同则执行更新,如果不相同,说明此条数据已经发生了变化
+ 4. 用户自行根据这个通知来决定怎么处理,比如重新开始一遍,或者放弃本次更新
-## 范式
+ ```mysql
+ -- 创建city表
+ CREATE TABLE city(
+ id INT PRIMARY KEY AUTO_INCREMENT, -- 城市id
+ NAME VARCHAR(20), -- 城市名称
+ VERSION INT -- 版本号
+ );
+
+ -- 添加数据
+ INSERT INTO city VALUES (NULL,'北京',1),(NULL,'上海',1),(NULL,'广州',1),(NULL,'深圳',1);
+
+ -- 修改北京为北京市
+ -- 1.查询北京的version
+ SELECT VERSION FROM city WHERE NAME='北京';
+ -- 2.修改北京为北京市,版本号+1。并对比版本号
+ UPDATE city SET NAME='北京市',VERSION=VERSION+1 WHERE NAME='北京' AND VERSION=1;
+ ```
-### 第一范式
+* 时间戳
-建立科学的,**规范的数据表**就需要满足一些规则来优化数据的设计和存储,这些规则就称为范式
+ - 和版本号方式基本一样,给数据表中添加一个列,名称无所谓,数据类型需要是 **timestamp**
+ - 每次更新后都将最新时间插入到此列
+ - 读取数据时,将时间读取出来,在执行更新的时候,比较时间
+ - 如果相同则执行更新,如果不相同,说明此条数据已经发生了变化
-**1NF:**数据库表的每一列都是不可分割的原子数据项,不能是集合、数组等非原子数据项。即表中的某个列有多个值时,必须拆分为不同的列。简而言之,**第一范式每一列不可再拆分,称为原子性**
+乐观锁的异常情况:如果 version 被其他事务抢先更新,则在当前事务中更新失败,trx_id 没有变成当前事务的 ID,当前事务再次查询还是旧值,就会出现**值没变但是更新不了**的现象(anomaly)
-基本表:
+解决方案:每次 CAS 更新不管成功失败,就结束当前事务;如果失败则重新起一个事务进行查询更新
-
-
-第一范式表:
-
+***
-****
+## 主从
-### 第二范式
+### 基本介绍
-**2NF:**在满足第一范式的基础上,非主属性完全依赖于主码(主关键字、主键),消除非主属性对主码的部分函数依赖。简而言之,**表中的每一个字段 (所有列)都完全依赖于主键,记录的唯一性**
+主从复制是指将主数据库的 DDL 和 DML 操作通过二进制日志传到从库服务器中,然后在从库上对这些日志重新执行(也叫重做),从而使得从库和主库的数据保持同步
-作用:遵守第二范式减少数据冗余,通过主键区分相同数据。
+MySQL 支持一台主库同时向多台从库进行复制,从库同时也可以作为其他从服务器的主库,实现链状复制
-1. 函数依赖:A → B,如果通过 A 属性(属性组)的值,可以确定唯一 B 属性的值,则称 B 依赖于 A
- * 学号 → 姓名;(学号,课程名称) → 分数
-2. 完全函数依赖:A → B,如果A是一个属性组,则 B 属性值的确定需要依赖于 A 属性组的所有属性值
- * (学号,课程名称) → 分数
-3. 部分函数依赖:A → B,如果 A 是一个属性组,则 B 属性值的确定只需要依赖于 A 属性组的某些属性值
- * (学号,课程名称) → 姓名
-4. 传递函数依赖:A → B,B → C,如果通过A属性(属性组)的值,可以确定唯一 B 属性的值,在通过 B 属性(属性组)的值,可以确定唯一 C 属性的值,则称 C 传递函数依赖于 A
- * 学号 → 系名,系名 → 系主任
-5. 码:如果在一张表中,一个属性或属性组,被其他所有属性所完全依赖,则称这个属性(属性组)为该表的码
- * 该表中的码:(学号,课程名称)
- * 主属性:码属性组中的所有属性
- * 非主属性:除码属性组以外的属性
+MySQL 复制的优点主要包含以下三个方面:
-
+- 主库出现问题,可以快速切换到从库提供服务
+- 可以在从库上执行查询操作,从主库中更新,实现读写分离
+- 可以在从库中执行备份,以避免备份期间影响主库的服务(备份时会加全局读锁)
-****
+***
-### 第三范式
+### 主从复制
-**3NF:**在满足第二范式的基础上,表中的任何属性不依赖于其它非主属性,消除传递依赖。简而言之,**非主键都直接依赖于主键,而不是通过其它的键来间接依赖于主键**。
+#### 主从结构
-作用:可以通过主键 id 区分相同数据,修改数据的时候只需要修改一张表(方便修改),反之需要修改多表。
+MySQL 的主从之间维持了一个**长连接**。主库内部有一个线程,专门用于服务从库的长连接,连接过程:
-
+* 从库执行 change master 命令,设置主库的 IP、端口、用户名、密码以及要从哪个位置开始请求 binlog,这个位置包含文件名和日志偏移量
+* 从库执行 start slave 命令,这时从库会启动两个线程,就是图中的 io_thread 和 sql_thread,其中 io_thread 负责与主库建立连接
+* 主库校验完用户名、密码后,开始按照从传过来的位置,从本地读取 binlog 发给从库,开始主从复制
+主从复制原理图:
+
+主从复制主要依赖的是 binlog,MySQL 默认是异步复制,需要三个线程:
+- binlog thread:在主库事务提交时,把数据变更记录在日志文件 binlog 中,并通知 slave 有数据更新
+- I/O thread:负责从主服务器上**拉取二进制日志**,并将 binlog 日志内容依次写到 relay log 中转日志的最末端,并将新的 binlog 文件名和 offset 记录到 master-info 文件中,以便下一次读取日志时从指定 binlog 日志文件及位置开始读取新的 binlog 日志内容
+- SQL thread:监测本地 relay log 中新增了日志内容,读取中继日志并重做其中的 SQL 语句,从库在 relay-log.info 中记录当前应用中继日志的文件名和位点以便下一次执行
+同步与异步:
+* 异步复制有数据丢失风险,例如数据还未同步到从库,主库就给客户端响应,然后主库挂了,此时从库晋升为主库的话数据是缺失的
+* 同步复制,主库需要将 binlog 复制到所有从库,等所有从库响应了之后主库才进行其他逻辑,这样的话性能很差,一般不会选择
+* MySQL 5.7 之后出现了半同步复制,有参数可以选择成功同步几个从库就返回响应
-***
+****
-### 总结
-
+#### 主主结构
+主主结构就是两个数据库之间总是互为主从关系,这样在切换的时候就不用再修改主从关系
+循环复制:在库 A 上更新了一条语句,然后把生成的 binlog 发给库 B,库 B 执行完这条更新语句后也会生成 binlog,会再发给 A
+解决方法:
+* 两个库的 server id 必须不同,如果相同则它们之间不能设定为主主关系
+* 一个库接到 binlog 并在重放的过程中,生成与原 binlog 的 server id 相同的新的 binlog
+* 每个库在收到从主库发过来的日志后,先判断 server id,如果跟自己的相同,表示这个日志是自己生成的,就直接丢弃这个日志
-****
+***
+### 主从延迟
-# JDBC
+#### 延迟原因
-## 概述
+正常情况主库执行更新生成的所有 binlog,都可以传到从库并被正确地执行,从库就能达到跟主库一致的状态,这就是最终一致性
-JDBC(Java DataBase Connectivity,java数据库连接)是一种用于执行 SQL 语句的 Java API,可以为多种关系型数据库提供统一访问,是由一组用 Java 语言编写的类和接口组成的。
+主从延迟是主从之间是存在一定时间的数据不一致,就是同一个事务在从库执行完成的时间和主库执行完成的时间的差值,即 T2-T1
-JDBC 是 Java 官方提供的一套规范(接口),用于帮助开发人员快速实现不同关系型数据库的连接
+- 主库 A 执行完成一个事务,写入 binlog,该时刻记为 T1
+- 日志传给从库 B,从库 B 执行完这个事务,该时刻记为 T2
-使用 JDBC 需要导包
+通过在从库执行 `show slave status` 命令,返回结果会显示 seconds_behind_master 表示当前从库延迟了多少秒
+- 每一个事务的 binlog 都有一个时间字段,用于记录主库上写入的时间
+- 从库取出当前正在执行的事务的时间字段,跟系统的时间进行相减,得到的就是 seconds_behind_master
+主从延迟的原因:
-***
+* 从库的机器性能比主库的差,导致从库的复制能力弱
+* 从库的查询压力大,建立一主多从的结构
+* 大事务的执行,主库必须要等到事务完成之后才会写入 binlog,导致从节点出现应用 binlog 延迟
+* 主库的 DDL,从库与主库的 DDL 同步是串行进行,DDL 在主库执行时间很长,那么从库也会消耗同样的时间
+* 锁冲突问题也可能导致从节点的 SQL 线程执行慢
+主从同步问题永远都是**一致性和性能的权衡**,需要根据实际的应用场景,可以采取下面的办法:
+* 优化 SQL,避免慢 SQL,减少批量操作
+* 降低多线程大事务并发的概率,优化业务逻辑
+* 业务中大多数情况查询操作要比更新操作更多,搭建**一主多从**结构,让这些从库来分担读的压力
-## 功能类
+* 尽量采用短的链路,主库和从库服务器的距离尽量要短,提升端口带宽,减少 binlog 传输的网络延时
+* 实时性要求高的业务读强制走主库,从库只做备份
-### DriverManager
-DriverManager:驱动管理对象
-* 注册驱动
- * 注册给定的驱动:`public static void registerDriver(Driver driver)`
+***
- * 代码实现语法:`Class.forName("com.mysql.jdbc.Driver)`
- * com.mysql.jdbc.Driver 中存在静态代码块
- ```java
- static {
- try {
- DriverManager.registerDriver(new Driver());
- } catch (SQLException var1) {
- throw new RuntimeException("Can't register driver!");
- }
- }
- ```
+#### 并行复制
- * 不需要通过 DriverManager 调用静态方法 registerDriver,因为 Driver 类被使用,则自动执行静态代码块完成注册驱动
+##### MySQL5.6
- * jar 包中 META-INF 目录下存在一个 java.sql.Driver 配置文件,文件中指定了 com.mysql.jdbc.Driver
+高并发情况下,主库的会产生大量的 binlog,在从库中有两个线程 IO Thread 和 SQL Thread 单线程执行,会导致主库延迟变大。为了改善复制延迟问题,MySQL 5.6 版本增加了并行复制功能,以采用多线程机制来促进执行
-* 获取数据库连接并返回连接对象
+coordinator 就是原来的 SQL Thread,并行复制中它不再直接更新数据,**只负责读取中转日志和分发事务**:
- `public static Connection getConnection(String url, String user, String password)`
+* 线程分配完成并不是立即执行,为了防止造成更新覆盖,更新同一 DB 的两个事务必须被分发到同一个工作线程
+* 同一个事务不能被拆开,必须放到同一个工作线程
- * url:指定连接的路径。语法:`jdbc:mysql://ip地址(域名):端口号/数据库名称`
- * user:用户名
- * password:密码
+MySQL 5.6 版本的策略:每个线程对应一个 hash 表,用于保存当前这个线程的执行队列里的事务所涉及的表,hash 表的 key 是数据库名,value 是一个数字,表示队列中有多少个事务修改这个库,适用于主库上有多个 DB 的情况
+每个事务在分发的时候,跟线程的**冲突**(事务操作的是同一个库)关系包括以下三种情况:
+* 如果跟所有线程都不冲突,coordinator 线程就会把这个事务分配给最空闲的线程
+* 如果只跟一个线程冲突,coordinator 线程就会把这个事务分配给这个存在冲突关系的线程
+* 如果跟多于一个线程冲突,coordinator 线程就进入等待状态,直到和这个事务存在冲突关系的线程只剩下 1 个
-***
+优缺点:
+* 构造 hash 值的时候很快,只需要库名,而且一个实例上 DB 数也不会很多,不会出现需要构造很多项的情况
+* 不要求 binlog 的格式,statement 格式的 binlog 也可以很容易拿到库名(日志章节详解了 binlog)
+* 主库上的表都放在同一个 DB 里面,这个策略就没有效果了;或者不同 DB 的热点不同,比如一个是业务逻辑库,一个是系统配置库,那也起不到并行的效果,需要**把相同热度的表均匀分到这些不同的 DB 中**,才可以使用这个策略
-### Connection
-Connection:数据库连接对象
+***
-- 获取执行者对象
- - 获取普通执行者对象:`Statement createStatement()`
- - 获取预编译执行者对象:`PreparedStatement prepareStatement(String sql)`
-- 管理事务
- - 开启事务:`setAutoCommit(boolean autoCommit)`,false 开启事务,true 自动提交模式(默认)
- - 提交事务:`void commit()`
- - 回滚事务:`void rollback()`
-- 释放资源
- - 释放此 Connection 对象的数据库和 JDBC 资源:`void close()`
+##### MySQL5.7
-***
+MySQL 5.7 由参数 slave-parallel-type 来控制并行复制策略:
+* 配置为 DATABASE,表示使用 MySQL 5.6 版本的**按库(DB)并行策略**
+* 配置为 LOGICAL_CLOCK,表示的**按提交状态并行**执行
+按提交状态并行复制策略的思想是:
-### Statement
+* 所有处于 commit 状态的事务可以并行执行;同时处于 prepare 状态的事务,在从库执行时是可以并行的
+* 处于 prepare 状态的事务,与处于 commit 状态的事务之间,在从库执行时也是可以并行的
-Statement:执行 sql 语句的对象
+MySQL 5.7.22 版本里,MySQL 增加了一个新的并行复制策略,基于 WRITESET 的并行复制,新增了一个参数 binlog-transaction-dependency-tracking,用来控制是否启用这个新策略:
-- 执行 DML 语句:`int executeUpdate(String sql)`
- - 返回值 int:返回影响的行数
- - 参数 sql:可以执行 insert、update、delete 语句
-- 执行 DQL 语句:`ResultSet executeQuery(String sql)`
- - 返回值 ResultSet:封装查询的结果
- - 参数 sql:可以执行 select 语句
-- 释放资源
- - 释放此 Statement 对象的数据库和 JDBC 资源:`void close()`
+* COMMIT_ORDER:表示根据同时进入 prepare 和 commit 来判断是否可以并行的策略
+* WRITESET:表示的是对于每个事务涉及更新的每一行,计算出这一行的 hash 值,组成该事务的 writeset 集合,如果两个事务没有操作相同的行,也就是说它们的 writeset 没有交集,就可以并行(**按行并行**)
+ 为了唯一标识,这个 hash 表的值是通过 `库名 + 表名 + 索引名 + 值`(表示的是某一行)计算出来的
-***
+* WRITESET_SESSION:是在 WRITESET 的基础上多了一个约束,即在主库上同一个线程先后执行的两个事务,在备库执行的时候,要保证相同的先后顺序
+MySQL 5.7.22 按行并发的优势:
+
+* writeset 是在主库生成后直接写入到 binlog 里面的,这样在备库执行的时候,不需要解析 binlog 内容,节省了计算量
+* 不需要把整个事务的 binlog 都扫一遍才能决定分发到哪个线程,更省内存
+* 从库的分发策略不依赖于 binlog 内容,所以 binlog 是 statement 格式也可以,更节约内存(因为 row 才记录更改的行)
+
+MySQL 5.7.22 的并行复制策略在通用性上是有保证的,但是对于表上没主键、唯一和外键约束的场景,WRITESET 策略也是没法并行的,也会暂时退化为单线程模型
-### ResultSet
-ResultSet:结果集对象,ResultSet 对象维护了一个游标,指向当前的数据行,初始在第一行
-- 判断结果集中是否有数据:`boolean next()`
- - 有数据返回 true,并将索引**向下移动一行**
- - 没有数据返回 false
-- 获取结果集中**当前行**的数据:`XXX getXxx("列名")`
- - XXX 代表数据类型(要获取某列数据,这一列的数据类型)
- - 例如:String getString("name"); int getInt("age");
-- 释放资源
- - 释放 ResultSet 对象的数据库和 JDBC 资源:`void close()`
+参考文章:https://time.geekbang.org/column/article/77083
@@ -7520,64 +7892,38 @@ ResultSet:结果集对象,ResultSet 对象维护了一个游标,指向当
-### 代码实现
+### 读写分离
-数据准备
+#### 读写延迟
-```mysql
--- 创建db14数据库
-CREATE DATABASE db14;
+读写分离:可以降低主库的访问压力,提高系统的并发能力
--- 使用db14数据库
-USE db14;
+* 主库不建查询的索引,从库建查询的索引。因为索引需要维护的,比如插入一条数据,不仅要在聚簇索引上面插入,对应的二级索引也得插入
+* 将读操作分到从库了之后,可以在主库把查询要用的索引删了,减少写操作对主库的影响
--- 创建student表
-CREATE TABLE student(
- sid INT PRIMARY KEY AUTO_INCREMENT, -- 学生id
- NAME VARCHAR(20), -- 学生姓名
- age INT, -- 学生年龄
- birthday DATE, -- 学生生日
-);
+读写分离产生了读写延迟,造成数据的不一致性。假如客户端执行完一个更新事务后马上发起查询,如果查询选择的是从库的话,可能读到的还是以前的数据,叫过期读
--- 添加数据
-INSERT INTO student VALUES (NULL,'张三',23,'1999-09-23'),(NULL,'李四',24,'1998-08-10'),
-(NULL,'王五',25,'1996-06-06'),(NULL,'赵六',26,'1994-10-20');
-```
+解决方案:
-JDBC 连接代码:
+* 强制将写之后**立刻读的操作转移到主库**,比如刚注册的用户,直接登录从库查询可能查询不到,先走主库登录
+* **二次查询**,如果从库查不到数据,则再去主库查一遍,由 API 封装,比较简单,但导致主库压力大
+* 更新主库后,读从库之前先 sleep 一下,类似于执行一条 `select sleep(1)` 命令,大多数情况下主备延迟在 1 秒之内
-```java
-public class JDBCDemo01 {
- public static void main(String[] args) throws Exception{
- //1.导入jar包
- //2.注册驱动
- Class.forName("com.mysql.jdbc.Driver");
- //3.获取连接
- Connection con = DriverManager.getConnection("jdbc:mysql://192.168.2.184:3306/db2","root","123456");
- //4.获取执行者对象
- Statement stat = con.createStatement();
+***
- //5.执行sql语句,并且接收结果
- String sql = "SELECT * FROM user";
- ResultSet rs = stat.executeQuery(sql);
- //6.处理结果
- while(rs.next()) {
- System.out.println(rs.getInt("id") + "\t" + rs.getString("name"));
- }
- //7.释放资源
- con.close();
- stat.close();
- con.close();
- }
-}
+#### 确保机制
-```
+##### 无延迟
+确保主备无延迟的方法:
+* 每次从库执行查询请求前,先判断 seconds_behind_master 是否已经等于 0,如果不等于那就等到参数变为 0 执行查询请求
+* 对比位点,Master_Log_File 和 Read_Master_Log_Pos 表示的是读到的主库的最新位点,Relay_Master_Log_File 和 Exec_Master_Log_Pos 表示的是备库执行的最新位点,这两组值完全相同就说明接收到的日志已经同步完成
+* 对比 GTID 集合,Retrieved_Gtid_Set 是备库收到的所有日志的 GTID 集合,Executed_Gtid_Set 是备库所有已经执行完成的 GTID 集合,如果这两个集合相同也表示备库接收到的日志都已经同步完成
@@ -7585,244 +7931,78 @@ public class JDBCDemo01 {
-## 工具类
+##### 半同步
-* 配置文件(在 src 下创建 config.properties)
+半同步复制就是 semi-sync replication,适用于一主一备的场景,工作流程:
- ```properties
- driverClass=com.mysql.jdbc.Driver
- url=jdbc:mysql://192.168.2.184:3306/db14
- username=root
- password=123456
- ```
+* 事务提交的时候,主库把 binlog 发给从库
+* 从库收到 binlog 以后,发回给主库一个 ack,表示收到了
+* 主库收到这个 ack 以后,才能给客户端返回事务完成的确认
-* 工具类
+在一主多从场景中,主库只要等到一个从库的 ack,就开始给客户端返回确认,这时在从库上执行查询请求,有两种情况:
- ```java
- public class JDBCUtils {
- //1.私有构造方法
- private JDBCUtils(){
- };
-
- //2.声明配置信息变量
- private static String driverClass;
- private static String url;
- private static String username;
- private static String password;
- private static Connection con;
-
- //3.静态代码块中实现加载配置文件和注册驱动
- static{
- try{
- //通过类加载器返回配置文件的字节流
- InputStream is = JDBCUtils.class.getClassLoader().
- getResourceAsStream("config.properties");
-
- //创建Properties集合,加载流对象的信息
- Properties prop = new Properties();
- prop.load(is);
-
- //获取信息为变量赋值
- driverClass = prop.getProperty("driverClass");
- url = prop.getProperty("url");
- username = prop.getProperty("username");
- password = prop.getProperty("password");
-
- //注册驱动
- Class.forName(driverClass);
-
- } catch (Exception e) {
- e.printStackTrace();
- }
- }
-
- //4.获取数据库连接的方法
- public static Connection getConnection() {
- try {
- con = DriverManager.getConnection(url,username,password);
- } catch (SQLException e) {
- e.printStackTrace();
- }
- return con;
- }
-
- //5.释放资源的方法
- public static void close(Connection con, Statement stat, ResultSet rs) {
- if(con != null) {
- try {
- con.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
-
- if(stat != null) {
- try {
- stat.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
-
- if(rs != null) {
- try {
- rs.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
- }
- //方法重载,可能没有返回值对象
- public static void close(Connection con, Statement stat) {
- close(con,stat,null);
- }
- }
- ```
+* 如果查询是落在这个响应了 ack 的从库上,是能够确保读到最新数据
+* 如果查询落到其他从库上,它们可能还没有收到最新的日志,就会产生过期读的问题
+
+在业务更新的高峰期,主库的位点或者 GTID 集合更新很快,导致从库来不及处理,那么两个位点等值判断就会一直不成立,很可能出现从库上迟迟无法响应查询请求的情况
-
****
-## 数据封装
+##### 等位点
-从数据库读取数据并封装成Student对象,需要:
+在**从库执行判断位点**的命令,参数 file 和 pos 指的是主库上的文件名和位置,timeout 可选,设置为正整数 N 表示最多等待 N 秒
-- Student 类成员变量对应表中的列
+```mysql
+SELECT master_pos_wait(file, pos[, timeout]);
+```
-- 所有的基本数据类型需要使用包装类,**以防 null 值无法赋值**
+命令正常返回的结果是一个正整数 M,表示从命令开始执行,到应用完 file 和 pos 表示的 binlog 位置,执行了多少事务
- ```java
- public class Student {
- private Integer sid;
- private String name;
- private Integer age;
- private Date birthday;
- ........
+* 如果执行期间,备库同步线程发生异常,则返回 NULL
+* 如果等待超过 N 秒,就返回 -1
+* 如果刚开始执行的时候,就发现已经执行过这个位置了,则返回 0
-- 数据准备
+工作流程:先执行 trx1,再执行一个查询请求的逻辑,要**保证能够查到正确的数据**
- ```mysql
- -- 创建db14数据库
- CREATE DATABASE db14;
-
- -- 使用db14数据库
- USE db14;
-
- -- 创建student表
- CREATE TABLE student(
- sid INT PRIMARY KEY AUTO_INCREMENT, -- 学生id
- NAME VARCHAR(20), -- 学生姓名
- age INT, -- 学生年龄
- birthday DATE -- 学生生日
- );
-
- -- 添加数据
- INSERT INTO student VALUES (NULL,'张三',23,'1999-09-23'),(NULL,'李四',24,'1998-08-10'),(NULL,'王五',25,'1996-06-06'),(NULL,'赵六',26,'1994-10-20');
- ```
+* trx1 事务更新完成后,马上执行 `show master status` 得到当前主库执行到的 File 和 Position
+* 选定一个从库执行判断位点语句,如果返回值是 >=0 的正整数,说明从库已经同步完事务,可以在这个从库执行查询语句
+* 如果出现其他情况,需要到主库执行查询语句
-- 操作数据库
+注意:如果所有的从库都延迟超过 timeout 秒,查询压力就都跑到主库上,所以需要进行权衡
- ```java
- public class StudentDaoImpl{
- //查询所有学生信息
- @Override
- public ArrayList findAll() {
- //1.
- ArrayList list = new ArrayList<>();
- Connection con = null;
- Statement stat = null;
- ResultSet rs = null;
- try{
- //2.获取数据库连接
- con = JDBCUtils.getConnection();
-
- //3.获取执行者对象
- stat = con.createStatement();
-
- //4.执行sql语句,并且接收返回的结果集
- String sql = "SELECT * FROM student";
- rs = stat.executeQuery(sql);
-
- //5.处理结果集
- while(rs.next()) {
- Integer sid = rs.getInt("sid");
- String name = rs.getString("name");
- Integer age = rs.getInt("age");
- Date birthday = rs.getDate("birthday");
-
- //封装Student对象
- Student stu = new Student(sid,name,age,birthday);
- //将student对象保存到集合中
- list.add(stu);
- }
- } catch(Exception e) {
- e.printStackTrace();
- } finally {
- //6.释放资源
- JDBCUtils.close(con,stat,rs);
- }
- //将集合对象返回
- return list;
- }
-
- //添加学生信息
- @Override
- public int insert(Student stu) {
- Connection con = null;
- Statement stat = null;
- int result = 0;
- try{
- con = JDBCUtils.getConnection();
-
- //3.获取执行者对象
- stat = con.createStatement();
-
- //4.执行sql语句,并且接收返回的结果集
- Date d = stu.getBirthday();
- SimpleDateFormat sdf = new SimpleDateFormat("yyyy-MM-dd");
- String birthday = sdf.format(d);
- String sql = "INSERT INTO student VALUES ('"+stu.getSid()+"','"+stu.getName()+"','"+stu.getAge()+"','"+birthday+"')";
- result = stat.executeUpdate(sql);
-
- } catch(Exception e) {
- e.printStackTrace();
- } finally {
- //6.释放资源
- JDBCUtils.close(con,stat);
- }
- //将结果返回
- return result;
- }
- }
- ```
+***
-***
+##### 等GTID
+数据库开启了 GTID 模式,MySQL 提供了判断 GTID 的命令
+```mysql
+SELECT wait_for_executed_gtid_set(gtid_set [, timeout])
+```
-## 注入攻击
+* 等待直到这个库执行的事务中包含传入的 gtid_set,返回 0
+* 超时返回 1
-### 攻击演示
+工作流程:先执行 trx1,再执行一个查询请求的逻辑,要保证能够查到正确的数据
-SQL 注入攻击演示
+* trx1 事务更新完成后,从返回包直接获取这个事务的 GTID,记为 gtid
+* 选定一个从库执行查询语句,如果返回值是 0,则在这个从库执行查询语句,否则到主库执行查询语句
-* 在登录界面,输入一个错误的用户名或密码,也可以登录成功
+对比等待位点方法,减少了一次 `show master status` 的方法,将参数 session_track_gtids 设置为 OWN_GTID,然后通过 API 接口 mysql_session_track_get_first 从返回包解析出 GTID 的值即可
- 
+总结:所有的等待无延迟的方法,都需要根据具体的业务场景去判断实施
-* 原理:我们在密码处输入的所有内容,都应该认为是密码的组成,但是 Statement 对象在执行 SQL 语句时,将一部分内容当做查询条件来执行
- ```mysql
- SELECT * FROM user WHERE loginname='aaa' AND password='aaa' OR '1'='1';
- ```
+参考文章:https://time.geekbang.org/column/article/77636
@@ -7830,134 +8010,151 @@ SQL 注入攻击演示
-### 攻击解决
+#### 负载均衡
-PreparedStatement:预编译 sql 语句的执行者对象,继承 `PreparedStatement extends Statement`
+负载均衡是应用中使用非常普遍的一种优化方法,机制就是利用某种均衡算法,将固定的负载量分布到不同的服务器上,以此来降低单台服务器的负载,达到优化的效果
-* 在执行 sql 语句之前,将 sql 语句进行提前编译。明确 sql 语句的格式,剩余的内容都会认为是参数
-* sql 语句中的参数使用 ? 作为占位符
+* 分流查询:通过 MySQL 的主从复制,实现读写分离,使增删改操作走主节点,查询操作走从节点,从而可以降低单台服务器的读写压力
-为 ? 占位符赋值的方法:`setXxx(int parameterIndex, xxx data)`
+ 
-- 参数1:? 的位置编号(编号从 1 开始)
+* 分布式数据库架构:适合大数据量、负载高的情况,具有良好的拓展性和高可用性。通过在多台服务器之间分布数据,可以实现在多台服务器之间的负载均衡,提高访问效率
-- 参数2:? 的实际参数
- ```java
- String sql = "SELECT * FROM user WHERE loginname=? AND password=?";
- pst = con.prepareStatement(sql);
- pst.setString(1,loginName);
- pst.setString(2,password);
- ```
-执行 sql 语句的方法
+****
-- 执行 insert、update、delete 语句:`int executeUpdate()`
-- 执行 select 语句:`ResultSet executeQuery()`
+### 主从搭建
+#### master
+1. 在master 的配置文件(/etc/mysql/my.cnf)中,配置如下内容:
-****
+ ```sh
+ #mysql 服务ID,保证整个集群环境中唯一
+ server-id=1
+
+ #mysql binlog 日志的存储路径和文件名
+ log-bin=/var/lib/mysql/mysqlbin
+
+ #错误日志,默认已经开启
+ #log-err
+
+ #mysql的安装目录
+ #basedir
+
+ #mysql的临时目录
+ #tmpdir
+
+ #mysql的数据存放目录
+ #datadir
+
+ #是否只读,1 代表只读, 0 代表读写
+ read-only=0
+
+ #忽略的数据, 指不需要同步的数据库
+ binlog-ignore-db=mysql
+
+ #指定同步的数据库
+ #binlog-do-db=db01
+ ```
+2. 执行完毕之后,需要重启 MySQL
+3. 创建同步数据的账户,并且进行授权操作:
-## 连接池
+ ```mysql
+ GRANT REPLICATION SLAVE ON *.* TO 'seazean'@'192.168.0.137' IDENTIFIED BY '123456';
+ FLUSH PRIVILEGES;
+ ```
-### 概念
+4. 查看 master 状态:
-数据库连接背景:数据库连接是一种关键的、有限的、昂贵的资源,这一点在多用户的网页应用程序中体现得尤为突出。对数据库连接的管理能显著影响到整个应用程序的伸缩性和健壮性,影响到程序的性能指标。
+ ```mysql
+ SHOW MASTER STATUS;
+ ```
-数据库连接池:**数据库连接池负责分配、管理和释放数据库连接**,它允许应用程序**重复使用**一个现有的数据库连接,而不是再重新建立一个,这项技术能明显提高对数据库操作的性能。
+ 
-数据库连接池原理
+ * File:从哪个日志文件开始推送日志文件
+ * Position:从哪个位置开始推送日志
+ * Binlog_Ignore_DB:指定不需要同步的数据库
-
+***
-****
+#### slave
+1. 在 slave 端配置文件中,配置如下内容:
+ ```sh
+ #mysql服务端ID,唯一
+ server-id=2
+
+ #指定binlog日志
+ log-bin=/var/lib/mysql/mysqlbin
+ ```
-### 自定义池
+2. 执行完毕之后,需要重启 MySQL
-DataSource 接口概述:
+3. 指定当前从库对应的主库的IP地址、用户名、密码,从哪个日志文件开始的那个位置开始同步推送日志
-* java.sql.DataSource 接口:数据源(数据库连接池)
-* Java 中 DataSource 是一个标准的数据源接口,官方提供的数据库连接池规范,连接池类实现该接口
-* 获取数据库连接对象:`Connection getConnection()`
+ ```mysql
+ CHANGE MASTER TO MASTER_HOST= '192.168.0.138', MASTER_USER='seazean', MASTER_PASSWORD='seazean', MASTER_LOG_FILE='mysqlbin.000001', MASTER_LOG_POS=413;
+ ```
-自定义连接池:
+4. 开启同步操作:
-```java
-public class MyDataSource implements DataSource{
- //1.定义集合容器,用于保存多个数据库连接对象
- private static List pool = Collections.synchronizedList(new ArrayList());
+ ```mysql
+ START SLAVE;
+ SHOW SLAVE STATUS;
+ ```
- //2.静态代码块,生成10个数据库连接保存到集合中
- static {
- for (int i = 0; i < 10; i++) {
- Connection con = JDBCUtils.getConnection();
- pool.add(con);
- }
- }
- //3.返回连接池的大小
- public int getSize() {
- return pool.size();
- }
+5. 停止同步操作:
- //4.从池中返回一个数据库连接
- @Override
- public Connection getConnection() {
- if(pool.size() > 0) {
- //从池中获取数据库连接
- return pool.remove(0);
- }else {
- throw new RuntimeException("连接数量已用尽");
- }
- }
-}
-```
+ ```mysql
+ STOP SLAVE;
+ ```
-测试连接池功能:
-```java
-public class MyDataSourceTest {
- public static void main(String[] args) throws Exception{
- //创建数据库连接池对象
- MyDataSource dataSource = new MyDataSource();
- System.out.println("使用之前连接池数量:" + dataSource.getSize());//10
-
- //获取数据库连接对象
- Connection con = dataSource.getConnection();
- System.out.println(con.getClass());// JDBC4Connection
+***
- //查询学生表全部信息
- String sql = "SELECT * FROM student";
- PreparedStatement pst = con.prepareStatement(sql);
- ResultSet rs = pst.executeQuery();
- while(rs.next()) {
- System.out.println(rs.getInt("sid") + "\t" + rs.getString("name") + "\t" + rs.getInt("age") + "\t" + rs.getDate("birthday"));
- }
-
- //释放资源
- rs.close();
- pst.close();
- //目前的连接对象close方法,是直接关闭连接,而不是将连接归还池中
- con.close();
- System.out.println("使用之后连接池数量:" + dataSource.getSize());//9
- }
-}
-```
+#### 验证
+
+1. 在主库中创建数据库,创建表并插入数据:
+
+ ```mysql
+ CREATE DATABASE db01;
+ USE db01;
+ CREATE TABLE user(
+ id INT(11) NOT NULL AUTO_INCREMENT,
+ name VARCHAR(50) NOT NULL,
+ sex VARCHAR(1),
+ PRIMARY KEY (id)
+ )ENGINE=INNODB DEFAULT CHARSET=utf8;
+
+ INSERT INTO user(id,NAME,sex) VALUES(NULL,'Tom','1');
+ INSERT INTO user(id,NAME,sex) VALUES(NULL,'Trigger','0');
+ INSERT INTO user(id,NAME,sex) VALUES(NULL,'Dawn','1');
+ ```
-结论:释放资源并没有把连接归还给连接池
+2. 在从库中查询数据,进行验证:
+
+ 在从库中,可以查看到刚才创建的数据库:
+
+ 
+
+ 在该数据库中,查询表中的数据:
+
+ 
@@ -7965,480 +8162,197 @@ public class MyDataSourceTest {
-### 归还连接
+### 主从切换
-归还数据库连接的方式:继承方式、装饰者设计者模式、适配器设计模式、动态代理方式
+#### 正常切换
-#### 继承方式
+正常切换步骤:
-继承(无法解决)
+* 在开始切换之前先对主库进行锁表 `flush tables with read lock`,然后等待所有语句执行完成,切换完成后可以释放锁
-- 通过打印连接对象,发现 DriverManager 获取的连接实现类是 JDBC4Connection
-- 自定义一个类,继承 JDBC4Connection 这个类,重写 close() 方法
-- 通过查看 JDBC 工具类获取连接的方法我们发现:我们虽然自定义了一个子类,完成了归还连接的操作。但是DriverManager 获取的还是 JDBC4Connection 这个对象,并不是我们的子类对象。
+* 检查 slave 同步状态,在 slave 执行 `show processlist`
-代码实现
+* 停止 slave io 线程,执行命令 `STOP SLAVE IO_THREAD`
-* 自定义继承连接类
+* 提升 slave 为 master
- ```java
- //1.定义一个类,继承JDBC4Connection
- public class MyConnection1 extends JDBC4Connection{
- //2.定义Connection连接对象和容器对象的成员变量
- private Connection con;
- private List pool;
-
- //3.通过有参构造方法为成员变量赋值
- public MyConnection1(String hostToConnectTo, int portToConnectTo, Properties info, String databaseToConnectTo, String url,Connection con,List pool) throws SQLException {
- super(hostToConnectTo, portToConnectTo, info, databaseToConnectTo, url);
- this.con = con;
- this.pool = pool;
- }
-
- //4.重写close方法,完成归还连接
- @Override
- public void close() throws SQLException {
- pool.add(con);
- }
- }
+ ```sql
+ Stop slave;
+ Reset master;
+ Reset slave all;
+ set global read_only=off; -- 设置为可更新状态
```
-* 自定义连接池类
+* 将原来 master 变为 slave(参考搭建流程中的 slave 方法)
+
+**可靠性优先策略**:
+
+* 判断备库 B 现在的 seconds_behind_master,如果小于某个值(比如 5 秒)继续下一步,否则持续重试这一步
+* 把主库 A 改成只读状态,即把 readonly 设置为 true
+* 判断备库 B 的 seconds_behind_master 的值,直到这个值变成 0 为止(该步骤比较耗时,所以步骤 1 中要尽量等待该值变小)
+* 把备库 B 改成可读写状态,也就是把 readonly 设置为 false
+* 把业务请求切到备库 B
+
+可用性优先策略:先做最后两步,会造成主备数据不一致的问题
+
+
+
+参考文章:https://time.geekbang.org/column/article/76795
- ```java
- //将之前的连接对象换成自定义的子类对象
- private static MyConnection1 con;
-
- //4.获取数据库连接的方法
- public static Connection getConnection() {
- try {
- //等效于:MyConnection1 con = new JDBC4Connection(); 语法错误!
- con = DriverManager.getConnection(url,username,password);
- } catch (SQLException e) {
- e.printStackTrace();
- }
-
- return con;
- }
- ```
-
***
-#### 装饰者
+#### 健康检测
-自定义类实现 Connection 接口,通过装饰设计模式,实现和 mysql 驱动包中的 Connection 实现类相同的功能
+主库发生故障后从库会上位,**其他从库指向新的主库**,所以需要一个健康检测的机制来判断主库是否宕机
-在实现类对每个获取的 Connection 进行装饰:把连接和连接池参数传递进行包装
+* select 1 判断,但是高并发下检测不出线程的锁等待的阻塞问题
-特点:通过装饰设计模式连接类我们发现,有很多需要重写的方法,代码太繁琐
+* 查表判断,在系统库(mysql 库)里创建一个表,比如命名为 health_check,里面只放一行数据,然后定期执行。但是当 binlog 所在磁盘的空间占用率达到 100%,所有的更新和事务提交语句都被阻塞,查询语句可以继续运行
-* 装饰设计模式类
+* 更新判断,在健康检测表中放一个 timestamp 字段,用来表示最后一次执行检测的时间
- ```java
- //1.定义一个类,实现Connection接口
- public class MyConnection2 implements Connection {
- //2.定义Connection连接对象和连接池容器对象的变量
- private Connection con;
- private List pool;
-
- //3.提供有参构造方法,接收连接对象和连接池对象,对变量赋值
- public MyConnection2(Connection con,List pool) {
- this.con = con;
- this.pool = pool;
- }
-
- //4.在close()方法中,完成连接的归还
- @Override
- public void close() throws SQLException {
- pool.add(con);
- }
- //5.剩余方法,只需要调用mysql驱动包的连接对象完成即可
- @Override
- public Statement createStatement() throws SQLException {
- return con.createStatement();
- }
- ..........
- }
+ ```mysql
+ UPDATE mysql.health_check SET t_modified=now();
```
-* 自定义连接池类
+ 节点可用性的检测都应该包含主库和备库,为了让主备之间的更新不产生冲突,可以在 mysql.health_check 表上存入多行数据,并用主备的 server_id 做主键,保证主、备库各自的检测命令不会发生冲突
- ```java
- @Override
- public Connection getConnection() {
- if(pool.size() > 0) {
- //从池中获取数据库连接
- Connection con = pool.remove(0);
- //通过自定义连接对象进行包装
- MyConnection2 mycon = new MyConnection2(con,pool);
- //返回包装后的连接对象
- return mycon;
- }else {
- throw new RuntimeException("连接数量已用尽");
- }
- }
- ```
-
***
-#### 适配器
-使用适配器设计模式改进,提供一个适配器类,实现 Connection 接口,将所有功能进行实现(除了 close 方法),自定义连接类只需要继承这个适配器类,重写需要改进的 close() 方法即可。
-特点:自定义连接类中很简洁。剩余所有的方法抽取到了适配器类中,但是适配器这个类还是我们自己编写。
+#### 基于位点
-* 适配器类
+主库上位后,从库 B 执行 CHANGE MASTER TO 命令,指定 MASTER_LOG_FILE、MASTER_LOG_POS 表示从新主库 A 的哪个文件的哪个位点开始同步,这个位置就是**同步位点**,对应主库的文件名和日志偏移量
- ```java
- public abstract class MyAdapter implements Connection {
-
- // 定义数据库连接对象的变量
- private Connection con;
-
- // 通过构造方法赋值
- public MyAdapter(Connection con) {
- this.con = con;
- }
-
- // 所有的方法,均调用mysql的连接对象实现
- @Override
- public Statement createStatement() throws SQLException {
- return con.createStatement();
- }
- }
- ```
+寻找位点需要找一个稍微往前的,然后再通过判断跳过那些在从库 B 上已经执行过的事务,获取位点方法:
-* 自定义连接类
+* 等待新主库 A 把中转日志(relay log)全部同步完成
+* 在 A 上执行 show master status 命令,得到当前 A 上最新的 File 和 Position
+* 取原主库故障的时刻 T,用 mysqlbinlog 工具解析新主库 A 的 File,得到 T 时刻的位点
- ```java
- public class MyConnection3 extends MyAdapter {
- //2.定义Connection连接对象和连接池容器对象的变量
- private Connection con;
- private List pool;
-
- //3.提供有参构造方法,接收连接对象和连接池对象,对变量赋值
- public MyConnection3(Connection con,List pool) {
- super(con); // 将接收的数据库连接对象给适配器父类传递
- this.con = con;
- this.pool = pool;
- }
-
- //4.在close()方法中,完成连接的归还
- @Override
- public void close() throws SQLException {
- pool.add(con);
- }
- }
- ```
+通常情况下该值并不准确,在切换的过程中会发生错误,所以要先主动跳过这些错误:
-* 自定义连接池类
+* 切换过程中,可能会重复执行一个事务,所以需要主动跳过所有重复的事务
- ```java
- //从池中返回一个数据库连接
- @Override
- public Connection getConnection() {
- if(pool.size() > 0) {
- //从池中获取数据库连接
- Connection con = pool.remove(0);
- //通过自定义连接对象进行包装
- MyConnection3 mycon = new MyConnection3(con,pool);
- //返回包装后的连接对象
- return mycon;
- }else {
- throw new RuntimeException("连接数量已用尽");
- }
- }
+ ```mysql
+ SET GLOBAL sql_slave_skip_counter=1;
+ START SLAVE;
```
-
+* 设置 slave_skip_errors 参数,直接设置跳过指定的错误,保证主从切换的正常进行
-***
+ * 1062 错误是插入数据时唯一键冲突
+ * 1032 错误是删除数据时找不到行
+ 该方法针对的是主备切换时,由于找不到精确的同步位点,只能采用这种方法来创建从库和新主库的主备关系。等到主备间的同步关系建立完成并稳定执行一段时间后,还需要把这个参数设置为空,以免真的出现了主从数据不一致也跳过了
-#### 动态代理
-使用动态代理的方式来改进
+****
-自定义数据库连接池类:
-```java
-public class MyDataSource implements DataSource {
- //1.准备一个容器。用于保存多个数据库连接对象
- private static List pool = Collections.synchronizedList(new ArrayList<>());
- //2.定义静态代码块,获取多个连接对象保存到容器中
- static{
- for(int i = 1; i <= 10; i++) {
- Connection con = JDBCUtils.getConnection();
- pool.add(con);
- }
- }
- //3.提供一个获取连接池大小的方法
- public int getSize() {
- return pool.size();
- }
+#### 基于GTID
- //动态代理方式
- @Override
- public Connection getConnection() throws SQLException {
- if(pool.size() > 0) {
- Connection con = pool.remove(0);
+##### GTID
- Connection proxyCon = (Connection) Proxy.newProxyInstance(
- con.getClass().getClassLoader(), new Class[]{Connection.class},
- new InvocationHandler() {
- /*
- 执行Connection实现类连接对象所有的方法都会经过invoke
- 如果是close方法,归还连接
- 如果不是,直接执行连接对象原有的功能即可
- */
- @Override
- public Object invoke(Object proxy, Method method, Object[] args) throws Throwable {
- if(method.getName().equals("close")) {
- //归还连接
- pool.add(con);
- return null;
- }else {
- return method.invoke(con,args);
- }
- }
- });
- return proxyCon;
- }else {
- throw new RuntimeException("连接数量已用尽");
- }
- }
-}
+GTID 的全称是 Global Transaction Identifier,全局事务 ID,是一个事务**在提交时生成**的,是这个事务的唯一标识,组成:
+
+```mysql
+GTID=source_id:transaction_id
```
+* source_id:是一个实例第一次启动时自动生成的,是一个全局唯一的值
+* transaction_id:初始值是 1,每次提交事务的时候分配给这个事务,并加 1,是连续的(区分事务 ID,事务 ID 是在执行时生成)
+启动 MySQL 实例时,加上参数 `gtid_mode=on` 和 `enforce_gtid_consistency=on` 就可以启动 GTID 模式,每个事务都会和一个 GTID 一一对应,每个 MySQL 实例都维护了一个 GTID 集合,用来存储当前实例**执行过的所有事务**
-***
+GTID 有两种生成方式,使用哪种方式取决于 session 变量 gtid_next:
+* `gtid_next=automatic`:使用默认值,把 source_id:transaction_id (递增)分配给这个事务,然后加入本实例的 GTID 集合
+ ```mysql
+ @@SESSION.GTID_NEXT = 'source_id:transaction_id';
+ ```
-### 开源项目
+* `gtid_next=GTID`:指定的 GTID 的值,如果该值已经存在于实例的 GTID 集合中,接下来执行的事务会直接被系统忽略;反之就将该值分配给接下来要执行的事务,系统不需要给这个事务生成新的 GTID,也不用加 1
-#### C3P0
+ 注意:一个 GTID 只能给一个事务使用,所以执行下一个事务,要把 gtid_next 设置成另外一个 GTID 或者 automatic
-使用 C3P0 连接池:
+业务场景:
-* 配置文件名称:c3p0-config.xml,必须放在 src 目录下
+* 主库 X 和从库 Y 执行一条相同的指令后进行事务同步
- ```xml
-
-
-
-
- com.mysql.jdbc.Driver
- jdbc:mysql://192.168.2.184:3306/db14
- root
- 123456
-
-
-
- 5
-
- 10
-
- 3000
-
-
-
-
-
-
-
+ ```mysql
+ INSERT INTO t VALUES(1,1);
```
-
-* 代码演示
- ```java
- public class C3P0Test1 {
- public static void main(String[] args) throws Exception{
- //1.创建c3p0的数据库连接池对象
- DataSource dataSource = new ComboPooledDataSource();
-
- //2.通过连接池对象获取数据库连接
- Connection con = dataSource.getConnection();
-
- //3.执行操作
- String sql = "SELECT * FROM student";
- PreparedStatement pst = con.prepareStatement(sql);
-
- //4.执行sql语句,接收结果集
- ResultSet rs = pst.executeQuery();
-
- //5.处理结果集
- while(rs.next()) {
- System.out.println(rs.getInt("sid") + "\t" + rs.getString("name") + "\t" + rs.getInt("age") + "\t" + rs.getDate("birthday"));
- }
-
- //6.释放资源
- rs.close(); pst.close(); con.close();
- }
- }
+* 当 Y 同步 X 时,会出现主键冲突,导致实例 X 的同步线程停止,解决方法:
+
+ ```mysql
+ SET gtid_next='(这里是主库 X 的 GTID 值)';
+ BEGIN;
+ COMMIT;
+ SET gtid_next=automatic;
+ START SLAVE;
```
-
+ 前三条语句通过**提交一个空事务**,把 X 的 GTID 加到实例 Y 的 GTID 集合中,实例 Y 就会直接跳过这个事务
-#### Druid
-Druid 连接池:
-* 配置文件:druid.properties,必须放在src目录下
+****
- ```properties
- driverClassName=com.mysql.jdbc.Driver
- url=jdbc:mysql://192.168.2.184:3306/db14
- username=root
- password=123456
- initialSize=5
- maxActive=10
- maxWait=3000
- ```
-* 代码演示
- ```java
- public class DruidTest1 {
- public static void main(String[] args) throws Exception{
- //获取配置文件的流对象
- InputStream is = DruidTest1.class.getClassLoader().getResourceAsStream("druid.properties");
-
- //1.通过Properties集合,加载配置文件
- Properties prop = new Properties();
- prop.load(is);
-
- //2.通过Druid连接池工厂类获取数据库连接池对象
- DataSource dataSource = DruidDataSourceFactory.createDataSource(prop);
-
- //3.通过连接池对象获取数据库连接进行使用
- Connection con = dataSource.getConnection();
-
- //4.执行sql语句,接收结果集
- String sql = "SELECT * FROM student";
- PreparedStatement pst = con.prepareStatement(sql);
- ResultSet rs = pst.executeQuery();
-
- //5.处理结果集
- while(rs.next()) {
- System.out.println(rs.getInt("sid") + "\t" + rs.getString("name") + "\t" + rs.getInt("age") + "\t" + rs.getDate("birthday"));
- }
-
- //6.释放资源
- rs.close(); pst.close(); con.close();
- }
- }
-
- ```
+##### 切换
+在 GTID 模式下,CHANGE MASTER TO 不需要指定日志名和日志偏移量,指定 `master_auto_position=1` 代表使用 GTID 模式
+新主库实例 A 的 GTID 集合记为 set_a,从库实例 B 的 GTID 集合记为 set_b,主备切换逻辑:
-### 工具类
+* 实例 B 指定主库 A,基于主备协议建立连接,实例 B 并把 set_b 发给主库 A
+* 实例 A 算出 set_a 与 set_b 的差集,就是所有存在于 set_a 但不存在于 set_b 的 GTID 的集合,判断 A 本地是否包含了这个**差集**需要的所有 binlog 事务
+ * 如果不包含,表示 A 已经把实例 B 需要的 binlog 给删掉了,直接返回错误
+ * 如果确认全部包含,A 从自己的 binlog 文件里面,找出第一个不在 set_b 的事务,发给 B
+* 实例 A 之后就从这个事务开始,往后读文件,按顺序取 binlog 发给 B 去执行
-数据库连接池的工具类:
-```java
-public class DataSourceUtils {
- //1.私有构造方法
- private DataSourceUtils(){}
- //2.声明数据源变量
- private static DataSource dataSource;
+参考文章:https://time.geekbang.org/column/article/77427
- //3.提供静态代码块,完成配置文件的加载和获取数据库连接池对象
- static{
- try{
- //完成配置文件的加载
- InputStream is = DataSourceUtils.class.getClassLoader().getResourceAsStream("druid.properties");
- Properties prop = new Properties();
- prop.load(is);
-
- //获取数据库连接池对象
- dataSource = DruidDataSourceFactory.createDataSource(prop);
- } catch (Exception e) {
- e.printStackTrace();
- }
- }
- //4.提供一个获取数据库连接的方法
- public static Connection getConnection() {
- Connection con = null;
- try {
- con = dataSource.getConnection();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- return con;
- }
- //5.提供一个获取数据库连接池对象的方法
- public static DataSource getDataSource() {
- return dataSource;
- }
+***
- //6.释放资源
- public static void close(Connection con, Statement stat, ResultSet rs) {
- if(con != null) {
- try {
- con.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
-
- if(stat != null) {
- try {
- stat.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
- if(rs != null) {
- try {
- rs.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
- }
- //方法重载
- public static void close(Connection con, Statement stat) {
- if(con != null) {
- try {
- con.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
- if(stat != null) {
- try {
- stat.close();
- } catch (SQLException e) {
- e.printStackTrace();
- }
- }
- }
-}
-```
+## 日志
+### 日志分类
+在任何一种数据库中,都会有各种各样的日志,记录着数据库工作的过程,可以帮助数据库管理员追踪数据库曾经发生过的各种事件
+MySQL日志主要包括六种:
+1. 重做日志(redo log)
+2. 回滚日志(undo log)
+3. 归档日志(binlog)(二进制日志)
+4. 错误日志(errorlog)
+5. 慢查询日志(slow query log)
+6. 一般查询日志(general log)
+7. 中继日志(relay log)
@@ -8446,71 +8360,80 @@ public class DataSourceUtils {
+### 错误日志
+错误日志是 MySQL 中最重要的日志之一,记录了当 mysqld 启动和停止时,以及服务器在运行过程中发生任何严重错误时的相关信息。当数据库出现任何故障导致无法正常使用时,可以首先查看此日志
-# Redis
+该日志是默认开启的,默认位置是:`/var/log/mysql/error.log`
-## NoSQL
+查看指令:
-### 概述
+```mysql
+SHOW VARIABLES LIKE 'log_error%';
+```
-NoSQL(Not-Only SQL):泛指非关系型的数据库,作为关系型数据库的补充。
+查看日志内容:
-MySQL 支持 ACID 特性,保证可靠性和持久性,读取性能不高,因此需要缓存的来减缓数据库的访问压力。
+```sh
+tail -f /var/log/mysql/error.log
+```
-作用:应对基于海量用户和海量数据前提下的数据处理问题
-特征:
-* 可扩容,可伸缩,SQL 数据关系过于复杂,Nosql 不存关系,只存数据
-* 大数据量下高性能,数据不存取在磁盘 IO,存取在内存
-* 灵活的数据模型,设计了一些数据存储格式,能保证效率上的提高
-* 高可用,集群
+***
-常见的 Nosql:Redis、memcache、HBase、MongoDB
-
+### 归档日志
+#### 基本介绍
-参考视频:https://www.bilibili.com/video/BV1CJ411m7Gc
+归档日志(BINLOG)也叫二进制日志,是因为采用二进制进行存储,记录了所有的 DDL(数据定义语言)语句和 DML(数据操作语言)语句,但**不包括数据查询语句,在事务提交前的最后阶段写入**
-参考视频:https://www.bilibili.com/video/BV1Rv41177Af
+作用:**灾难时的数据恢复和 MySQL 的主从复制**
+归档日志默认情况下是没有开启的,需要在 MySQL 配置文件中开启,并配置 MySQL 日志的格式:
+```sh
+cd /etc/mysql
+vim my.cnf
-***
+# 配置开启binlog日志, 日志的文件前缀为 mysqlbin -----> 生成的文件名如: mysqlbin.000001
+log_bin=mysqlbin
+# 配置二进制日志的格式
+binlog_format=STATEMENT
+```
+日志存放位置:配置时给定了文件名但是没有指定路径,日志默认写入MySQL 的数据目录
+日志格式:
-### Redis
+* STATEMENT:该日志格式在日志文件中记录的都是 **SQL 语句**,每一条对数据进行修改的 SQL 都会记录在日志文件中,通过 mysqlbinlog 工具,可以查看到每条语句的文本。主从复制时,从库会将日志解析为原语句,并在从库重新执行一遍
-Redis (REmote DIctionary Server) :用 C 语言开发的一个开源的高性能键值对(key-value)数据库。
+ 缺点:可能会导致主备不一致,因为记录的 SQL 在不同的环境中可能选择的索引不同,导致结果不同
+* ROW:该日志格式在日志文件中记录的是每一行的**数据变更**,而不是记录 SQL 语句。比如执行 SQL 语句 `update tb_book set status='1'`,如果是 STATEMENT,在日志中会记录一行 SQL 语句; 如果是 ROW,由于是对全表进行更新,就是每一行记录都会发生变更,ROW 格式的日志中会记录每一行的数据变更
-特征:
+ 缺点:记录的数据比较多,占用很多的存储空间
-* 数据间没有必然的关联关系,**不存关系,只存数据**
-* 数据**存储在内存**,存取速度快,解决了磁盘 IO 速度慢的问题
-* 内部采用**单线程**机制进行工作
-* 高性能,官方测试数据,50个并发执行100000 个请求,读的速度是110000 次/s,写的速度是81000次/s
-* 多数据类型支持
- * 字符串类型:string(String)
- * 列表类型:list(LinkedList)
- * 散列类型:hash(HashMap)
- * 集合类型:set(HashSet)
- * 有序集合类型:zset/sorted_set(TreeSet)
-* 支持持久化,可以进行数据灾难恢复
+* MIXED:这是 MySQL 默认的日志格式,混合了STATEMENT 和 ROW 两种格式,MIXED 格式能尽量利用两种模式的优点,而避开它们的缺点
-应用:
-* 为热点数据加速查询(主要场景),如热点商品、热点新闻、热点资讯、推广类等高访问量信息等
-* 即时信息查询,如排行榜、网站访问统计、公交到站信息、在线人数(聊天室、网站)、设备信号等
+***
+
+
-* 时效性信息控制,如验证码控制、投票控制等
+#### 日志刷盘
-* 分布式数据共享,如分布式集群架构中的 session 分离
-* 消息队列
+事务执行过程中,先将日志写(write)到 binlog cache,事务提交时再把 binlog cache 写(fsync)到 binlog 文件中,一个事务的 binlog 是不能被拆开的,所以不论这个事务多大也要确保一次性写入
+
+事务提交时执行器把 binlog cache 里的完整事务写入到 binlog 中,并清空 binlog cache
+
+write 和 fsync 的时机由参数 sync_binlog 控制的:
+
+* sync_binlog=0:表示每次提交事务都只 write,不 fsync
+* sync_binlog=1:表示每次提交事务都会执行 fsync
+* sync_binlog=N(N>1):表示每次提交事务都 write,但累积 N 个事务后才 fsync,但是如果主机发生异常重启,会丢失最近 N 个事务的 binlog 日志
@@ -8518,129 +8441,120 @@ Redis (REmote DIctionary Server) :用 C 语言开发的一个开源的高性
-### 安装启动
+#### 日志读取
-#### CentOS
+日志文件存储位置:/var/lib/mysql
-1. 下载 Redis
+由于日志以二进制方式存储,不能直接读取,需要用 mysqlbinlog 工具来查看,语法如下:
- 下载安装包:
+```sh
+mysqlbinlog log-file;
+```
- ```sh
- wget http://download.redis.io/releases/redis-5.0.0.tar.gz
- ```
+查看 STATEMENT 格式日志:
- 解压安装包:
+* 执行插入语句:
- ```sh
- tar –xvf redis-5.0.0.tar.gz
- ```
+ ```mysql
+ INSERT INTO tb_book VALUES(NULL,'Lucene','2088-05-01','0');
+ ```
- 编译(在解压的目录中执行):
+* `cd /var/lib/mysql`:
- ```sh
- make
- ```
+ ```sh
+ -rw-r----- 1 mysql mysql 177 5月 23 21:08 mysqlbin.000001
+ -rw-r----- 1 mysql mysql 18 5月 23 21:04 mysqlbin.index
+ ```
- 安装(在解压的目录中执行):
+ mysqlbin.index:该文件是日志索引文件 , 记录日志的文件名;
- ```sh
- make install
- ```
+ mysqlbing.000001:日志文件
-
+* 查看日志内容:
-2. 安装 Redis
+ ```sh
+ mysqlbinlog mysqlbing.000001;
+ ```
- redis-server,服务器启动命令 客户端启动命令
+ 
+
+ 日志结尾有 COMMIT
- redis-cli,redis核心配置文件
+查看 ROW 格式日志:
- redis.conf,RDB文件检查工具(快照持久化文件)
+* 修改配置:
- redis-check-dump,AOF文件修复工具
+ ```sh
+ # 配置二进制日志的格式
+ binlog_format=ROW
+ ```
- redis-check-aof
+* 插入数据:
+ ```mysql
+ INSERT INTO tb_book VALUES(NULL,'SpringCloud实战','2088-05-05','0');
+ ```
+* 查看日志内容:日志格式 ROW,直接查看数据是乱码,可以在 mysqlbinlog 后面加上参数 -vv
-***
+ ```mysql
+ mysqlbinlog -vv mysqlbin.000002
+ ```
+ 
-#### Ubuntu
-安装:
-* Redis 5.0 被包含在默认的 Ubuntu 20.04 软件源中
- ```sh
- sudo apt update
- sudo apt install redis-server
- ```
+***
-* 检查Redis状态
- ```sh
- sudo systemctl status redis-server
- ```
-启动:
+#### 日志删除
-* 启动服务器——参数启动
+对于比较繁忙的系统,生成日志量大,这些日志如果长时间不清除,将会占用大量的磁盘空间,需要删除日志
- ```sh
- redis-server [--port port]
- #redis-server --port 6379
+* Reset Master 指令删除全部 binlog 日志,删除之后,日志编号将从 xxxx.000001重新开始
+
+ ```mysql
+ Reset Master -- MySQL指令
```
-* 启动服务器——配置文件启动
+* 执行指令 `PURGE MASTER LOGS TO 'mysqlbin.***`,该命令将删除 ` ***` 编号之前的所有日志
- ```sh
- redis-server config_file_name
- #redis-server /etc/redis/conf/redis-6397.conf
- ```
+* 执行指令 `PURGE MASTER LOGS BEFORE 'yyyy-mm-dd hh:mm:ss'` ,该命令将删除日志为 `yyyy-mm-dd hh:mm:ss` 之前产生的日志
-* 启动客户端:
+* 设置参数 `--expire_logs_days=#`,此参数的含义是设置日志的过期天数,过了指定的天数后日志将会被自动删除,这样做有利于减少管理日志的工作量,配置 my.cnf 文件:
```sh
- redis-cli [-h host] [-p port]
- #redis-cli -h 192.168.2.185 -p 6397
+ log_bin=mysqlbin
+ binlog_format=ROW
+ --expire_logs_days=3
```
- 注意:服务器启动指定端口使用的是--port,客户端启动指定端口使用的是-p
-
-
-***
-### 基本配置
+****
-#### 系统目录
-1. 创建文件结构
- 创建配置文件存储目录
+#### 数据恢复
- ```sh
- mkdir conf
- ```
+误删库或者表时,需要根据 binlog 进行数据恢复
- 创建服务器文件存储目录(包含日志、数据、临时配置文件等)
+一般情况下数据库有定时的全量备份,假如每天 0 点定时备份,12 点误删了库,恢复流程:
- ```sh
- mkdir data
- ```
+* 取最近一次全量备份,用备份恢复出一个临时库
+* 从日志文件中取出凌晨 0 点之后的日志
+* 把除了误删除数据的语句外日志,全部应用到临时库
-2. 创建配置文件副本放入 conf 目录,Ubuntu系统配置文件 redis.conf 在目录 `/etc/redis` 中
+跳过误删除语句日志的方法:
- ```sh
- cat redis.conf | grep -v "#" | grep -v "^$" -> /conf/redis-6379.conf
- ```
-
- 去除配置文件的注释和空格,输出到新的文件,命令方式采用 redis-port.conf
+* 如果原实例没有使用 GTID 模式,只能在应用到包含 12 点的 binlog 文件的时候,先用 –stop-position 参数执行到误操作之前的日志,然后再用 –start-position 从误操作之后的日志继续执行
+* 如果实例使用了 GTID 模式,假设误操作命令的 GTID 是 gtid1,那么只需要提交一个空事务先将这个 GTID 加到临时实例的 GTID 集合,之后按顺序执行 binlog 的时就会自动跳过误操作的语句
@@ -8648,399 +8562,366 @@ Redis (REmote DIctionary Server) :用 C 语言开发的一个开源的高性
-#### 服务器
+### 查询日志
-* 设置服务器以守护进程的方式运行,关闭后服务器控制台中将打印服务器运行信息(同日志内容相同):
+查询日志中记录了客户端的所有操作语句,而二进制日志不包含查询数据的 SQL 语句
- ```sh
- daemonize yes|no
- ```
+默认情况下,查询日志是未开启的。如果需要开启查询日志,配置 my.cnf:
-* 绑定主机地址,绑定本地IP地址,否则SSH无法访问:
+```sh
+# 该选项用来开启查询日志,可选值0或者1,0代表关闭,1代表开启
+general_log=1
+# 设置日志的文件名,如果没有指定,默认的文件名为host_name.log,存放在/var/lib/mysql
+general_log_file=mysql_query.log
+```
- ```sh
- bind ip
- ```
+配置完毕之后,在数据库执行以下操作:
-* 设置服务器端口:
+```mysql
+SELECT * FROM tb_book;
+SELECT * FROM tb_book WHERE id = 1;
+UPDATE tb_book SET name = 'lucene入门指南' WHERE id = 5;
+SELECT * FROM tb_book WHERE id < 8
+```
- ```sh
- port port
- ```
+执行完毕之后, 再次来查询日志文件:
-* 设置服务器文件保存地址:
+
- ```sh
- dir path
- ```
-* 设置数据库的数量:
- ```sh
- databases 16
- ```
+***
-* 多服务器快捷配置:
- 导入并加载指定配置文件信息,用于快速创建 redis 公共配置较多的 redis 实例配置文件,便于维护
- ```sh
- include /path/conf_name.conf
- ```
+### 慢日志
-
+慢查询日志记录所有执行时间超过 long_query_time 并且扫描记录数不小于 min_examined_row_limit 的所有的 SQL 语句的日志long_query_time 默认为 10 秒,最小为 0, 精度到微秒
-***
+慢查询日志默认是关闭的,可以通过两个参数来控制慢查询日志,配置文件 `/etc/mysql/my.cnf`:
+```sh
+# 该参数用来控制慢查询日志是否开启,可选值0或者1,0代表关闭,1代表开启
+slow_query_log=1
+# 该参数用来指定慢查询日志的文件名,存放在 /var/lib/mysql
+slow_query_log_file=slow_query.log
-#### 客户端
+# 该选项用来配置查询的时间限制,超过这个时间将认为值慢查询,将需要进行日志记录,默认10s
+long_query_time=10
+```
+
+日志读取:
-* 服务器允许客户端连接最大数量,默认0,表示无限制,当客户端连接到达上限后,Redis会拒绝新的连接:
+* 直接通过 cat 指令查询该日志文件:
```sh
- maxclients count
+ cat slow_query.log
```
-* 客户端闲置等待最大时长,达到最大值后关闭对应连接,如需关闭该功能,设置为 0:
+ 
+
+* 如果慢查询日志内容很多,直接查看文件比较繁琐,可以借助 mysql 自带的 mysqldumpslow 工具对慢查询日志进行分类汇总:
```sh
- timeout seconds
+ mysqldumpslow slow_query.log
```
+ 
-***
-#### 日志配置
+***
-* 设置服务器以指定日志记录级别:
- ```sh
- loglevel debug|verbose|notice|warning
- ```
-* 日志记录文件名
+## 范式
- ```sh
- logfile filename
- ```
+### 第一范式
-注意:日志级别开发期设置为 verbose 即可,生产环境中配置为 notice,简化日志输出量,降低写日志IO的频度
+建立科学的,**规范的数据表**就需要满足一些规则来优化数据的设计和存储,这些规则就称为范式
+**1NF:**数据库表的每一列都是不可分割的原子数据项,不能是集合、数组等非原子数据项。即表中的某个列有多个值时,必须拆分为不同的列。简而言之,**第一范式每一列不可再拆分,称为原子性**
+基本表:
-**配置文件:**
+
+
-```sh
-bind 192.168.2.185
-port 6379
-#timeout 0
-daemonize no
-logfile /etc/redis/data/redis-6379.log
-dir /etc/redis/data
-dbfilename "dump-6379.rdb"
-```
+第一范式表:
+
-***
+****
-## 体系结构
-### 存储对象
+### 第二范式
-Redis 使用对象来表示数据库中的键和值,当在 Redis 数据库中新创建一个键值对时至少会创建两个对象,一个对象用作键值对的键(键对象),另一个对象用作键值对的值(值对象)
+**2NF:**在满足第一范式的基础上,非主属性完全依赖于主码(主关键字、主键),消除非主属性对主码的部分函数依赖。简而言之,**表中的每一个字段 (所有列)都完全依赖于主键,记录的唯一性**
-Redis 中对象由一个 redisObject 结构表示,该结构中和保存数据有关的三个属性分别是 type、 encoding、ptr:
+作用:遵守第二范式减少数据冗余,通过主键区分相同数据。
-```c
-typedef struct redisObiect{
- //类型
- unsigned type:4;
- //编码
- unsigned encoding:4;
- //指向底层数据结构的指针
- void *ptr;
-}
-```
+1. 函数依赖:A → B,如果通过 A 属性(属性组)的值,可以确定唯一 B 属性的值,则称 B 依赖于 A
+ * 学号 → 姓名;(学号,课程名称) → 分数
+2. 完全函数依赖:A → B,如果A是一个属性组,则 B 属性值的确定需要依赖于 A 属性组的所有属性值
+ * (学号,课程名称) → 分数
+3. 部分函数依赖:A → B,如果 A 是一个属性组,则 B 属性值的确定只需要依赖于 A 属性组的某些属性值
+ * (学号,课程名称) → 姓名
+4. 传递函数依赖:A → B,B → C,如果通过A属性(属性组)的值,可以确定唯一 B 属性的值,在通过 B 属性(属性组)的值,可以确定唯一 C 属性的值,则称 C 传递函数依赖于 A
+ * 学号 → 系名,系名 → 系主任
+5. 码:如果在一张表中,一个属性或属性组,被其他所有属性所完全依赖,则称这个属性(属性组)为该表的码
+ * 该表中的码:(学号,课程名称)
+ * 主属性:码属性组中的所有属性
+ * 非主属性:除码属性组以外的属性
-Redis 中主要数据结构有:简单动态字符串(SDS)、双端链表、字典、压缩列表、整数集合、跳跃表
+
-Redis 并没有直接使用数据结构来实现键值对数据库,而是基于这些数据结构创建了一个对象系统,包含字符串对象、列表对象、哈希对象、集合对象和有序集合对象这五种类型的对象,而每种对象又通过不同的编码映射到不同的底层数据结构
-Redis 自身是一个 Map,其中所有的数据都是采用 key : value 的形式存储,**键对象都是字符串对象**,而值对象有五种基本类型和三种高级类型对象
-
+****
-***
+### 第三范式
+**3NF:**在满足第二范式的基础上,表中的任何属性不依赖于其它非主属性,消除传递依赖。简而言之,**非主键都直接依赖于主键,而不是通过其它的键来间接依赖于主键**。
+作用:可以通过主键 id 区分相同数据,修改数据的时候只需要修改一张表(方便修改),反之需要修改多表。
-### 线程模型
+
-Redis 基于 Reactor 模式开发了网络事件处理器,这个处理器被称为文件事件处理器(file event handler),这个文件事件处理器是单线程的,所以 Redis 叫做单线程的模型
-文件事件处理器以单线程方式运行,但是使用 I/O 多路复用程序来监听多个套接字,既实现了高性能的网络通信模型,又很好地与 Redis 服务器中其他同样以单线程方式运行的模块进行对接,保持了 Redis 单线程设计的简单性
-工作原理:
-* 文件事件处理器使用 I/O 多路复用(multiplexing)程序来同时监听多个套接字,并根据套接字目前执行的任务来为套接字关联不同的事件处理器
-* 当被监听的套接字准备好执行连接应答 (accept)、读取 (read)、写入 (write)、关闭 (close) 等操作时,与操作相对应的文件事件就会产生,这时文件事件处理器会将处理请求放入**单线程的执行队列**中,等待调用套接字关联好的事件处理器来处理事件
-**Redis 单线程也能高效的原因**:
-* 纯内存操作
-* 核心是基于非阻塞的 IO 多路复用机制,单线程可以高效处理多个请求
-* 底层使用 C 语言实现,C 语言实现的程序距离操作系统更近,执行速度相对会更快
-* 单线程同时也**避免了多线程的上下文频繁切换问题**,预防了多线程可能产生的竞争问题
+***
-****
+### 总结
+
-### 多线程
-Redis6.0 引入多线程主要是为了提高网络 IO 读写性能,因为这是 Redis 的一个性能瓶颈(Redis 的瓶颈主要受限于内存和网络),多线程只是用来**处理网络数据的读写和协议解析**, 执行命令仍然是单线程顺序执行,因此不需要担心线程安全问题。
-Redis6.0 的多线程默认是禁用的,只使用主线程。如需开启需要修改 redis 配置文件 `redis.conf` :
-```sh
-io-threads-do-reads yesCopy to clipboardErrorCopied
-```
-开启多线程后,还需要设置线程数,否则是不生效的,同样需要修改 redis 配置文件 :
-```sh
-io-threads 4 #官网建议4核的机器建议设置为2或3个线程,8核的建议设置为6个线程
-```
-
+***
-参考文章:https://mp.weixin.qq.com/s/dqmiR0ECf4lB6Y2OyK-dyA
+# Redis
-***
+## NoSQL
+### 概述
+NoSQL(Not-Only SQL):泛指非关系型的数据库,作为关系型数据库的补充
+MySQL 支持 ACID 特性,保证可靠性和持久性,读取性能不高,因此需要缓存的来减缓数据库的访问压力
+作用:应对基于海量用户和海量数据前提下的数据处理问题
-## 基本指令
+特征:
-### 操作指令
+* 可扩容,可伸缩,SQL 数据关系过于复杂,Nosql 不存关系,只存数据
+* 大数据量下高性能,数据不存取在磁盘 IO,存取在内存
+* 灵活的数据模型,设计了一些数据存储格式,能保证效率上的提高
+* 高可用,集群
-读写数据:
+常见的 NoSQL:Redis、memcache、HBase、MongoDB
-* 设置 key,value 数据:
- ```sh
- set key value
- #set name seazean
- ```
-* 根据 key 查询对应的 value,如果**不存在,返回空(nil)**:
+参考书籍:https://book.douban.com/subject/25900156/
- ```sh
- get key
- #get name
- ```
+参考视频:https://www.bilibili.com/video/BV1CJ411m7Gc
-帮助信息:
-* 获取命令帮助文档
- ```sh
- help [command]
- #help set
- ```
+***
-* 获取组中所有命令信息名称
- ```sh
- help [@group-name]
- #help @string
- ```
-退出服务
+### Redis
-* 退出客户端:
+Redis (REmote DIctionary Server) :用 C 语言开发的一个开源的高性能键值对(key-value)数据库
- ```sh
- quit
- exit
- ```
+特征:
-* 退出客户端服务器快捷键:
+* 数据间没有必然的关联关系,**不存关系,只存数据**
+* 数据**存储在内存**,存取速度快,解决了磁盘 IO 速度慢的问题
+* 内部采用**单线程**机制进行工作
+* 高性能,官方测试数据,50 个并发执行 100000 个请求,读的速度是 110000 次/s,写的速度是 81000 次/s
+* 多数据类型支持
+ * 字符串类型:string(String)
+ * 列表类型:list(LinkedList)
+ * 散列类型:hash(HashMap)
+ * 集合类型:set(HashSet)
+ * 有序集合类型:zset/sorted_set(TreeSet)
+* 支持持久化,可以进行数据灾难恢复
- ```sh
- Ctrl+C
- ```
-
***
-### key 指令
+### 安装启动
-key 是一个字符串,通过 key 获取 redis 中保存的数据
+安装:
-* 基本操作
+* Redis 5.0 被包含在默认的 Ubuntu 20.04 软件源中
```sh
- del key #删除指定key
- unlink key #非阻塞删除key,真正的删除会在后续异步操作
- exists key #获取key是否存在
- type key #获取key的类型
- sort key [ASC/DESC] #对key中数据排序,默认对数字排序,并不更改集合中的数据位置,只是查询
- sort key alpha #对key中字母排序
- rename key newkey #改名
- renamenx key newkey #改名
+ sudo apt update
+ sudo apt install redis-server
```
-* 时效性控制
+* 检查 Redis 状态
```sh
- expire key seconds #为指定key设置有效期,单位为秒
- pexpire key milliseconds #为指定key设置有效期,单位为毫秒
- expireat key timestamp #为指定key设置有效期,单位为时间戳
- pexpireat key mil-timestamp #为指定key设置有效期,单位为毫秒时间戳
-
- ttl key #获取key的有效时间,每次获取会自动变化(减小),类似于倒计时,
- #-1代表永久性,-2代表不存在/失效
- pttl key #获取key的有效时间,单位是毫秒,每次获取会自动变化(减小)
- persist key #切换key从时效性转换为永久性
+ sudo systemctl status redis-server
```
-* 查询模式
+启动:
+
+* 启动服务器——参数启动
```sh
- keys pattern #查询key
+ redis-server [--port port]
+ #redis-server --port 6379
```
- 查询模式规则:*匹配任意数量的任意符号;?配合一个任意符号;[]匹配一个指定符号
+* 启动服务器——配置文件启动
```sh
- keys * #查询所有key
- keys aa* #查询所有以aa开头
- keys *bb #查询所有以bb结尾
- keys ??cc #查询所有前面两个字符任意,后面以cc结尾
- keys user:? #查询所有以user:开头,最后一个字符任意
- keys u[st]er:1 #查询所有以u开头,以er:1结尾,中间包含一个字母,s或t
+ redis-server config_file_name
+ #redis-server /etc/redis/conf/redis-6397.conf
```
-
-
-
-
-***
+* 启动客户端:
+ ```sh
+ redis-cli [-h host] [-p port]
+ #redis-cli -h 192.168.2.185 -p 6397
+ ```
+ 注意:服务器启动指定端口使用的是--port,客户端启动指定端口使用的是-p
-### DB 指令
-Redis 在使用过程中,随着操作数据量的增加,会出现大量的数据以及对应的 key,数据不区分种类、类别混在一起,容易引起重复或者冲突,所以 Redis 为每个服务提供 16 个数据库,编码 0-15,每个数据库之间相互独立,**共用 **Redis 内存,不区分大小
-* 基本操作
+***
- ```sh
- select index #切换数据库,index从0-15取值
- ping #测试数据库是否连接正常,返回PONG
- echo message #控制台输出信息
- ```
-* 扩展操作
- ```sh
- move key db #数据移动到指定数据库,db是数据库编号
- dbsize #获取当前数据库的数据总量,即key的个数
- flushdb #清除当前数据库的所有数据
- flushall #清除所有数据
- ```
+### 基本配置
+#### 系统目录
+1. 创建文件结构
+ 创建配置文件存储目录
-****
+ ```sh
+ mkdir conf
+ ```
+ 创建服务器文件存储目录(包含日志、数据、临时配置文件等)
+ ```sh
+ mkdir data
+ ```
-### 通信指令
+2. 创建配置文件副本放入 conf 目录,Ubuntu 系统配置文件 redis.conf 在目录 `/etc/redis` 中
-Redis 发布订阅(pub/sub)是一种消息通信模式:发送者(pub)发送消息,订阅者(sub)接收消息。
+ ```sh
+ cat redis.conf | grep -v "#" | grep -v "^$" -> /conf/redis-6379.conf
+ ```
+
+ 去除配置文件的注释和空格,输出到新的文件,命令方式采用 redis-port.conf
-Redis 客户端可以订阅任意数量的频道
-
-操作命令:
+***
-1. 打开一个客户端订阅 channel1:`SUBSCRIBE channel1`
-2. 打开另一个客户端,给 channel1发布消息 hello:`publish channel1 hello`
-3. 第一个客户端可以看到发送的消息
-
-注意:发布的消息没有持久化,所以订阅的客户端只能收到订阅后发布的消息
+#### 服务器
+* 设置服务器以守护进程的方式运行,关闭后服务器控制台中将打印服务器运行信息(同日志内容相同):
+ ```sh
+ daemonize yes|no
+ ```
-****
+* 绑定主机地址,绑定本地IP地址,否则SSH无法访问:
+ ```sh
+ bind ip
+ ```
+* 设置服务器端口:
-### ACL 指令
+ ```sh
+ port port
+ ```
-Redis ACL 是 Access Control List(访问控制列表)的缩写,该功能允许根据可以执行的命令和可以访问的键来限制某些连接
+* 设置服务器文件保存地址:
-
+ ```sh
+ dir path
+ ```
-* acl cat:查看添加权限指令类别
-* acl whoami:查看当前用户
+* 设置数据库的数量:
-* acl setuser username on >password ~cached:* +get:设置有用户名、密码、ACL 权限(只能 get)
+ ```sh
+ databases 16
+ ```
+* 多服务器快捷配置:
+ 导入并加载指定配置文件信息,用于快速创建 redis 公共配置较多的 redis 实例配置文件,便于维护
+ ```sh
+ include /path/conf_name.conf
+ ```
+
***
-## 数据类型
-
-### string
-
-#### 简介
-
-存储的数据:单个数据,最简单的数据存储类型,也是最常用的数据存储类型,实质上是存一个字符串,string 类型是二进制安全的,意味着 Redis 的 string 可以包含任何数据,比如图片或者序列化的对象
+#### 客户端
-存储数据的格式:一个存储空间保存一个数据,每一个空间中只能保存一个字符串信息
+* 服务器允许客户端连接最大数量,默认 0,表示无限制,当客户端连接到达上限后,Redis 会拒绝新的连接:
-存储内容:通常使用字符串,如果字符串以整数的形式展示,可以作为数字操作使用
+ ```sh
+ maxclients count
+ ```
-
+* 客户端闲置等待最大时长,达到最大值后关闭对应连接,如需关闭该功能,设置为 0:
-Redis 所有操作都是**原子性**的,采用**单线程**机制,命令是单个顺序执行,无需考虑并发带来影响,原子性就是有一个失败则都失败
+ ```sh
+ timeout seconds
+ ```
@@ -9048,141 +8929,137 @@ Redis 所有操作都是**原子性**的,采用**单线程**机制,命令是
-#### 操作
+#### 日志配置
-指令操作:
+设置日志记录
-* 数据操作:
+* 设置服务器以指定日志记录级别
```sh
- set key value #添加/修改数据添加/修改数据
- del key #删除数据
- setnx key value #判定性添加数据,键值为空则设添加
- mset k1 v1 k2 v2... #添加/修改多个数据,m:Multiple
- append key value #追加信息到原始信息后部(如果原始信息存在就追加,否则新建)
+ loglevel debug|verbose|notice|warning
```
-* 查询操作
+* 日志记录文件名
```sh
- get key #获取数据
- mget key1 key2... #获取多个数据
- strlen key #获取数据字符个数(字符串长度)
+ logfile filename
```
-* 设置数值数据增加/减少指定范围的值
+注意:日志级别开发期设置为 verbose 即可,生产环境中配置为 notice,简化日志输出量,降低写日志 IO 的频度
- ```sh
- incr key #key++
- incrby key increment #key+increment
- incrbyfloat key increment #对小数操作
- decr key #key--
- decrby key increment #key-increment
- ```
-
-* 设置数据具有指定的生命周期
-
- ```sh
- setex key seconds value #设置key-value存活时间,seconds单位是秒
- psetex key milliseconds value #毫秒级
- ```
-注意事项:
-1. 数据操作不成功的反馈与数据正常操作之间的差异
+**配置文件:**
- * 表示运行结果是否成功
- (integer) 0 → false 失败
+```sh
+bind 192.168.2.185
+port 6379
+#timeout 0
+daemonize no
+logfile /etc/redis/data/redis-6379.log
+dir /etc/redis/data
+dbfilename "dump-6379.rdb"
+```
- (integer) 1 → true 成功
- * 表示运行结果值
- (integer) 3 → 3 3个
- (integer) 1 → 1 1个
+***
-2. 数据未获取到时,对应的数据为(nil),等同于null
-3. **数据最大存储量**:512MB
-4. string 在 redis 内部存储默认就是一个字符串,当遇到增减类操作 incr,decr 时**会转成数值型**进行计算
+#### 基本指令
-5. 按数值进行操作的数据,如果原始数据不能转成数值,或超越了redis 数值上限范围,将报错
- 9223372036854775807(java 中 Long 型数据最大值,Long.MAX_VALUE)
+帮助信息:
-6. redis 可用于控制数据库表主键id,为数据库表主键提供生成策略,保障数据库表的主键唯一性
+* 获取命令帮助文档
+ ```sh
+ help [command]
+ #help set
+ ```
-单数据和多数据的选择:
+* 获取组中所有命令信息名称
-* 单数据执行 3 条指令的过程:3 次发送 + 3 次处理 + 3次返回
-* 多数据执行 1 条指令的过程:1 次发送 + 3 次处理 + 1次返回(发送和返回的事件略高于单数据)
+ ```sh
+ help [@group-name]
+ #help @string
+ ```
-
+退出服务
+* 退出客户端:
+ ```sh
+ quit
+ exit
+ ```
+* 退出客户端服务器快捷键:
+ ```sh
+ Ctrl+C
+ ```
-***
-#### 应用
-主页高频访问信息显示控制,例如新浪微博大 V 主页显示粉丝数与微博数量
-* 在 Redis 中为大 V 用户设定用户信息,以用户主键和属性值作为 key,后台设定定时刷新策略
- ```sh
- set user:id:3506728370:fans 12210947
- set user:id:3506728370:blogs 6164
- set user:id:3506728370:focuses 83
- ```
-* 使用 JSON 格式保存数据
+***
- ```sh
- user:id:3506728370 → {"fans":12210947,"blogs":6164,"focuses":83}
- ```
-* key的设置约定:表名 : 主键名 : 主键值 : 字段名
- | 表名 | 主键名 | 主键值 | 字段名 |
- | ----- | ------ | --------- | ------ |
- | order | id | 29437595 | name |
- | equip | id | 390472345 | type |
- | news | id | 202004150 | title |
+## 数据库
-***
+### 服务器
+Redis 服务器将所有数据库保存在**服务器状态 redisServer 结构**的 db 数组中,数组的每一项都是 redisDb 结构,代表一个数据库,每个数据库之间相互独立,**共用 **Redis 内存,不区分大小。在初始化服务器时,根据 dbnum 属性决定创建数据库的数量,该属性由服务器配置的 database 选项决定,默认 16
+```c
+struct redisServer {
+ // 保存服务器所有的数据库
+ redisDB *db;
+
+ // 服务器数据库的数量
+ int dbnum;
+};
+```
-#### 实现
+
-Redis 字符串对象底层的数据结构实现主要是 int 和简单动态字符串 SDS,是可以修改的字符串,内部结构实现上类似于 Java 的 ArrayList,采用**预分配冗余空间**的方式来减少内存的频繁分配
+**在服务器内部**,客户端状态 redisClient 结构的 db 属性记录了目标数据库,是一个指向 redisDb 结构的指针
```c
-struct sdshdr{
- //记录buf数组中已使用字节的数量
- //等于 SDS 保存字符串的长度
- int len;
- //记录 buf 数组中未使用字节的数量
- int free;
- //字节数组,用于保存字符串
- char buf[];
-}
+struct redisClient {
+ // 记录客户端正在使用的数据库,指向 redisServer.db 数组中的某一个 db
+ redisDB *db;
+};
```
-
+每个 Redis 客户端都有目标数据库,执行数据库读写命令时目标数据库就会成为这些命令的操作对象,默认情况下 Redis 客户端的目标数据库为 0 号数据库,客户端可以执行 SELECT 命令切换目标数据库,原理是通过修改 redisClient.db 指针指向服务器中不同数据库
+
+命令操作:
+
+```sh
+select index #切换数据库,index从0-15取值
+move key db #数据移动到指定数据库,db是数据库编号
+ping #测试数据库是否连接正常,返回PONG
+echo message #控制台输出信息
+```
-内部为当前字符串实际分配的空间 capacity 一般要高于实际字符串长度 len,当字符串长度小于 1M 时,扩容都是双倍现有的空间,如果超过 1M,扩容时一次只会多扩 1M 的空间,需要注意的是字符串最大长度为 512M
+Redis 没有可以返回客户端目标数据库的命令,但是 redis-cli 客户端旁边会提示当前所使用的目标数据库
+```sh
+redis> SELECT 1
+OK
+redis[1]>
+```
-详解请参考文章:https://www.cnblogs.com/hunternet/p/9957913.html
@@ -9190,24 +9067,34 @@ struct sdshdr{
-### hash
+### 键空间
-#### 简介
+#### key space
-数据存储需求:对一系列存储的数据进行编组,方便管理,典型应用存储对象信息
+Redis 是一个键值对(key-value pair)数据库服务器,每个数据库都由一个 redisDb 结构表示,redisDb.dict **字典中保存了数据库的所有键值对**,将这个字典称为键空间(key space)
-数据存储结构:一个存储空间保存多个键值对数据
+```c
+typedef struct redisDB {
+ // 数据库键空间,保存所有键值对
+ dict *dict
+} redisDB;
+```
-hash 类型:底层使用**哈希表**结构实现数据存储
+键空间和用户所见的数据库是直接对应的:
-
+* 键空间的键就是数据库的键,每个键都是一个字符串对象
+* 键空间的值就是数据库的值,每个值可以是任意一种 Redis 对象
-Redis 中的 hash 类似于 Java 中的 `Map>`,左边是 key,右边是值,中间叫 field 字段,本质上 **hash 存了一个 key-value 的存储空间**
+
-hash 是指的一个数据类型,并不是一个数据
+当使用 Redis 命令对数据库进行读写时,服务器不仅会对键空间执行指定的读写操作,还会**进行一些维护操作**:
-* 如果 field 数量较少,存储结构优化为**压缩列表结构**(有序)
-* 如果 field 数量较多,存储结构使用 HashMap 结构(无序)
+* 在读取一个键后(读操作和写操作都要对键进行读取),服务器会根据键是否存在来更新服务器的键空间命中 hit 次数或键空间不命中 miss 次数,这两个值可以在 `INFO stats` 命令的 keyspace_hits 属性和 keyspace_misses 属性中查看
+* 更新键的 LRU(最后使用)时间,该值可以用于计算键的闲置时间,使用 `OBJECT idletime key` 查看键 key 的闲置时间
+* 如果在读取一个键时发现该键已经过期,服务器会**先删除过期键**,再执行其他操作
+* 如果客户端使用 WATCH 命令监视了某个键,那么服务器在对被监视的键进行修改之后,会将这个键标记为脏(dirty),从而让事务注意到这个键已经被修改过
+* 服务器每次修改一个键之后,都会对 dirty 键计数器的值增1,该计数器会触发服务器的持久化以及复制操作
+* 如果服务器开启了数据库通知功能,那么在对键进行修改之后,服务器将按配置发送相应的数据库通知
@@ -9215,50 +9102,65 @@ hash 是指的一个数据类型,并不是一个数据
-#### 操作
+#### 读写指令
-指令操作:
+常见键操作指令:
-* 数据操作
+* 增加指令
```sh
- hset key field value #添加/修改数据
- hdel key field1 [field2] #删除数据,[]代表可选
- hsetnx key field value #设置field的值,如果该field存在则不做任何操作
- hmset key f1 v1 f2 v2... #添加/修改多个数据
+ set key value #添加一个字符串类型的键值对
+
+* 删除指令
+
+ ```sh
+ del key #删除指定key
+ unlink key #非阻塞删除key,真正的删除会在后续异步操作
```
-* 查询操作
+* 更新指令
```sh
- hget key field #获取指定field对应数据
- hgetall key #获取指定key所有数据
- hmget key field1 field2... #获取多个数据
- hexists key field #获取哈希表中是否存在指定的字段
- hlen key #获取哈希表中字段的数量
+ rename key newkey #改名
+ renamenx key newkey #改名
```
-* 获取哈希表中所有的字段名或字段值
+ 值得更新需要参看具体得 Redis 对象得操作方式,比如字符串对象执行 `SET key value` 就可以完成修改
+
+* 查询指令
```sh
- hkeys key #获取所有的field
- hvals key #获取所有的value
+ exists key #获取key是否存在
+ randomkey #随机返回一个键
+ keys pattern #查询key
```
-* 设置指定字段的数值数据增加指定范围的值
+ KEYS 命令需要**遍历存储的键值对**,操作延时高,一般不被建议用于生产环境中
+ 查询模式规则:* 匹配任意数量的任意符号、? 配合一个任意符号、[] 匹配一个指定符号
+
```sh
- hincrby key field increment #指定字段的数值数据增加指定的值,increment为负数则减少
- hincrbyfloat key field increment#操作小数
+ keys * #查询所有key
+ keys aa* #查询所有以aa开头
+ keys *bb #查询所有以bb结尾
+ keys ??cc #查询所有前面两个字符任意,后面以cc结尾
+ keys user:? #查询所有以user:开头,最后一个字符任意
+ keys u[st]er:1 #查询所有以u开头,以er:1结尾,中间包含一个字母,s或t
```
-注意事项
+* 其他指令
+
+ ```sh
+ type key #获取key的类型
+ dbsize #获取当前数据库的数据总量,即key的个数
+ flushdb #清除当前数据库的所有数据(慎用)
+ flushall #清除所有数据(慎用)
+ ```
+
+ 在执行 FLUSHDB 这样的危险命令之前,最好先执行一个 SELECT 命令,保证当前所操作的数据库是目标数据库
+
-1. hash 类型中 value 只能存储字符串,不允许存储其他数据类型,不存在嵌套现象,如果数据未获取到,对应的值为(nil)
-2. 每个 hash 可以存储 2^32 - 1 个键值对
-3. hash 类型和对象的数据存储形式相似,并且可以灵活添加删除对象属性。但 hash 设计初衷不是为了存储大量对象而设计的,不可滥用,不可将 hash 作为对象列表使用
-4. hgetall 操作可以获取全部属性,如果内部 field 过多,遍历整体数据效率就很会低,有可能成为数据访问瓶颈
@@ -9266,85 +9168,125 @@ hash 是指的一个数据类型,并不是一个数据
-#### 应用
+#### 时效设置
+
+客户端可以以秒或毫秒的精度为数据库中的某个键设置生存时间(TimeTo Live, TTL),在经过指定时间之后,服务器就会自动删除生存时间为 0 的键;也可以以 UNIX 时间戳的方式设置过期时间(expire time),当键的过期时间到达,服务器会自动删除这个键
```sh
-user:id:3506728370 → {"name":"春晚","fans":12210862,"blogs":83}
+expire key seconds #为指定key设置生存时间,单位为秒
+pexpire key milliseconds #为指定key设置生存时间,单位为毫秒
+expireat key timestamp #为指定key设置过期时间,单位为时间戳
+pexpireat key mil-timestamp #为指定key设置过期时间,单位为毫秒时间戳
```
-对于以上数据,使用单条去存的话,存的条数会很多。但如果用 json 格式,存一条数据就够了。
-
-假如现在粉丝数量发生了变化,要把整个值都改变,但是用单条存就不存在这个问题,只需要改其中一个就可以
-
-
+* 实际上 EXPIRE、EXPIRE、EXPIREAT 三个命令**底层都是转换为 PEXPIREAT 命令**来实现的
+* SETEX 命令可以在设置一个字符串键的同时为键设置过期时间,但是该命令是一个类型限定命令
-可以实现购物车的功能,key 对应着每个用户,存储空间存储购物车的信息
+redisDb 结构的 expires 字典保存了数据库中所有键的过期时间,字典称为过期字典:
+* 键是一个指针,指向键空间中的某个键对象(复用键空间的对象,不会产生内存浪费)
+* 值是一个 long long 类型的整数,保存了键的过期时间,是一个毫秒精度的 UNIX 时间戳
+```c
+typedef struct redisDB {
+ // 过期字典,保存所有键的过期时间
+ dict *expires
+} redisDB;
+```
-***
+客户端执行 PEXPIREAT 命令,服务器会在数据库的过期字典中关联给定的数据库键和过期时间:
+
+```python
+def PEXPIREAT(key, expire_time_in_ms):
+ # 如果给定的键不存在于键空间,那么不能设置过期时间
+ if key not in redisDb.dict:
+ return 0
+
+ # 在过期字典中关联键和过期时间
+ redisDB.expires[key] = expire_time_in_ms
+
+ # 过期时间设置成功
+ return 1
+```
-#### 实现
+****
-##### 底层结构
-哈希类型的内部编码有两种:ziplist(压缩列表)、hashtable(哈希表、字典)
-当存储的数据量比较小的情况下,Redis 才使用压缩列表来实现字典类型,具体需要满足两个条件:
+#### 时效状态
-- 当键值对个数小于 hash-max-ziplist-entries 配置(默认 512 个)
-- 所有键值都小于 hash-max-ziplist-value 配置(默认 64 字节)
+TTL 和 PTTL 命令通过计算键的过期时间和当前时间之间的差,返回这个键的剩余生存时间
-ziplist 使用更加紧凑的结构实现多个元素的连续存储,所以在节省内存方面比 hashtable 更加优秀,当 ziplist 无法满足哈希类型时,Redis 会使用 hashtable 作为哈希的内部实现,因为此时 ziplist 的读写效率会下降,而 hashtable 的读写时间复杂度为 O(1)
+* 返回正数代表该数据在内存中还能存活的时间
+* 返回 -1 代表永久性,返回 -2 代表键不存在
+```sh
+ttl key #获取key的剩余时间,每次获取会自动变化(减小),类似于倒计时
+pttl key #获取key的剩余时间,单位是毫秒,每次获取会自动变化(减小)
+```
+PERSIST 是 PEXPIREAT 命令的反操作,在过期字典中查找给定的键,并解除键和值(过期时间)在过期字典中的关联
-****
+```sh
+persist key #切换key从时效性转换为永久性
+```
+Redis 通过过期字典可以检查一个给定键是否过期:
+* 检查给定键是否存在于过期字典:如果存在,那么取得键的过期时间
+* 检查当前 UNIX 时间戳是否大于键的过期时间:如果是那么键已经过期,否则键未过期
-##### 压缩列表
+补充:AOF、RDB 和复制功能对过期键的处理
-压缩列表(ziplist)是列表和哈希的底层实现之一,压缩列表用来紧凑数据存储,节省内存,有序:
+* RDB :
+ * 生成 RDB 文件,程序会对数据库中的键进行检查,已过期的键不会被保存到新创建的 RDB 文件中
+ * 载入 RDB 文件,如果服务器以主服务器模式运行,那么在载入时会对键进行检查,过期键会被忽略;如果服务器以从服务器模式运行,会载入所有键,包括过期键,但是主从服务器进行数据同步时就会删除这些键
+* AOF:
+ * 写入 AOF 文件,如果数据库中的某个键已经过期,但还没有被删除,那么 AOF 文件不会因为这个过期键而产生任何影响;当该过期键被删除,程序会向 AOF 文件追加一条 DEL 命令,显式的删除该键
+ * AOF 重写,会对数据库中的键进行检查,忽略已经过期的键
+* 复制:当服务器运行在复制模式下时,从服务器的过期键删除动作由主服务器控制
+ * 主服务器在删除一个过期键之后,会显式地向所有从服务器发送一个 DEL 命令,告知从服务器删除这个过期键
+ * 从服务器在执行客户端发送的读命令时,即使碰到过期键也不会将过期键删除,会当作未过期键处理,只有在接到主服务器发来的 DEL 命令之后,才会删除过期键(数据不一致)
-
-压缩列表是由一系列特殊编码的连续内存块组成的顺序型(sequential)数据结枃,一个压缩列表可以包含任意多个节点(entry),每个节点可以保存一个字节数组或者一个整数值
-***
+****
-##### 哈希表
+### 过期删除
-Redis 字典使用散列表为底层实现,一个散列表里面有多个散列表节点,每个散列表节点就保存了字典中的一个键值对,发生哈希冲突采用链表法解决,存储无序
+#### 删除策略
-* 为了避免散列表性能的下降,当装载因子大于 1 的时候,Redis 会触发扩容,将散列表扩大为原来大小的 2 倍左右
-* 当数据动态减少之后,为了节省内存,当装载因子小于 0.1 的时候,Redis 就会触发缩容,缩小为字典中数据个数的 50 % 左右
+删除策略就是**针对已过期数据的处理策略**,已过期的数据不一定被立即删除,在不同的场景下使用不同的删除方式会有不同效果,在内存占用与 CPU 占用之间寻找一种平衡,顾此失彼都会造成整体 Redis 性能的下降,甚至引发服务器宕机或内存泄露
+针对过期数据有三种删除策略:
+- 定时删除
+- 惰性删除(被动删除)
+- 定期删除
-***
+Redis 采用惰性删除和定期删除策略的结合使用
-### list
+***
-#### 简介
-数据存储需求:存储多个数据,并对数据进入存储空间的顺序进行区分
-数据存储结构:一个存储空间保存多个数据,且通过数据可以体现进入顺序,允许重复元素
+#### 定时删除
-list 类型:保存多个数据,底层使用**双向链表**存储结构实现,类似于 LinkedList
+在设置键的过期时间的同时,创建一个定时器(timer),让定时器在键的过期时间到达时,立即执行对键的删除操作
-
+- 优点:节约内存,到时就删除,快速释放掉不必要的内存占用
+- 缺点:对 CPU 不友好,无论 CPU 此时负载多高均占用 CPU,会影响 Redis 服务器响应时间和指令吞吐量
+- 总结:用处理器性能换取存储空间(拿时间换空间)
-如果两端都能存取数据的话,这就是双端队列,如果只能从一端进一端出,这个模型叫栈
+创建一个定时器需要用到 Redis 服务器中的时间事件,而时间事件的实现方式是无序链表,查找一个事件的时间复杂度为 O(N),并不能高效地处理大量时间事件,所以采用这种方式并不现实
@@ -9352,86 +9294,70 @@ list 类型:保存多个数据,底层使用**双向链表**存储结构实
-#### 操作
+#### 惰性删除
-指令操作:
+数据到达过期时间不做处理,等下次访问到该数据时执行 **expireIfNeeded()** 判断:
-* 数据操作
+* 如果输入键已经过期,那么 expireIfNeeded 函数将输入键从数据库中删除,接着访问就会返回空
+* 如果输入键未过期,那么 expireIfNeeded 函数不做动作
- ```sh
- lpush key value1 [value2]...#从左边添加/修改数据
- rpush key value1 [value2]...#从右边添加/修改数据
- lpop key #从左边获取并移除第一个数据,类似于出栈/出队
- rpop key #从右边获取并移除第一个数据
- lrem key count value #删除指定数据,count=2删除2个,该value可能有多个(重复数据)
- ```
+所有的 Redis 读写命令在执行前都会调用 expireIfNeeded 函数进行检查,该函数就像一个过滤器,在命令真正执行之前过滤掉过期键
-* 查询操作
+惰性删除的特点:
- ```sh
- lrange key start stop #从左边遍历数据并指定开始和结束索引,0是第一个索引,-1是终索引
- lindex key index #获取指定索引数据,没有则为nil,没有索引越界
- llen key #list中数据长度/个数
- ```
+* 优点:节约 CPU 性能,删除的目标仅限于当前处理的键,不会在删除其他无关的过期键上花费任何 CPU 时间
+* 缺点:内存压力很大,出现长期占用内存的数据,如果过期键永远不被访问,这种情况相当于内存泄漏
+* 总结:用存储空间换取处理器性能(拿空间换时间)
-* 规定时间内获取并移除数据
- ```sh
- b #代表阻塞
- blpop key1 [key2] timeout #在指定时间内获取指定key(可以多个)的数据,超时则为(nil)
- #可以从其他客户端写数据,当前客户端阻塞读取数据
- brpop key1 [key2] timeout #从右边操作
- ```
-
-* 复制操作
- ```sh
- brpoplpush source destination timeout #从source获取数据放入destination,假如在指定时间内没有任何元素被弹出,则返回一个nil和等待时长。反之,返回一个含有两个元素的列表,第一个元素是被弹出元素的值,第二个元素是等待时长
- ```
+***
-注意事项
-1. list 中保存的数据都是 string 类型的,数据总容量是有限的,最多 2^32 - 1 个元素(4294967295)
-2. list 具有索引的概念,但操作数据时通常以队列的形式进行入队出队,或以栈的形式进行入栈出栈
-3. 获取全部数据操作结束索引设置为 -1
-4. list 可以对数据进行分页操作,通常第一页的信息来自于 list,第 2 页及更多的信息通过数据库的形式加载
+#### 定期删除
+定期删除策略是每隔一段时间执行一次删除过期键操作,并通过限制删除操作执行的时长和频率来减少删除操作对 CPU 时间的影响
-***
+* 如果删除操作执行得太频繁,或者执行时间太长,就会退化成定时删除策略,将 CPU 时间过多地消耗在删除过期键上
+* 如果删除操作执行得太少,或者执行时间太短,定期删除策略又会和惰性删除策略一样,出现浪费内存的情况
+定期删除是**周期性轮询 Redis 库中的时效性**数据,从过期字典中随机抽取一部分键检查,利用过期数据占比的方式控制删除频度
+- Redis 启动服务器初始化时,读取配置 server.hz 的值,默认为 10,执行指令 info server 可以查看,每秒钟执行 server.hz 次 `serverCron() → activeExpireCycle()`
-#### 应用
+- activeExpireCycle() 对某个数据库中的每个 expires 进行检测,工作模式:
-企业运营过程中,系统将产生出大量的运营数据,如何保障多台服务器操作日志的统一顺序输出?
+ * 轮询每个数据库,从数据库中取出一定数量的随机键进行检查,并删除其中的过期键,如果过期 key 的比例超过了 25%,则继续重复此过程,直到过期 key 的比例下降到 25% 以下,或者这次任务的执行耗时超过了 25 毫秒
-* 依赖 list 的数据具有顺序的特征对信息进行管理,右进左查或者左近左查
-* 使用队列模型解决多路信息汇总合并的问题
-* 使用栈模型解决最新消息的问题
+ * 全局变量 current_db 用于记录 activeExpireCycle() 的检查进度(哪一个数据库),下一次调用时接着该进度处理
+ * 随着函数的不断执行,服务器中的所有数据库都会被检查一遍,这时将 current_db 重置为 0,然后再次开始新一轮的检查
-微信文章订阅公众号:
+定期删除特点:
+
+- CPU 性能占用设置有峰值,检测频度可自定义设置
+- 内存压力不是很大,长期占用内存的**冷数据会被持续清理**
+- 周期性抽查存储空间(随机抽查,重点抽查)
-* 比如订阅了两个公众号,它们发布了两篇文章,文章 ID 分别为 666 和 888,可以通过执行 `LPUSH key 666 888` 命令推送给我
-****
+***
-#### 实现
-##### 底层结构
+### 数据淘汰
-在 Redis3.2 版本以前列表类型的内部编码有两种:ziplist(压缩列表)和 linkedlist(链表)
+#### 逐出算法
-列表中存储的数据量比较小的时候,列表就会使用一块连续的内存存储,采用压缩列表的方式实现:
+数据淘汰策略:当新数据进入 Redis 时,在执行每一个命令前,会调用 **freeMemoryIfNeeded()** 检测内存是否充足。如果内存不满足新加入数据的最低存储要求,Redis 要临时删除一些数据为当前指令清理存储空间,清理数据的策略称为**逐出算法**
-* 列表中保存的单个数据(有可能是字符串类型的)小于 64 字节
-* 列表中数据个数少于 512 个
+逐出数据的过程不是 100% 能够清理出足够的可使用的内存空间,如果不成功则反复执行,当对所有数据尝试完毕,如不能达到内存清理的要求,**出现 Redis 内存打满异常**:
-在 Redis3.2 版本 以后对列表数据结构进行了改造,使用 **quicklist(快速列表)**代替了 linkedlist
+```sh
+(error) OOM command not allowed when used memory >'maxmemory'
+```
@@ -9439,38 +9365,63 @@ list 类型:保存多个数据,底层使用**双向链表**存储结构实
-##### 链表结构
+#### 策略配置
-Redis 链表为**双向无环链表**,使用 listNode 结构表示
+Redis 如果不设置最大内存大小或者设置最大内存大小为 0,在 64 位操作系统下不限制内存大小,在 32 位操作系统默认为 3GB 内存,一般推荐设置 Redis 内存为最大物理内存的四分之三
-```c
-typedef struct listNode
-{
- // 前置节点
- struct listNode *prev;
- // 后置节点
- struct listNode *next;
- // 节点的值
- void *value;
-} listNode;
-```
+内存配置方式:
-
+* 通过修改文件配置(永久生效):修改配置文件 maxmemory 字段,单位为字节
-- 双向:链表节点带有前驱、后继指针,获取某个节点的前驱、后继节点的时间复杂度为 O(1)
-- 无环:链表为非循环链表,表头节点的前驱指针和表尾节点的后继指针都指向 NULL,对链表的访问以 NULL 为终点
+* 通过命令修改(重启失效):
+ * `config set maxmemory 104857600`:设置 Redis 最大占用内存为 100MB
+ * `config get maxmemory`:获取 Redis 最大占用内存
+ * `info` :可以查看 Redis 内存使用情况,`used_memory_human` 字段表示实际已经占用的内存,`maxmemory` 表示最大占用内存
-***
+影响数据淘汰的相关配置如下,配置 conf 文件:
+* 每次选取待删除数据的个数,采用随机获取数据的方式作为待检测删除数据,防止全库扫描,导致严重的性能消耗,降低读写性能
+ ```sh
+ maxmemory-samples count
+ ```
-##### 快速列表
+* 达到最大内存后的,对被挑选出来的数据进行删除的策略
+
+ ```sh
+ maxmemory-policy policy
+ ```
+
+ 数据删除的策略 policy:3 类 8 种
+
+ 第一类:检测易失数据(可能会过期的数据集 server.db[i].expires):
+
+ ```sh
+ volatile-lru # 对设置了过期时间的 key 选择最近最久未使用使用的数据淘汰
+ volatile-lfu # 对设置了过期时间的 key 选择最近使用次数最少的数据淘汰
+ volatile-ttl # 对设置了过期时间的 key 选择将要过期的数据淘汰
+ volatile-random # 对设置了过期时间的 key 选择任意数据淘汰
+ ```
+
+ 第二类:检测全库数据(所有数据集 server.db[i].dict ):
+
+ ```sh
+ allkeys-lru # 对所有 key 选择最近最少使用的数据淘汰
+ allkeLyRs-lfu # 对所有 key 选择最近使用次数最少的数据淘汰
+ allkeys-random # 对所有 key 选择任意数据淘汰,相当于随机
+ ```
+
+ 第三类:放弃数据驱逐
+
+ ```sh
+ no-enviction #禁止驱逐数据(redis4.0中默认策略),会引发OOM(Out Of Memory)
+ ```
+
+数据淘汰策略配置依据:使用 INFO 命令输出监控信息,查询缓存 hit 和 miss 的次数,根据需求调优 Redis 配置
-quicklist 实际上是 ziplist 和 linkedlist 的混合体,将 linkedlist 按段切分,每一段使用 ziplist 来紧凑存储,多个 ziplist 之间使用双向指针串接起来,既满足了快速的插入删除性能,又不会出现太大的空间冗余
-
@@ -9478,17 +9429,18 @@ quicklist 实际上是 ziplist 和 linkedlist 的混合体,将 linkedlist 按
-### set
+### 排序机制
-#### 简介
+#### 基本介绍
-数据存储需求:存储大量的数据,在查询方面提供更高的效率
+Redis 的 SORT 命令可以对列表键、集合键或者有序集合键的值进行排序,并不更改集合中的数据位置,只是查询
-数据存储结构:能够保存大量的数据,高效的内部存储机制,便于查询
+```sh
+SORT key [ASC/DESC] #对key中数据排序,默认对数字排序,并不更改集合中的数据位置,只是查询
+SORT key ALPHA #对key中字母排序,按照字典序
+```
-set 类型:与 hash 存储结构哈希表完全相同,只是仅存储键不存储值(nil),所以添加,删除,查找的复杂度都是 O(1),并且**值是不允许重复且无序的**
-
@@ -9496,74 +9448,81 @@ set 类型:与 hash 存储结构哈希表完全相同,只是仅存储键不
-#### 操作
+#### SORT
-指令操作:
+`SORT ` 命令可以对一个包含数字值的键 key 进行排序
-* 数据操作
+假设 `RPUSH numbers 3 1 2`,执行 `SORT numbers` 的详细步骤:
- ```sh
- sadd key member1 [member2] #添加数据
- srem key member1 [member2] #删除数据
- ```
-
-* 查询操作
+* 创建一个和 key 列表长度相同的数组,数组每项都是 redisSortObject 结构
- ```sh
- smembers key #获取全部数据
- scard key #获取集合数据总量
- sismember key member #判断集合中是否包含指定数据
+ ```c
+ typedef struct redisSortObject {
+ // 被排序键的值
+ robj *obj;
+
+ // 权重
+ union {
+ // 排序数字值时使用
+ double score;
+ // 排序带有 BY 选项的字符串
+ robj *cmpobj;
+ } u;
+ }
```
-* 随机操作
-
- ```sh
- spop key [count] #随机获取集中的某个数据并将该数据移除集合
- srandmember key [count] #随机获取集合中指定(数量)的数据
+* 遍历数组,将各个数组项的 obj 指针分别指向 numbers 列表的各个项
-* 集合的交、并、差
+* 遍历数组,将 obj 指针所指向的列表项转换成一个 double 类型的浮点数,并将浮点数保存在对应数组项的 u.score 属性里
- ```sh
- sinter key1 [key2...] #两个集合的交集,不存在为(empty list or set)
- sunion key1 [key2...] #两个集合的并集
- sdiff key1 [key2...] #两个集合的差集
-
- sinterstore destination key1 [key2...] #两个集合的交集并存储到指定集合中
- sunionstore destination key1 [key2...] #两个集合的并集并存储到指定集合中
- sdiffstore destination key1 [key2...] #两个集合的差集并存储到指定集合中
- ```
+* 根据数组项 u.score 属性的值,对数组进行数字值排序,排序后的数组项按 u.score 属性的值**从小到大排列**
-* 复制
+* 遍历数组,将各个数组项的 obj 指针所指向的值作为排序结果返回给客户端,程序首先访问数组的索引 0,依次向后访问
- ```sh
- smove source destination member #将指定数据从原始集合中移动到目标集合中
- ```
+
+对于 `SORT key [ASC/DESC]` 函数:
-注意事项
+* 在执行升序排序时,排序算法使用的对比函数产生升序对比结果
+* 在执行降序排序时,排序算法使用的对比函数产生降序对比结果
-1. set 类型不允许数据重复,如果添加的数据在 set 中已经存在,将只保留一份
-2. set 虽然与 hash 的存储结构相同,但是无法启用 hash 中存储值的空间
+****
-***
+#### BY
-#### 应用
+SORT 命令默认使用被排序键中包含的元素作为排序的权重,元素本身决定了元素在排序之后所处的位置,通过使用 BY 选项,SORT 命令可以指定某些字符串键,或者某个哈希键所包含的某些域(field)来作为元素的权重,对一个键进行排序
-应用场景:
+```sh
+SORT BY # 数值
+SORT BY ALPHA # 字符
+```
-1. 黑名单:资讯类信息类网站追求高访问量,但是由于其信息的价值,往往容易被不法分子利用,通过爬虫技术,快速获取信息,个别特种行业网站信息通过爬虫获取分析后,可以转换成商业机密。
+```sh
+redis> SADD fruits "apple" "banana" "cherry"
+(integer) 3
+redis> SORT fruits ALPHA
+1) "apple"
+2) "banana"
+3) "cherry"
+```
- 注意:爬虫不一定做摧毁性的工作,有些小型网站需要爬虫为其带来一些流量。
+```sh
+redis> MSET apple-price 8 banana-price 5.5 cherry-price 7
+OK
+# 使用水果的价钱进行排序
+redis> SORT fruits BY *-price
+1) "banana"
+2) "cherry"
+3) "apple"
+```
-2. 白名单:对于安全性更高的应用访问,仅仅靠黑名单是不能解决安全问题的,此时需要设定可访问的用户群体, 依赖白名单做更为苛刻的访问验证
+实现原理:排序时的 u.score 属性就会被设置为对应的权重
-3. 随机操作可以实现抽奖功能
-4. 集合的交并补可以实现微博共同关注的查看,可以根据共同关注或者共同喜欢推荐相关内容
@@ -9571,15 +9530,26 @@ set 类型:与 hash 存储结构哈希表完全相同,只是仅存储键不
-#### 实现
+#### LIMIT
+
+SORT 命令默认会将排序后的所有元素都返回给客户端,通过 LIMIT 选项可以让 SORT 命令只返回其中一部分已排序的元素
-集合类型的内部编码有两种:
+```sh
+LIMIT
+```
-* intset(整数集合):当集合中的元素都是整数且元素个数小于 set-maxintset-entries配置(默认 512 个)时,Redis 会选用 intset 来作为集合的内部实现,从而减少内存的使用
+* offset 参数表示要跳过的已排序元素数量
+* count 参数表示跳过给定数量的元素后,要返回的已排序元素数量
-* hashtable(哈希表,字典):当无法满足 intset 条件时,Redis 会使用 hashtable 作为集合的内部实现
+```sh
+# 对应 a b c d e f g
+redis> SORT alphabet ALPHA LIMIT 2 3
+1) "c"
+2) "d"
+3) "e"
+```
-整数集合(intset)是 Redis 用于保存整数值的集合抽象数据结构,可以保存类型为 int16_t、int32_t 或者 int64_t 的整数值,并且保证集合中的元素是**有序不重复**的
+实现原理:在排序后的 redisSortObject 结构数组中,将指针移动到数组的索引 2 上,依次访问 array[2]、array[3]、array[4] 这 3 个数组项,并将数组项的 obj 指针所指向的元素返回给客户端
@@ -9589,82 +9559,84 @@ set 类型:与 hash 存储结构哈希表完全相同,只是仅存储键不
-### sorted
+#### GET
-#### 简介
+SORT 命令默认在对键进行排序后,返回被排序键本身所包含的元素,通过使用 GET 选项, 可以在对键进行排序后,根据被排序的元素以及 GET 选项所指定的模式,查找并返回某些键的值
-数据存储需求:数据排序有利于数据的有效展示,需要提供一种可以根据自身特征进行排序的方式
+```sh
+SORT GET
+```
-数据存储结构:新的存储模型,可以保存可排序的数据
+```sh
+redis> SADD students "tom" "jack" "sea"
+#设置全名
+redis> SET tom-name "Tom Li"
+OK
+redis> SET jack-name "Jack Wang"
+OK
+redis> SET sea-name "Sea Zhang"
+OK
+```
-sorted_set类型:在 set 的存储结构基础上添加可排序字段,类似于 TreeSet
+```sh
+redis> SORT students ALPHA GET *-name
+1) "Jack Wang"
+2) "Sea Zhang"
+3) "Tom Li"
+```
-
+实现原理:对 students 进行排序后,对于 jack 元素和 *-name 模式,查找程序返回键 jack-name,然后获取 jack-name 键对应的值
-****
+***
-#### 操作
-指令操作:
-* 数据操作
+#### STORE
- ```sh
- zadd key score1 member1 [score2 member2] #添加数据
- zrem key member [member ...] #删除数据
- zremrangebyrank key start stop #删除指定索引范围的数据
- zremrangebyscore key min max #删除指定分数区间内的数据
- zscore key member #获取指定值的分数
- zincrby key increment member #指定值的分数增加increment
- ```
+SORT 命令默认只向客户端返回排序结果,而不保存排序结果,通过使用 STORE 选项可以将排序结果保存在指定的键里面
-* 查询操作
+```sh
+SORT STORE
+```
- ```sh
- zrange key start stop [WITHSCORES] #获取指定范围的数据,升序,WITHSCORES 代表显示分数
- zrevrange key start stop [WITHSCORES] #获取指定范围的数据,降序
-
- zrangebyscore key min max [WITHSCORES] [LIMIT offset count] #按条件获取数据,从小到大
- zrevrangebyscore key max min [WITHSCORES] [...] #从大到小
-
- zcard key #获取集合数据的总量
- zcount key min max #获取指定分数区间内的数据总量
- zrank key member #获取数据对应的索引(排名)升序
- zrevrank key member #获取数据对应的索引(排名)降序
- ```
+```sh
+redis> SADD students "tom" "jack" "sea"
+(integer) 3
+redis> SORT students ALPHA STORE sorted_students
+(integer) 3
+```
- * min 与 max 用于限定搜索查询的条件
- * start 与 stop 用于限定查询范围,作用于索引,表示开始和结束索引
- * offset 与 count 用于限定查询范围,作用于查询结果,表示开始位置和数据总量
+实现原理:排序后,检查 sorted_students 键是否存在,如果存在就删除该键,设置 sorted_students 为空白的列表键,遍历排序数组将元素依次放入
-* 集合的交、并操作
- ```sh
- zinterstore destination numkeys key [key ...] #两个集合的交集并存储到指定集合中
- zunionstore destination numkeys key [key ...] #两个集合的并集并存储到指定集合中
- ```
-注意事项:
-1. score 保存的数据存储空间是 64 位,如果是整数范围是 -9007199254740992~9007199254740992
-2. score 保存的数据也可以是一个双精度的 double 值,基于双精度浮点数的特征可能会丢失精度,慎重使用
-3. sorted_set 底层存储还是基于 set 结构的,因此数据不能重复,如果重复添加相同的数据,score 值将被反复覆盖,保留最后一次修改的结果
+
+***
-***
+#### 执行顺序
+调用 SORT 命令,除了 GET 选项之外,改变其他选项的摆放顺序并不会影响命令执行选项的顺序
+```sh
+SORT ALPHA [ASC/DESC] BY LIMIT GET STORE
+```
+
+执行顺序:
+
+* 排序:命令会使用 ALPHA 、ASC 或 DESC、BY 这几个选项,对输入键进行排序,并得到一个排序结果集
+* 限制排序结果集的长度:使用 LIMIT 选项,对排序结果集的长度进行限制
+* 获取外部键:根据排序结果集中的元素以及 GET 选项指定的模式,查找并获取指定键的值,并用这些值来作为新的排序结果集
+* 保存排序结果集:使用 STORE 选项,将排序结果集保存到指定的键上面去
+* 向客户端返回排序结果集:最后一步命令遍历排序结果集,并依次向客户端返回排序结果集中的元素
-#### 应用
-* 排行榜
-* 对于基于时间线限定的任务处理,将处理时间记录为 score 值,利用排序功能区分处理的先后顺序
-* 当任务或者消息待处理,形成了任务队列或消息队列时,对于高优先级的任务要保障对其优先处理,采用 score 记录权重
@@ -9672,104 +9644,105 @@ sorted_set类型:在 set 的存储结构基础上添加可排序字段,类
-#### 实现
+### 通知机制
-##### 底层结构
+数据库通知是可以让客户端通过订阅给定的频道或者模式,来获知数据库中键的变化,以及数据库中命令的执行情况
-有序集合是由 ziplist(压缩列表)或 skiplist(跳跃表)组成的
+* 关注某个键执行了什么命令的通知称为键空间通知(key-space notification)
+* 关注某个命令被什么键执行的通知称为键事件通知(key-event notification)
-当数据比较少时,有序集合使用的是 ziplist 存储的,使用 ziplist 格式存储需要满足以下两个条件:
+图示订阅 0 号数据库 message 键:
-- 有序集合保存的元素个数要小于 128 个;
-- 有序集合保存的所有元素大小都小于 64 字节
+
-当元素比较多时,此时 ziplist 的读写效率会下降,时间复杂度是 O(n),跳表的时间复杂度是 O(logn)
+服务器配置的 notify-keyspace-events 选项决定了服务器所发送通知的类型
+* AKE 代表服务器发送所有类型的键空间通知和键事件通知
+* AK 代表服务器发送所有类型的键空间通知
+* AE 代表服务器发送所有类型的键事件通知
+* K$ 代表服务器只发送和字符串键有关的键空间通知
+* EL 代表服务器只发送和列表键有关的键事件通知
+* .....
+发送数据库通知的功能是由 notifyKeyspaceEvent 函数实现的:
-***
+* 如果给定的通知类型 type 不是服务器允许发送的通知类型,那么函数会直接返回
+* 如果给定的通知是服务器允许发送的通知
+ * 检测服务器是否允许发送键空间通知,允许就会构建并发送事件通知
+ * 检测服务器是否允许发送键事件通知,允许就会构建并发送事件通知
-##### 跳跃表
-Redis 使用跳跃表作为有序集合键的底层实现之一,如果一个有序集合包含的**元素数量比较多**,又或者有序集合中元素的**成员是比较长的字符串**时,Redis 就会使用跳跃表来作为有序集合健的底层实现
-跳跃表在链表的基础上增加了多级索引以提升查找的效率,索引是占内存的,所以是一个**空间换时间**的方案。原始链表中存储的有可能是很大的对象,而索引结点只需要存储关键值和几个指针,并不需要存储对象,因此当节点本身比较大或者元素数量比较多的时候,其优势可以被放大,而缺点则可以忽略
+***
-* 基于单向链表加索引的方式实现
-- Redis 的跳跃表实现由 zskiplist 和 zskiplistnode 两个结构组成,其中 zskiplist 用于保存跳跃表信息(比如表头节点、表尾节点、长度),而 zskiplistnode 则用于表示跳跃表节点
-- Redis 每个跳跃表节点的层高都是 1 至 32 之间的随机数(Redis5 之后最大层数为 64)
-- 在同一个跳跃表中,多个节点可以包含相同的分值,但每个节点的成员对象必须是唯一的。跳跃表中的节点按照分值大小进行排序,当分值相同时节点按照成员对象的大小进行排序
-
+## 体系架构
-个人笔记:JUC → 并发包 → ConcurrentSkipListMap 详解跳跃表
+### 事件驱动
-参考文章:https://www.cnblogs.com/hunternet/p/11248192.html
+#### 基本介绍
+Redis 服务器是一个事件驱动程序,服务器需要处理两类事件
+* 文件事件 (file event):服务器通过套接字与客户端(或其他 Redis 服务器)进行连接,而文件事件就是服务器对套接字操作的抽象。服务器与客户端的通信会产生相应的文件事件,服务器通过监听并处理这些事件完成一系列网络通信操作
+* 时间事件 (time event):Redis 服务器中的一些操作(比如 serverCron 函数)需要在指定时间执行,而时间事件就是服务器对这类定时操作的抽象
-***
-### Bitmaps
-#### 操作
+***
-Bitmaps 本身不是一种数据类型, 实际上就是字符串(key-value) , 但是它可以对字符串的位进行操作
-数据结构的详解查看 Java → Algorithm → 位图
-指令操作:
+#### 文件事件
-* 获取指定 key 对应**偏移量**上的 bit 值
+##### 基本组成
- ```sh
- getbit key offset
- ```
+Redis 基于 Reactor 模式开发了网络事件处理器,这个处理器被称为文件事件处理器 (file event handler)
-* 设置指定 key 对应偏移量上的 bit 值,value 只能是 1 或 0
+* 使用 I/O 多路复用 (multiplexing) 程序来同时监听多个套接字,并根据套接字执行的任务来为套接字关联不同的事件处理器
- ```sh
- setbit key offset value
- ```
+* 当被监听的套接字准备好执行连接应答 (accept)、 读取 (read)、 写入 (write)、 关闭 (close) 等操作时,与操作相对应的文件事件就会产生,这时文件事件分派器会调用套接字关联好的事件处理器来处理事件
-* 对指定 key 按位进行交、并、非、异或操作,并将结果保存到 destKey 中
+文件事件处理器**以单线程方式运行**,但通过使用 I/O 多路复用程序来监听多个套接字, 既实现了高性能的网络通信模型,又可以很好地与 Redis 服务器中其他同样以单线程方式运行的模块进行对接,保持了 Redis 内部单线程设计的简单性
- ```sh
- bitop option destKey key1 [key2...]
- ```
+文件事件处理器的组成结构:
- option:and 交、or 并、not 非、xor 异或
+
-* 统计指定 key 中1的数量
+I/O 多路复用程序将所有产生事件的套接字处理请求放入一个**单线程的执行队列**中,通过队列有序、同步的向文件事件分派器传送套接字,上一个套接字产生的事件处理完后,才会继续向分派器传送下一个
- ```sh
- bitcount key [start end]
- ```
+
+Redis 单线程也能高效的原因:
+* 纯内存操作
+* 核心是基于非阻塞的 IO 多路复用机制,单线程可以高效处理多个请求
+* 底层使用 C 语言实现,C 语言实现的程序距离操作系统更近,执行速度相对会更快
+* 单线程同时也**避免了多线程的上下文频繁切换问题**,预防了多线程可能产生的竞争问题
-***
+****
-#### 应用
-- 解决 Redis 缓存穿透,判断给定数据是否存在, 防止缓存穿透
-
+##### 多路复用
-- 垃圾邮件过滤,对每一个发送邮件的地址进行判断是否在布隆的黑名单中,如果在就判断为垃圾邮件
+Redis 的 I/O 多路复用程序的所有功能都是通过包装常见的 select 、epoll、 evport 和 kqueue 这些函数库来实现的,Redis 在 I/O 多路复用程序的实现源码中用 #include 宏定义了相应的规则,编译时自动选择系统中**性能最高的多路复用函数**来作为底层实现
-- 爬虫去重,爬给定网址的时候对已经爬取过的 URL 去重
+I/O 多路复用程序监听多个套接字的 AE_READABLE 事件和 AE_WRITABLE 事件,这两类事件和套接字操作之间的对应关系如下:
-- 信息状态统计
+* 当套接字变得**可读**时(客户端对套接字执行 write 操作或者 close 操作),或者有新的**可应答**(acceptable)套接字出现时(客户端对服务器的监听套接字执行 connect 连接操作),套接字产生 AE_READABLE 事件
+* 当套接字变得可写时(客户端对套接字执行 read 操作,对于服务器来说就是可以写了),套接字产生 AE_WRITABLE 事件
+
+I/O 多路复用程序允许服务器同时监听套接字的 AE_READABLE 和 AE_WRITABLE 事件, 如果一个套接字同时产生了这两种事件,那么文件事件分派器会优先处理 AE_READABLE 事件, 等 AE_READABLE 事件处理完之后才处理 AE_WRITABLE 事件
@@ -9777,265 +9750,237 @@ Bitmaps 本身不是一种数据类型, 实际上就是字符串(key-value
-### Hyper
+##### 处理器
-基数是数据集去重后元素个数,HyperLogLog 是用来做基数统计的,运用了 LogLog 的算法
+Redis 为文件事件编写了多个处理器,这些事件处理器分别用于实现不同的网络通信需求:
-```java
-{1, 3, 5, 7, 5, 7, 8} 基数集: {1, 3, 5 ,7, 8} 基数:5
-{1, 1, 1, 1, 1, 7, 1} 基数集: {1,7} 基数:2
-```
+* 连接应答处理器,用于对连接服务器的各个客户端进行应答,Redis 服务器初始化时将该处理器与 AE_READABLE 事件关联
+* 命令请求处理器,用于接收客户端传来的命令请求,执行套接字的读入操作,与 AE_READABLE 事件关联
+* 命令回复处理器,用于向客户端返回命令的执行结果,执行套接字的写入操作,与 AE_WRITABLE 事件关联
+* 复制处理器,当主服务器和从服务器进行复制操作时,主从服务器都需要关联该处理器
-相关指令:
+Redis 客户端与服务器进行连接并发送命令的整个过程:
-* 添加数据
+* Redis 服务器正在运作监听套接字的 AE_READABLE 事件,关联连接应答处理器
+* 当 Redis 客户端向服务器发起连接,监听套接字将产生 AE_READABLE 事件,触发连接应答处理器执行,对客户端的连接请求进行应答,创建客户端套接字以及客户端状态,并将客户端套接字的 **AE_READABLE 事件与命令请求处理器**进行关联
+* 客户端向服务器发送命令请求,客户端套接字产生 AE_READABLE 事件,引发命令请求处理器执行,读取客户端的命令内容传给相关程序去执行
+* 执行命令会产生相应的命令回复,为了将这些命令回复传送回客户端,服务器会将客户端套接字的 **AE_WRITABLE 事件与命令回复处理器**进行关联
+* 当客户端尝试读取命令回复时,客户端套接字产生 AE_WRITABLE 事件,触发命令回复处理器执行,在命令回复全部写入套接字后,服务器就会解除客户端套接字的 AE_WRITABLE 事件与命令回复处理器之间的关联
- ```sh
- pfadd key element [element ...]
- ```
-* 统计数据
- ```sh
- pfcount key [key ...]
- ```
-* 合并数据
- ```sh
- pfmerge destkey sourcekey [sourcekey...]
- ```
+***
-应用场景:
-* 用于进行基数统计,不是集合不保存数据,只记录数量而不是具体数据,比如网站的访问量
-* 核心是基数估算算法,最终数值存在一定误差
-* 误差范围:基数估计的结果是一个带有 0.81% 标准错误的近似值
-* 耗空间极小,每个 hyperloglog key 占用了12K的内存用于标记基数
-* pfadd 命令不是一次性分配12K内存使用,会随着基数的增加内存逐渐增大
-* Pfmerge 命令合并后占用的存储空间为12K,无论合并之前数据量多少
+#### 时间事件
+Redis 的时间事件分为以下两类:
-***
+* 定时事件:在指定的时间之后执行一次(Redis 中暂时未使用)
+* 周期事件:每隔指定时间就执行一次
+一个时间事件主要由以下三个属性组成:
+* id:服务器为时间事件创建的全局唯一 ID(标识号),从小到大顺序递增,新事件的 ID 比旧事件的 ID 号要大
+* when:毫秒精度的 UNIX 时间戳,记录了时间事件的到达(arrive)时间
+* timeProc:时间事件处理器,当时间事件到达时,服务器就会调用相应的处理器来处理事件
-### GEO
+时间事件是定时事件还是周期性事件取决于时间事件处理器的返回值:
-GeoHash 是一种地址编码方法,把二维的空间经纬度数据编码成一个字符串
+* 定时事件:事件处理器返回 AE_NOMORE,该事件在到达一次后就会被删除
+* 周期事件:事件处理器返回非 AE_NOMORE 的整数值,服务器根据该值对事件的 when 属性更新,让该事件在一段时间后再次交付
-* 添加坐标点
+服务器将所有时间事件都放在一个**无序链表**中,新的时间事件插入到链表的表头:
- ```sh
- geoadd key longitude latitude member [longitude latitude member ...]
- georadius key longitude latitude radius m|km|ft|mi [withcoord] [withdist] [withhash] [count count]
- ```
+
-* 获取坐标点
+无序链表指是链表不按 when 属性的大小排序,每当时间事件执行器运行时就必须遍历整个链表,查找所有已到达的时间事件,并调用相应的事件处理器处理
- ```sh
- geopos key member [member ...]
- georadiusbymember key member radius m|km|ft|mi [withcoord] [withdist] [withhash] [count count]
- ```
+无序链表并不影响时间事件处理器的性能,因为正常模式下的 Redis 服务器**只使用 serverCron 一个时间事件**,在 benchmark 模式下服务器也只使用两个时间事件,所以无序链表不会影响服务器的性能,几乎可以按照一个指针处理
-* 计算距离
- ```sh
- geodist key member1 member2 [unit] #计算坐标点距离
- geohash key member [member ...] #计算经纬度
- ```
-redis 应用于地理位置计算
+***
+#### 事件调度
+服务器中同时存在文件事件和时间事件两种事件类型,调度伪代码:
-***
+```python
+# 事件调度伪代码
+def aeProcessEvents():
+ # 获取到达时间离当前时间最接近的时间事件
+ time_event = aeSearchNearestTime()
+
+ # 计算最接近的时间事件距离到达还有多少亳秒
+ remaind_ms = time_event.when - unix_ts_now()
+ # 如果事件已到达,那么 remaind_ms 的值可能为负数,设置为 0
+ if remaind_ms < 0:
+ remaind_ms = 0
+
+ # 根据 remaind_ms 的值,创建 timeval 结构
+ timeval = create_timeval_with_ms(remaind_ms)
+ # 【阻塞并等待文件事件】产生,最大阻塞时间由传入的timeval结构决定,remaind_ms的值为0时调用后马上返回,不阻塞
+ aeApiPoll(timeval)
+
+ # 处理所有已产生的文件事件
+ processFileEvents()
+ # 处理所有已到达的时间事件
+ processTimeEvents()
+```
+事件的调度和执行规则:
+* aeApiPoll 函数的最大阻塞时间由到达时间最接近当前时间的时间事件决定,可以避免服务器对时间事件进行频繁的轮询(忙等待),也可以确保 aeApiPoll 函数不会阻塞过长时间
+* 对文件事件和时间事件的处理都是**同步、有序、原子地执行**,服务器不会中途中断事件处理,也不会对事件进行抢占,所以两种处理器都要尽可地减少程序的阻塞时间,并在有需要时**主动让出执行权**,从而降低事件饥饿的可能性
+ * 命令回复处理器在写入字节数超过了某个预设常量,就会主动用 break 跳出写入循环,将余下的数据留到下次再写
+ * 时间事件也会将非常耗时的持久化操作放到子线程或者子进程执行
+* 时间事件在文件事件之后执行,并且事件之间不会出现抢占,所以时间事件的实际处理时间通常会比设定的到达时间稍晚
-## Jedis
-### 基本使用
-Jedis 用于 Java 语言连接 redis 服务,并提供对应的操作 API
-1. jar 包导入
- * 下载地址:https://mvnrepository.com/artifact/redis.clients/jedis
+****
- * 基于 maven:
- ```xml
-
- redis.clients
- jedis
- 2.9.0
-
- ```
-2. 客户端连接 redis
- API 文档:http://xetorthio.github.io/jedis/
+#### 多线程
- 连接 redis:`Jedis jedis = new Jedis("192.168.0.185", 6379);`
- 操作 redis:`jedis.set("name", "seazean"); jedis.get("name");`
- 关闭 redis:`jedis.close();`
+Redis6.0 引入多线程主要是为了提高网络 IO 读写性能,因为这是 Redis 的一个性能瓶颈(Redis 的瓶颈主要受限于内存和网络),多线程只是用来**处理网络数据的读写和协议解析**, 执行命令仍然是单线程顺序执行,因此不需要担心线程安全问题。
-代码实现:
+Redis6.0 的多线程默认是禁用的,只使用主线程。如需开启需要修改 redis 配置文件 `redis.conf` :
-```java
-public class JedisTest {
- public static void main(String[] args) {
- //1.获取连接对象
- Jedis jedis = new Jedis("192.168.2.185",6379);
- //2.执行操作
- jedis.set("age","39");
- String hello = jedis.get("hello");
- System.out.println(hello);
- jedis.lpush("list1","a","b","c","d");
- List list1 = jedis.lrange("list1", 0, -1);
- for (String s:list1 ) {
- System.out.println(s);
- }
- jedis.sadd("set1","abc","abc","def","poi","cba");
- Long len = jedis.scard("set1");
- System.out.println(len);
- //3.关闭连接
- jedis.close();
- }
-}
+```sh
+io-threads-do-reads yesCopy to clipboardErrorCopied
```
+开启多线程后,还需要设置线程数,否则是不生效的,同样需要修改 redis 配置文件 :
+```sh
+io-threads 4 #官网建议4核的机器建议设置为2或3个线程,8核的建议设置为6个线程
+```
-***
+
-### 工具类
+参考文章:https://mp.weixin.qq.com/s/dqmiR0ECf4lB6Y2OyK-dyA
-连接池对象:
- JedisPool:Jedis 提供的连接池技术
- poolConfig:连接池配置对象
- host:redis 服务地址
- port:redis 服务端口号
-JedisPool 的构造器如下:
-```java
-public JedisPool(GenericObjectPoolConfig poolConfig, String host, int port) {
- this(poolConfig, host, port, 2000, (String)null, 0, (String)null);
-}
-```
+****
-* 创建配置文件 redis.properties
- ```properties
- redis.maxTotal=50
- redis.maxIdel=10
- redis.host=192.168.2.185
- redis.port=6379
- ```
-* 工具类:
+### 客户端
- ```java
- public class JedisUtils {
- private static int maxTotal;
- private static int maxIdel;
- private static String host;
- private static int port;
- private static JedisPoolConfig jpc;
- private static JedisPool jp;
-
- static {
- ResourceBundle bundle = ResourceBundle.getBundle("redis");
- //最大连接数
- maxTotal = Integer.parseInt(bundle.getString("redis.maxTotal"));
- //活动连接数
- maxIdel = Integer.parseInt(bundle.getString("redis.maxIdel"));
- host = bundle.getString("redis.host");
- port = Integer.parseInt(bundle.getString("redis.port"));
-
- //Jedis连接配置
- jpc = new JedisPoolConfig();
- jpc.setMaxTotal(maxTotal);
- jpc.setMaxIdle(maxIdel);
- //连接池对象
- jp = new JedisPool(jpc, host, port);
- }
-
- //对外访问接口,提供jedis连接对象,连接从连接池获取
- public static Jedis getJedis() {
- return jp.getResource();
- }
- }
- ```
+#### 基本介绍
-
+Redis 服务器是典型的一对多程序,一个服务器可以与多个客户端建立网络连接,服务器对每个连接的客户端建立了相应的 redisClient 结构(客户端状态,**在服务器端的存储结构**),保存了客户端当前的状态信息,以及执行相关功能时需要用到的数据结构
-****
+Redis 服务器状态结构的 clients 属性是一个链表,这个链表保存了所有与服务器连接的客户端的状态结构:
+```c
+struct redisServer {
+ // 一个链表,保存了所有客户端状态
+ list *clients;
+
+ //...
+};
+```
+
-### 可视化
-Redis Desktop Manager
-
+***
-****
+#### 数据结构
+##### redisClient
+客户端的数据结构:
-## 持久化
+```c
+typedef struct redisClient {
+ //...
+
+ // 套接字
+ int fd;
+ // 名字
+ robj *name;
+ // 标志
+ int flags;
+
+ // 输入缓冲区
+ sds querybuf;
+ // 输出缓冲区 buf 数组
+ char buf[REDIS_REPLY_CHUNK_BYTES];
+ // 记录了 buf 数组目前已使用的字节数量
+ int bufpos;
+ // 可变大小的输出缓冲区,链表 + 字符串对象
+ list *reply;
+
+ // 命令数组
+ rboj **argv;
+ // 命令数组的长度
+ int argc;
+ // 命令的信息
+ struct redisCommand *cmd;
+
+ // 是否通过身份验证
+ int authenticated;
+
+ // 创建客户端的时间
+ time_t ctime;
+ // 客户端与服务器最后一次进行交互的时间
+ time_t lastinteraction;
+ // 输出缓冲区第一次到达软性限制 (soft limit) 的时间
+ time_t obuf_soft_limit_reached_time;
+}
+```
-### 概述
+客户端状态包括两类属性
-持久化:利用永久性存储介质将数据进行保存,在特定的时间将保存的数据进行恢复的工作机制称为持久化
+* 一类是比较通用的属性,这些属性很少与特定功能相关,无论客户端执行的是什么工作,都要用到这些属性
+* 另一类是和特定功能相关的属性,比如操作数据库时用到的 db 属性和 dict id 属性,执行事务时用到的 mstate 属性,以及执行 WATCH 命令时用到的 watched_keys 属性等,代码中没有列出
-作用:持久化用于防止数据的意外丢失,确保数据安全性,因为 Redis 是内存级,所以需要持久化到磁盘
-计算机中的数据全部都是二进制,保存一组数据有两种方式
-
-第一种:将当前数据状态进行保存,快照形式,存储数据结果,存储格式简单
+***
-第二种:将数据的操作过程进行保存,日志形式,存储操作过程,存储格式复杂
+##### 套接字
-***
+客户端状态的 fd 属性记录了客户端正在使用的套接字描述符,根据客户端类型的不同,fd 属性的值可以是 -1 或者大于 -1 的整数:
+* 伪客户端 (fake client) 的 fd 属性的值为 -1,命令请求来源于 AOF 文件或者 Lua 脚本,而不是网络,所以不需要套接字连接
+* 普通客户端的 fd 属性的值为大于 -1 的整数,因为合法的套接字描述符不能是 -1
+执行 `CLIENT list` 命令可以列出目前所有连接到服务器的普通客户端,不包括伪客户端
-### RDB
-#### save
-save 指令:手动执行一次保存操作
+***
-配置 redis.conf:
-```sh
-dir path #设置存储.rdb文件的路径,通常设置成存储空间较大的目录中,目录名称data
-dbfilename "x.rdb" #设置本地数据库文件名,默认值为dump.rdb,通常设置为dump-端口号.rdb
-rdbcompression yes|no #设置存储至本地数据库时是否压缩数据,默认yes,设置为no节省CPU运行时间
-rdbchecksum yes|no #设置读写文件过程是否进行RDB格式校验,默认yes,设置为no,节约读写10%时间
- #消耗,但存在数据损坏的风险
-```
-工作原理:redis 是个**单线程的工作模式**,会创建一个任务队列,所有的命令都会进到这个队列排队执行。当某个指令在执行的时候,队列后面的指令都要等待,所以这种执行方式会非常耗时。
+##### 名字
-save 指令的执行会阻塞当前 Redis 服务器,直到当前 RDB 过程完成为止,有可能会造成长时间阻塞,线上环境不建议使用
+在默认情况下,一个连接到服务器的客户端是没有名字的,使用 `CLIENT setname` 命令可以为客户端设置一个名字
@@ -10043,112 +9988,101 @@ save 指令的执行会阻塞当前 Redis 服务器,直到当前 RDB 过程完
-#### bgsave
-
-指令:bgsave(bg 是 background,后台执行的意思)
+##### 标志
-配置 redis.conf
+客户端的标志属性 flags 记录了客户端的角色以及客户端目前所处的状态,每个标志使用一个常量表示
-```sh
-stop-writes-on-bgsave-error yes|no #后台存储过程中如果出现错误,是否停止保存操作,默认yes
-dbfilename filename
-dir path
-rdbcompression yes|no
-rdbchecksum yes|no
-```
+* flags 的值可以是单个标志:`flags = `
+* flags 的值可以是多个标志的二进制:`flags = | | ... `
-bgsave 指令工作原理:
+一部分标志记录**客户端的角色**:
-
+* REDIS_MASTER 表示客户端是一个从服务器,REDIS_SLAVE 表示客户端是一个从服务器,在主从复制时使用
+* REDIS_PRE_PSYNC 表示客户端是一个版本低于 Redis2.8 的从服务器,主服务器不能使用 PSYNC 命令与该从服务器进行同步,这个标志只能在 REDIS_ SLAVE 标志处于打开状态时使用
+* REDIS_LUA_CLIENT 表示客户端是专门用于处理 Lua 脚本里面包含的 Redis 命令的伪客户端
-流程:当执行 bgsave 的时候,客户端发出 bgsave 指令给到 redis 服务器,服务器返回后台已经开始执行的信息给客户端,同时使用 fork 函数创建一个子进程,让子进程去执行 save 相关的操作。持久化过程是先将数据写入到一个临时文件中,持久化操作结束再用这个临时文件**替换**上次持久化的文件,在这个过程中主进程是不进行任何 IO 操作的,这确保了极高的性能
+一部分标志记录目前**客户端所处的状态**:
-bgsave 分成两个过程:第一个是服务端收到指令直接告诉客户端开始执行;另外一个过程是 fork 的子进程在完成后台的保存操作,操作完以后返回消息。**两个进程不相互影响**,所以在持久化期间 Redis 可以正常工作
+* REDIS_UNIX_SOCKET 表示服务器使用 UNIX 套接字来连接客户端
+* REDIS_BLOCKED 表示客户端正在被 BRPOP、BLPOP 等命令阻塞
+* REDIS_UNBLOCKED 表示客户端已经从 REDIS_BLOCKED 所表示的阻塞状态脱离,在 REDIS_BLOCKED 标志打开的情况下使用
+* REDIS_MULTI 标志表示客户端正在执行事务
+* REDIS_DIRTY_CAS 表示事务使用 WATCH 命令监视的数据库键已经被修改
+* .....
-注意:bgsave 命令是针对 save 阻塞问题做的优化,Redis 内部所有涉及到 RDB 操作都采用 bgsave 的方式,save 命令可以放弃使用
-***
+****
-#### 自动
-配置文件自动 RDB,无需显式调用相关指令,save 配置启动后底层执行的是 bgsave 操作
+##### 缓冲区
-配置 redis.conf:
+客户端状态的输入缓冲区用于保存客户端发送的命令请求,输入缓冲区的大小会根据输入内容动态地缩小或者扩大,但最大大小不能超过 1GB,否则服务器将关闭这个客户端,比如执行 `SET key value `,那么缓冲区 querybuf 的内容:
```sh
-save second changes #设置自动持久化条件,满足限定时间范围内key的变化数量就进行持久化(bgsave)
+*3\r\n$3\r\nSET\r\n$3\r\nkey\r\n$5\r\nvalue\r\n #
```
-参数:
+输出缓冲区是服务器用于保存执行客户端命令所得的命令回复,每个客户端都有两个输出缓冲区可用:
-* second:监控时间范围
-* changes:监控 key 的变化量
+* 一个是固定大小的缓冲区,保存长度比较小的回复,比如 OK、简短的字符串值、整数值、错误回复等
+* 一个是可变大小的缓冲区,保存那些长度比较大的回复, 比如一个非常长的字符串值或者一个包含了很多元素的集合等
-说明: save 配置中对于 second 与 changes 设置通常具有互补对应关系,尽量不要设置成包含性关系
+buf 是一个大小为 REDIS_REPLY_CHUNK_BYTES (常量默认 16*1024 = 16KB) 字节的字节数组,bufpos 属性记录了 buf 数组目前已使用的字节数量,当 buf 数组的空间已经用完或者回复数据太大无法放进 buf 数组里,服务器就会开始使用可变大小的缓冲区
-示例:
+通过使用 reply 链表连接多个字符串对象,可以为客户端保存一个非常长的命令回复,而不必受到固定大小缓冲区 16KB 大小的限制
-```sh
-save 300 10 #300s内10个key发生变化就进行持久化
-```
+
-判定 key 变化的原理:
-* 对数据产生了影响
-* 不进行数据比对,比如 name 键存在,重新 set name seazean 也算一次变化
-save 配置要根据实际业务情况进行设置,频度过高或过低都会出现性能问题,结果可能是灾难性的
-RDB三种启动方式对比:
-| 方式 | save指令 | bgsave指令 |
-| -------------- | -------- | ---------- |
-| 读写 | 同步 | 异步 |
-| 阻塞客户端指令 | 是 | 否 |
-| 额外内存消耗 | 否 | 是 |
-| 启动新进程 | 否 | 是 |
+***
-***
+##### 命令
+服务器对 querybuf 中的命令请求的内容进行分析,得出的命令参数以及参数的数量分别保存到客户端状态的 argv 和 argc 属性
+* argv 属性是一个数组,数组中的每项都是字符串对象,其中 argv[0] 是要执行的命令,而之后的其他项则是命令的参数
+* argc 属性负责记录 argv 数组的长度
-#### 总结
+
-* RDB特殊启动形式的指令(客户端输入)
+服务器将根据项 argv[0] 的值,在命令表中查找命令所对应的命令的 redisCommand,将客户端状态的 cmd 指向该结构
- * 服务器运行过程中重启
+命令表是一个字典结构,键是 SDS 结构保存命令的名字;值是命令所对应的 redisCommand 结构,保存了命令的实现函数、命令标志、 命令应该给定的参数个数、命令的总执行次数和总消耗时长等统计信息
- ```sh
- debug reload
- ```
+
- * 关闭服务器时指定保存数据
- ```sh
- shutdown save
- ```
- 默认情况下执行 shutdown 命令时,自动执行 bgsave(如果没有开启 AOF 持久化功能)
+****
- * 全量复制:主从复制部分详解
-* RDB优点:
- - RDB 是一个紧凑压缩的二进制文件,存储效率较高,但存储数据量较大时,存储效率较低
- - RDB 内部存储的是 redis 在某个时间点的数据快照,非常**适合用于数据备份,全量复制**等场景
- - RDB 恢复数据的速度要比 AOF 快很多,因为是快照,直接恢复
- - 应用:服务器中每 X 小时执行 bgsave 备份,并将 RDB 文件拷贝到远程机器中,用于灾难恢复
-* RDB缺点:
+##### 验证
- - bgsave 指令每次运行要执行 fork 操作创建子进程,会牺牲一些性能
- - RDB 方式无论是执行指令还是利用配置,无法做到实时持久化,具有丢失数据的可能性,最后一次持久化后的数据可能丢失
- - Redis 的众多版本中未进行 RDB 文件格式的版本统一,可能出现各版本之间数据格式无法兼容
+客户端状态的 authenticated 属性用于记录客户端是否通过了身份验证
+
+* authenticated 值为 0,表示客户端未通过身份验证
+* authenticated 值为 1,表示客户端已通过身份验证
+
+当客户端 authenticated = 0 时,除了 AUTH 命令之外, 客户端发送的所有其他命令都会被服务器拒绝执行
+
+```sh
+redis> PING
+(error) NOAUTH Authentication required.
+redis> AUTH 123321
+OK
+redis> PING
+PONG
+```
@@ -10156,16 +10090,15 @@ RDB三种启动方式对比:
-### AOF
+##### 时间
-#### 概述
+ctime 属性记录了创建客户端的时间,这个时间可以用来计算客户端与服务器已经连接了多少秒,`CLIENT list` 命令的 age 域记录了这个秒数
-AOF(append only file)持久化:以独立日志的方式记录每次写命令(不记录读),**增量保存**,只许追加文件但不可以改写文件,重启时再重新执行 AOF 文件中命令达到恢复数据的目的,**与 RDB 相比可以简单理解为由记录数据改为记录数据的变化**
+lastinteraction 属性记录了客户端与服务器最后一次进行互动 (interaction) 的时间,互动可以是客户端向服务器发送命令请求,也可以是服务器向客户端发送命令回复。该属性可以用来计算客户端的空转 (idle) 时长, 就是距离客户端与服务器最后一次进行互动已经过去了多少秒,`CLIENT list` 命令的 idle 域记录了这个秒数
+
+obuf_soft_limit_reached_time 属性记录了**输出缓冲区第一次到达软性限制** (soft limit) 的时间
-AOF 主要作用是解决了数据持久化的实时性,目前已经是 Redis 持久化的主流方式
-AOF 写数据过程:
-
@@ -10173,135 +10106,185 @@ AOF 写数据过程:
-#### 策略
-客户端的请求写命令会被 append 追加到 AOF 缓冲区内
-启动 AOF 基本配置:
+#### 生命周期
-```sh
-appendonly yes|no #开启AOF持久化功能,默认no,即不开启状态
-appendfilename filename #AOF持久化文件名,默认appendonly.aof,建议设置appendonly-端口号.aof
-dir #AOF持久化文件保存路径,与RDB持久化文件路径保持一致即可
-```
+##### 创建
-```sh
-appendfsync always|everysec|no #AOF写数据策略:默认为everysec
+服务器使用不同的方式来创建和关闭不同类型的客户端
+
+如果客户端是通过网络连接与服务器进行连接的普通客户端,那么在客户端使用 connect 函数连接到服务器时,服务器就会调用连接应答处理器为客户端创建相应的客户端状态,并将这个新的客户端状态添加到服务器状态结构 clients 链表的末尾
+
+
+
+服务器会在初始化时创建负责执行 Lua 脚本中包含的 Redis 命令的伪客户端,并将伪客户端关联在服务器状态的 lua_client 属性
+
+```c
+struct redisServer {
+ // 保存伪客户端
+ redisClient *lua_client;
+
+ //...
+};
```
-AOF 持久化数据的三种策略(appendfsync):
+lua_client 伪客户端在服务器运行的整个生命周期会一直存在,只有服务器被关闭时,这个客户端才会被关闭
-- always(每次):每次写入操作均同步到 AOF 文件中,**数据零误差,性能较低**,不建议使用。
+载入 AOF 文件时, 服务器会创建用于执行 AOF 文件包含的 Redis 命令的伪客户端,并在载入完成之后,关闭这个伪客户端
-- everysec(每秒):每秒将缓冲区中的指令同步到 AOF 文件中,在系统突然宕机的情况下丢失 1 秒内的数据 数据**准确性较高,性能较高**,建议使用,也是默认配置
+****
-- no(系统控制):由操作系统控制每次同步到 AOF 文件的周期,整体过程**不可控**
-**AOF 缓冲区同步文件策略**,系统调用 write 和 fsync:
-* write 操作会触发延迟写(delayed write)机制,Linux 在内核提供页缓冲区用来提高硬盘 IO 性能,write 操作在写入系统缓冲区后直接返回
-* 同步硬盘操作依赖于系统调度机制,比如缓冲区页空间写满或达到特定时间周期。同步文件之前,如果此时系统故障宕机,缓冲区内数据将丢失
-* fsync 针对单个文件操作(比如 AOF 文件)做强制硬盘同步,fsync 将阻塞到写入硬盘完成后返回,保证了数据持久化
+##### 关闭
-异常恢复:AOF 文件损坏,通过 redis-check-aof--fix appendonly.aof 进行恢复,重启 redis,然后重新加载
+一个普通客户端可以因为多种原因而被关闭:
+* 客户端进程退出或者被杀死,那么客户端与服务器之间的网络连接将被关闭,从而造成客户端被关闭
+* 客户端向服务器发送了带有不符合协议格式的命令请求,那么这个客户端会**被服务器关闭**
+* 客户端是 `CLIENT KILL` 命令的目标
+* 如果用户为服务器设置了 timeout 配置选项,那么当客户端的空转时间超过该值时将被关闭,特殊情况不会被关闭:
+ * 客户端是主服务器(REDIS_MASTER )或者从服务器(打开了 REDIS_SLAVE 标志)
+ * 正在被 BLPOP 等命令阻塞(REDIS_BLOCKED)
+ * 正在执行 SUBSCRIBE、PSUBSCRIBE 等订阅命令
+* 客户端发送的命令请求的大小超过了输入缓冲区的限制大小(默认为 1GB)
+* 发送给客户端的命令回复的大小超过了输出缓冲区的限制大小
+理论上来说,可变缓冲区可以保存任意长的命令回复,但是为了回复过大占用过多的服务器资源,服务器会时刻检查客户端的输出缓冲区的大小,并在缓冲区的大小超出范围时,执行相应的限制操作:
-***
+* 硬性限制 (hard limit):输出缓冲区的大小超过了硬性限制所设置的大小,那么服务器会关闭客户端(serverCron 函数中执行),积存在输出缓冲区中的所有内容会被**直接释放**,不会返回给客户端
+* 软性限制 (soft limit):输出缓冲区的大小超过了软性限制所设置的大小,小于硬性限制的大小,服务器的操作:
+ * 用属性 obuf_soft_limit_reached_time 记录下客户端到达软性限制的起始时间,继续监视客户端
+ * 如果输出缓冲区的大小一直超出软性限制,并且持续时间超过服务器设定的时长,那么服务器将关闭客户端
+ * 如果在指定时间内不再超出软性限制,那么客户端就不会被关闭,并且 o_s_l_r_t 属性清零
+使用 client-output-buffer-limit 选项可以为普通客户端、从服务器客户端、执行发布与订阅功能的客户端分别设置不同的软性限制和硬性限制,格式:
+
+```sh
+client-output-buffer-limit
+client-output-buffer-limit normal 0 0 0
+client-output-buffer-limit slave 256mb 64mb 60
+client-output-buffer-limit pubsub 32mb 8mb 60
+```
-#### 重写
+* 第一行:将普通客户端的硬性限制和软性限制都设置为 0,表示不限制客户端的输出缓冲区大小
+* 第二行:将从服务器客户端的硬性限制设置为 256MB,软性限制设置为 64MB,软性限制的时长为 60 秒
+* 第三行:将执行发布与订阅功能的客户端的硬性限制设置为 32MB,软性限制设置为 8MB,软性限制的时长为 60 秒
-##### 介绍
-随着命令不断写入 AOF,文件会越来越大,为了解决这个问题 Redis 引入了 AOF 重写机制压缩文件体积
-AOF 重写:将 Redis 进程内的数据转化为写命令同步到**新** AOF 文件的过程,简单说就是将对同一个数据的若干个条命令执行结果转化成最终结果数据对应的指令进行记录
-AOF 重写作用:
-- 降低磁盘占用量,提高磁盘利用率
-- 提高持久化效率,降低持久化写时间,提高 IO 性能
-- 降低数据恢复的用时,提高数据恢复效率
+****
-AOF 重写规则:
-- 进程内具有时效性的数据,并且数据已超时将不再写入文件
+### 服务器
-- 非写入类的无效指令将被忽略,只保留最终数据的写入命令
+#### 执行流程
- 如 del key1、 hdel key2、srem key3、set key4 111、set key4 222等,select 指令虽然不更改数据,但是更改了数据的存储位置,此类命令同样需要记录
+Redis 服务器与多个客户端建立网络连接,处理客户端发送的命令请求,在数据库中保存客户端执行命令所产生的数据,并通过资源管理来维持服务器自身的运转,所以一个命令请求从发送到获得回复的过程中,客户端和服务器需要完成一系列操作
-- 对同一数据的多条写命令合并为一条命令
- 如 lpushlist1 a、lpush list1 b、lpush list1 c 可以转化为:lpush list1 a b c。
- 为防止数据量过大造成客户端缓冲区溢出,对 list、set、hash、zset 等类型,每条指令最多写入 64 个元素
+##### 命令请求
+Redis 服务器的命令请求来自 Redis 客户端,当用户在客户端中键入一个命令请求时,客户端会将这个命令请求转换成协议格式,通过连接到服务器的套接字,将协议格式的命令请求发送给服务器
+```sh
+SET KEY VALUE -> # 命令
+*3\r\nS3\r\nSET\r\n$3\r\nKEY\r\n$5\r\nVALUE\r\n # 协议格式
+```
+当客户端与服务器之间的连接套接字因为客户端的写入而变得可读,服务器调用**命令请求处理器**来执行以下操作:
+* 读取套接字中协议格式的命令请求,并将其保存到客户端状态的输入缓冲区里面
+* 对输入缓冲区中的命令请求进行分析,提取出命令请求中包含的命令参数以及命令参数的个数,然后分别将参数和参数个数保存到客户端状态的 argv 属性和 argc 属性里
+* 调用命令执行器,执行客户端指定的命令
-***
+最后客户端接收到协议格式的命令回复之后,会将这些回复转换成用户可读的格式打印给用户观看,至此整体流程结束
-##### 方式
+****
-* 手动重写
- ```sh
- bgrewriteaof
- ```
- 原理分析:
+##### 命令执行
- 
+命令执行器开始对命令操作:
-* 自动重写
+* 查找命令:首先根据客户端状态的 argv[0] 参数,在**命令表 (command table)** 中查找参数所指定的命令,并将找到的命令保存到客户端状态的 cmd 属性里面,是一个 redisCommand 结构
- 触发时机:Redis 会记录上次重写时的 AOF 大小,默认配置是当 AOF 文件大小是上次重写后大小的一倍且文件大于 64M 时触发
-
- ```sh
- auto-aof-rewrite-min-size size #设置重写的基准值,最小文件 64MB,达到这个值开始重写
- auto-aof-rewrite-percentage percent #触发AOF文件执行重写的增长率,当前AOF文件大小超过上一次重写的AOF文件大小的百分之多少才会重写,比如文件达到 100% 时开始重写就是两倍时触发
- ```
+ 命令查找算法与字母的大小写无关,所以命令名字的大小写不影响命令表的查找结果
- 自动重写触发比对参数( 运行指令 `info Persistence` 获取具体信息 ):
-
- ```sh
- aof_current_size #AOF文件当前尺寸大小(单位:字节)
- aof_base_size #AOF文件上次启动和重写时的尺寸大小(单位:字节)
- ```
+* 执行预备操作:
- 自动重写触发条件公式:
-
- - aof_current_size > auto-aof-rewrite-min-size
- - (aof_current_size - aof_base_size) / aof_base_size >= auto-aof-rewrite-percentage
+ * 检查客户端状态的 cmd 指针是否指向 NULL,根据 redisCommand 检查请求参数的数量是否正确
+ * 检查客户端是否通过身份验证
+ * 如果服务器打开了 maxmemory 功能,执行命令之前要先检查服务器的内存占用,在有需要时进行内存回收(**逐出算法**)
+ * 如果服务器上一次执行 BGSAVE 命令出错,并且服务器打开了 stop-writes-on-bgsave-error 功能,那么如果本次执行的是写命令,服务会拒绝执行,并返回错误
+ * 如果客户端当前正在用 SUBSCRIBE 或 PSUBSCRIBE 命令订阅频道,那么服务器会拒绝除了 SUBSCRIBE、SUBSCRIBE、 UNSUBSCRIBE、PUNSUBSCRIBE 之外的其他命令
+ * 如果服务器正在进行载入数据,只有 sflags 带有 1 标识(比如 INFO、SHUTDOWN、PUBLISH等)的命令才会被执行
+ * 如果服务器执行 Lua 脚本而超时并进入阻塞状态,那么只会执行客户端发来的 SHUTDOWN nosave 和 SCRIPT KILL 命令
+ * 如果客户端正在执行事务,那么服务器只会执行客户端发来的 EXEC、DISCARD、MULTI、WATCH 四个命令,其他命令都会被**放进事务队列**中
+ * 如果服务器打开了监视器功能,那么会将要执行的命令和参数等信息发送给监视器
+* 调用命令的实现函数:被调用的函数会执行指定的操作并产生相应的命令回复,回复会被保存在客户端状态的输出缓冲区里面(buf 和 reply 属性),然后实现函数还会**为客户端的套接字关联命令回复处理器**,这个处理器负责将命令回复返回给客户端
+* 执行后续工作:
-***
+ * 如果服务器开启了慢查询日志功能,那么慢查询日志模块会检查是否需要为刚刚执行完的命令请求添加一条新的慢查询日志
+ * 根据执行命令所耗费的时长,更新命令的 redisCommand 结构的 milliseconds 属性,并将命令 calls 计数器的值增一
+ * 如果服务器开启了 AOF 持久化功能,那么 AOF 持久化模块会将执行的命令请求写入到 AOF 缓冲区里面
+ * 如果有其他从服务器正在复制当前这个服务器,那么服务器会将执行的命令传播给所有从服务器
+* 将命令回复发送给客户端:客户端**套接字变为可写状态**时,服务器就会执行命令回复处理器,将客户端输出缓冲区中的命令回复发送给客户端,发送完毕之后回复处理器会清空客户端状态的输出缓冲区,为处理下一个命令请求做好准备
+****
+
-#### 流程
-持久化流程:
+##### Command
-
+每个 redisCommand 结构记录了一个Redis 命令的实现信息,主要属性
-重写流程:
+```c
+struct redisCommand {
+ // 命令的名字,比如"set"
+ char *name;
+
+ // 函数指针,指向命令的实现函数,比如setCommand
+ // redisCommandProc 类型的定义为 typedef void redisCommandProc(redisClient *c)
+ redisCommandProc *proc;
+
+ // 命令参数的个数,用于检查命令请求的格式是否正确。如果这个值为负数-N, 那么表示参数的数量大于等于N。
+ // 注意命令的名字本身也是一个参数,比如 SET msg "hello",命令的参数是"SET"、"msg"、"hello" 三个
+ int arity;
+
+ // 字符串形式的标识值,这个值记录了命令的属性,,
+ // 比如这个命令是写命令还是读命令,这个命令是否允许在载入数据时使用,是否允许在Lua脚本中使用等等
+ char *sflags;
+
+ // 对sflags标识进行分析得出的二进制标识,由程序自动生成。服务器对命令标识进行检查时使用的都是 flags 属性
+ // 而不是sflags属性,因为对二进制标识的检查可以方便地通过& ^ ~ 等操作来完成
+ int flags;
+
+ // 服务器总共执行了多少次这个命令
+ long long calls;
+
+ // 服务器执行这个命令所耗费的总时长
+ long long milliseconds;
+};
+```
-
-使用**新的 AOF 文件覆盖旧的 AOF 文件**,完成 AOF 重写
@@ -10309,43 +10292,45 @@ AOF 重写规则:
-### 对比
+#### serverCron
-AOF 和 RDB 同时开启,系统默认取 AOF 的数据(数据不会存在丢失)
+##### 基本介绍
- RDB 与 AOF 对比:
+Redis 服务器以周期性事件的方式来运行 serverCron 函数,服务器初始化时读取配置 server.hz 的值,默认为 10,代表每秒钟执行 10 次,即**每隔 100 毫秒执行一次**,执行指令 info server 可以查看
-| 持久化方式 | RDB | AOF |
-| ------------ | ------------------ | ------------------ |
-| 占用存储空间 | 小(数据级:压缩) | 大(指令级:重写) |
-| **存储速度** | 慢 | 快 |
-| **恢复速度** | 快 | 慢 |
-| 数据安全性 | 会丢失数据 | 依据策略决定 |
-| 资源消耗 | 高/重量级 | 低/轻量级 |
-| 启动优先级 | 低 | 高 |
+serverCron 函数负责定期对自身的资源和状态进行检查和调整,从而确保服务器可以长期、稳定地运行
-应用场景:
+* 更新服务器的各类统计信息,比如时间、内存占用、 数据库占用情况等
+* 清理数据库中的过期键值对
+* 关闭和清理连接失效的客户端
+* 进行 AOF 或 RDB 持久化操作
+* 如果服务器是主服务器,那么对从服务器进行定期同步
+* 如果处于集群模式,对集群进行定期同步和连接测试
-- 对数据**非常敏感**,建议使用默认的 AOF 持久化方案
- AOF 持久化策略使用 everysecond,每秒钟 fsync 一次,该策略 redis 仍可以保持很好的处理性能,当出现问题时,最多丢失 1 秒内的数据
- 注意:AOF 文件存储体积较大,恢复速度较慢,因为要执行每条指令
+****
-- 数据呈现**阶段有效性**,建议使用 RDB 持久化方案
- 数据可以良好的做到阶段内无丢失,且恢复速度较快,阶段内数据恢复通常采用 RDB 方案
- 注意:利用 RDB 实现紧凑的数据持久化,存储数据量较大时,存储效率较低
+##### 时间缓存
-综合对比:
+Redis 服务器中有很多功能需要获取系统的当前时间,而每次获取系统的当前时间都需要执行一次系统调用,为了减少系统调用的执行次数,服务器状态中的 unixtime 属性和 mstime 属性被用作当前时间的缓存
-- RDB 与 AOF 的选择实际上是在做一种权衡,每种都有利有弊
-- 如不能承受数分钟以内的数据丢失,对业务数据非常敏感,选用 AOF
-- 如能承受数分钟以内的数据丢失,且追求大数据集的恢复速度,选用 RDB
-- 灾难恢复选用 RDB
-- 双保险策略,同时开启 RDB和 AOF,重启后 Redis 优先使用 AOF 来恢复数据,降低丢失数据的量
-- 不建议单独用 AOF,因为可能会出现 Bug,如果只是做纯内存缓存,可以都不用
+```c
+struct redisServer {
+ // 保存了秒级精度的系统当前UNIX时间戳
+ time_t unixtime;
+ // 保存了毫秒级精度的系统当前UNIX时间戳
+ long long mstime;
+
+};
+```
+
+serverCron 函数默认以每 100 毫秒一次的频率更新两个属性,所以属性记录的时间的精确度并不高
+
+* 服务器只会在打印日志、更新服务器的 LRU 时钟、决定是否执行持久化任务、计算服务器上线时间(uptime)这类对时间精确度要求不高的功能上
+* 对于为键设置过期时间、添加慢查询日志这种需要高精确度时间的功能来说,服务器还是会再次执行系统调用,从而获得最准确的系统当前时间
@@ -10353,33 +10338,61 @@ AOF 和 RDB 同时开启,系统默认取 AOF 的数据(数据不会存在丢
-### fork
+##### LRU 时钟
-#### 介绍
+服务器状态中的 lruclock 属性保存了服务器的 LRU 时钟
-fork() 函数创建一个子进程,子进程与父进程几乎是完全相同的进程,系统先给子进程分配资源,然后把原来的进程的所有数据都复制到子进程中,只有少数值与父进程的值不同,相当于克隆了一个进程
+```c
+struct redisServer {
+ // 默认每10秒更新一次的时钟缓存,用于计算键的空转(idle)时长。
+ unsigned lruclock:22;
+};
+```
-在完成对其调用之后,会产生 2 个进程,且每个进程都会**从 fork() 的返回处开始执行**,这两个进程将执行相同的程序段,但是拥有各自不同的堆段,栈段,数据段,每个子进程都可修改各自的数据段,堆段,和栈段
+每个 Redis 对象都会有一个 lru 属性, 这个 lru 属性保存了对象最后一次被命令访问的时间
```c
-#include
-pid_t fork(void);
-// 父进程返回子进程的pid,子进程返回0,错误返回负值,根据返回值的不同进行对应的逻辑处理
+typedef struct redisObiect {
+ unsigned lru:22;
+} robj;
```
-fork 调用一次,却能够**返回两次**,可能有三种不同的返回值:
+当服务器要计算一个数据库键的空转时间(即数据库键对应的值对象的空转时间),程序会用服务器的 lruclock 属性记录的时间减去对象的 lru 属性记录的时间
-* 在父进程中,fork 返回新创建子进程的进程 ID
-* 在子进程中,fork 返回 0
-* 如果出现错误,fork 返回一个负值,错误原因:
- * 当前的进程数已经达到了系统规定的上限,这时 errno 的值被设置为 EAGAIN
- * 系统内存不足,这时 errno 的值被设置为 ENOMEM
+serverCron 函数默认以每 100 毫秒一次的频率更新这个属性,所以得出的空转时间也是模糊的
-fpid 的值在父子进程中不同:进程形成了链表,父进程的 fpid 指向子进程的进程 id,因为子进程没有子进程,所以其 fpid 为0
-创建新进程成功后,系统中出现两个基本完全相同的进程,这两个进程执行没有固定的先后顺序,哪个进程先执行要看系统的调度策略
-每个进程都有一个独特(互不相同)的进程标识符 process ID,可以通过 getpid() 函数获得;还有一个记录父进程 pid 的变量,可以通过 getppid() 函数获得变量的值
+***
+
+
+
+##### 命令次数
+
+serverCron 中的 trackOperationsPerSecond 函数以每 100 毫秒一次的频率执行,函数功能是以**抽样计算**的方式,估算并记录服务器在最近一秒钟处理的命令请求数量,这个值可以通过 INFO status 命令的 instantaneous_ops_per_sec 域查看:
+
+```sh
+redis> INFO stats
+# Stats
+instantaneous_ops_per_sec:6
+```
+
+根据上一次抽样时间 ops_sec_last_sample_time 和当前系统时间,以及上一次已执行的命令数 ops_sec_last_sample_ops 和服务器当前已经执行的命令数,计算出两次函数调用期间,服务器平均每毫秒处理了多少个命令请求,该值乘以 1000 得到每秒内的执行命令的估计值,放入 ops_sec_samples 环形数组里
+
+```c
+struct redisServer {
+ // 上一次进行抽样的时间
+ long long ops_sec_last_sample_time;
+ // 上一次抽样时,服务器已执行命令的数量
+ long long ops_sec_last_sample_ops;
+ // REDIS_OPS_SEC_SAMPLES 大小(默认值为16)的环形数组,数组的每一项记录一次的抽样结果
+ long long ops_sec_samples[REDIS_OPS_SEC_SAMPLES];
+ // ops_sec_samples数组的索引值,每次抽样后将值自增一,值为16时重置为0,让数组成为一个环形数组
+ int ops_sec_idx;
+};
+```
+
+
@@ -10387,321 +10400,305 @@ fpid 的值在父子进程中不同:进程形成了链表,父进程的 fpid
-#### 使用
+##### 内存峰值
-基本使用:
+服务器状态里的 stat_peak_memory 属性记录了服务器内存峰值大小,循环函数每次执行时都会查看服务器当前使用的内存数量,并与 stat_peak_memory 保存的数值进行比较,设置为较大的值
```c
-#include
-#include
-int main ()
-{
- pid_t fpid; // fpid表示fork函数返回的值
- int count=0;
- fpid=fork();
- if (fpid < 0)
- printf("error in fork!");
- else if (fpid == 0) {
- printf("i am the child process, my process id is %d/n", getpid());
- count++;
- }
- else {
- printf("i am the parent process, my process id is %d/n", getpid());
- count++;
- }
- printf("count: %d/n",count);// 1
- return 0;
-}
-/*输出内容:
- i am the child process, my process id is 5574
- count: 1
- i am the parent process, my process id is 5573
- count: 1
-*/
+struct redisServer {
+ // 已使用内存峰值
+ size_t stat_peak_memory;
+};
```
-进阶使用:
+INFO memory 命令的 used_memory_peak 和 used_memory_peak_human 两个域分别以两种格式记录了服务器的内存峰值:
-```c
-#include
-#include
-int main(void)
-{
- int i=0;
- // ppid 指当前进程的父进程pid
- // pid 指当前进程的pid,
- // fpid 指fork返回给当前进程的值,在这可以表示子进程
- for(i=0; i<2; i++){
- pid_t fpid = fork();
- if(fpid == 0)
- printf("%d child %4d %4d %4d/n",i,getppid(),getpid(),fpid);
- else
- printf("%d parent %4d %4d %4d/n",i,getppid(),getpid(),fpid);
- }
- return 0;
-}
-/*输出内容:
- i 父id id 子id
- 0 parent 2043 3224 3225
- 0 child 3224 3225 0
- 1 parent 2043 3224 3226
- 1 parent 3224 3225 3227
- 1 child 1 3227 0
- 1 child 1 3226 0
-*/
+```sh
+redis> INFO memory
+# Memory
+...
+used_memory_peak:501824
+used_memory_peak_human:490.06K
```
-
-在 p3224 和 p3225 执行完第二个循环后,main 函数退出,进程死亡。所以 p3226,p3227 就没有父进程了,成为孤儿进程,所以 p3226 和 p3227 的父进程就被置为 ID 为 1的 init 进程(笔记 Tool → Linux → 进程管理详解)
-参考文章:https://blog.csdn.net/love_gaohz/article/details/41727415
+***
-***
+##### SIGTERM
+服务器启动时,Redis 会为服务器进程的 SIGTERM 信号关联处理器 sigtermHandler 函数,该信号处理器负责在服务器接到 SIGTERM 信号时,打开服务器状态的 shutdown_asap 标识
+```c
+struct redisServer {
+ // 关闭服务器的标识:值为1时关闭服务器,值为0时不做操作
+ int shutdown_asap;
+};
+```
-#### 内存
+每次 serverCron 函数运行时,程序都会对服务器状态的 shutdown_asap 属性进行检查,并根据属性的值决定是否关闭服务器
-fork() 调用之后父子进程的内存关系
+服务器在接到 SIGTERM 信号之后,关闭服务器并打印相关日志的过程:
-早期 Linux 的 fork() 实现时,就是全部复制,这种方法效率太低,而且造成了很大的内存浪费,现在 Linux 实现采用了两种方法:
+```sh
+[6794 | signal handler] (1384435690) Received SIGTERM, scheduling shutdown ...
+[6794] 14 Nov 21:28:10.108 # User requested shutdown ...
+[6794] 14 Nov 21:28:10.108 * Saving the final RDB snapshot before exiting.
+[6794) 14 Nov 21:28:10.161 * DB saved on disk
+[6794) 14 Nov 21:28:10.161 # Redisis now ready to exit, bye bye ...
+```
-* 父子进程的代码段是相同的,所以代码段是没必要复制的,只需内核将代码段标记为只读,父子进程就共享此代码段。fork() 之后在进程创建代码段时,子进程的进程级页表项都指向和父进程相同的物理页帧
-
-* 对于父进程的数据段,堆段,栈段中的各页,由于父子进程要相互独立,采用**写时复制**的技术,来提高内存以及内核的利用率
+***
- 在 fork 之后两个进程用的是相同的物理空间(内存区),子进程的代码段、数据段、堆栈都是指向父进程的物理空间,**两者的虚拟空间不同,但其对应的物理空间是同一个**。当父子进程中有更改相应段的行为发生时,再为子进程相应的段分配物理空间,如果两者的代码完全相同,代码段继续共享父进程的物理空间;而如果两者执行的代码不同,子进程的代码段也会分配单独的物理空间。
- fork 之后内核会将子进程放在队列的前面,让子进程先执行,以免父进程执行导致写时复制,而后子进程再执行,因无意义的复制而造成效率的下降
-
+##### 管理资源
-补充知识:
+serverCron 函数每次执行都会调用 clientsCron 和 databasesCron 函数,进行管理客户端资源和数据库资源
-vfork(虚拟内存 fork virtual memory fork):调用 vfork() 父进程被挂起,子进程使用父进程的地址空间。不采用写时复制,如果子进程修改父地址空间的任何页面,这些修改过的页面对于恢复的父进程是可见的
+clientsCron 函数对一定数量的客户端进行以下两个检查:
+* 如果客户端与服务器之间的连接巳经超时(很长一段时间客户端和服务器都没有互动),那么程序释放这个客户端
+* 如果客户端在上一次执行命令请求之后,输入缓冲区的大小超过了一定的长度,那么程序会释放客户端当前的输入缓冲区,并重新创建一个默认大小的输入缓冲区,从而防止客户端的输入缓冲区耗费了过多的内存
+databasesCron 函数会对服务器中的一部分数据库进行检查,删除其中的过期键,并在有需要时对字典进行收缩操作
-参考文章:https://blog.csdn.net/Shreck66/article/details/47039937
+***
-****
+##### 持久状态
+服务器状态中记录执行 BGSAVE 命令和 BGREWRITEAOF 命令的子进程的 ID
+```c
+struct redisServer {
+ // 记录执行BGSAVE命令的子进程的ID,如果服务器没有在执行BGSAVE,那么这个属性的值为-1
+ pid_t rdb_child_pid;
+ // 记录执行BGREWRITEAOF命令的子进程的ID,如果服务器没有在执行那么这个属性的值为-1
+ pid_t aof_child_pid
+};
+```
-## 事务机制
+serverCron 函数执行时,会检查两个属性的值,只要其中一个属性的值不为 -1,程序就会执行一次 wait3 函数,检查子进程是否有信号发来服务器进程:
-### 基本操作
+* 如果有信号到达,那么表示新的 RDB 文件已经生成或者 AOF 重写完毕,服务器需要进行相应命令的后续操作,比如用新的 RDB 文件替换现有的 RDB 文件,用重写后的 AOF 文件替换现有的 AOF 文件
+* 如果没有信号到达,那么表示持久化操作未完成,程序不做动作
-Redis 事务的主要作用就是串联多个命令防止别的命令插队
+如果两个属性的值都为 -1,表示服务器没有进行持久化操作
-* 开启事务
+* 查看是否有 BGREWRITEAOF 被延迟,然后执行 AOF 后台重写
- ```sh
- multi #设定事务的开启位置,此指令执行后,后续的所有指令均加入到事务中
- ```
+* 查看服务器的自动保存条件是否已经被满足,并且服务器没有在进行持久化,就开始一次新的 BGSAVE 操作
-* 执行事务
+ 因为条件 1 可能会引发一次 AOF,所以在这个检查中会再次确认服务器是否已经在执行持久化操作
- ```sh
- exec #设定事务的结束位置,同时执行事务,与multi成对出现,成对使用
- ```
+* 检查服务器设置的 AOF 重写条件是否满足,条件满足并且服务器没有进行持久化,就进行一次 AOF 重写
- 加入事务的命令暂时进入到任务队列中,并没有立即执行,只有执行 exec 命令才开始执行
+如果服务器开启了 AOF 持久化功能,并且 AOF 缓冲区里还有待写入的数据, 那么 serverCron 函数会调用相应的程序,将 AOF 缓冲区中的内容写入到 AOF 文件里
-* 取消事务
- ```sh
- discard #终止当前事务的定义,发生在multi之后,exec之前
- ```
- 一般用于事务执行过程中输入了错误的指令,直接取消这次事务,类似于回滚
+***
-Redis 事务的三大特性:
-* Redis 事务是一个单独的隔离操作,将一系列预定义命令包装成一个整体(一个队列),当执行时按照添加顺序依次执行,中间不会被打断或者干扰
-* Redis 事务**没有隔离级别**的概念,队列中的命令在事务没有提交之前都不会实际被执行
-* Redis 单条命令式保存原子性的,但是事务**不保证原子性**,事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚
+##### 延迟执行
+在服务器执行 BGSAVE 命令的期间,如果客户端发送 BGREWRITEAOF 命令,那么服务器会将 BGREWRITEAOF 命令的执行时间延迟到 BGSAVE 命令执行完毕之后,用服务器状态的 aof_rewrite_scheduled 属性标识延迟与否
-***
+```c
+struct redisServer {
+ // 如果值为1,那么表示有 BGREWRITEAOF命令被延迟了
+ int aof_rewrite_scheduled;
+};
+```
+serverCron 函数会检查 BGSAVE 或者 BGREWRITEAOF 命令是否正在执行,如果这两个命令都没在执行,并且 aof_rewrite_scheduled 属性的值为 1,那么服务器就会执行之前被推延的 BGREWRITEAOF 命令
-### 工作流程
-事务机制整体工作流程:
+****
-
-几种常见错误:
-* 定义事务的过程中,命令格式输入错误,出现语法错误造成,**整体事务中所有命令均不会执行**,包括那些语法正确的命令
+##### 执行次数
-
+服务器状态的 cronloops 属性记录了 serverCron 函数执行的次数
-* 定义事务的过程中,命令执行出现错误,例如对字符串进行 incr 操作,能够正确运行的命令会执行,运行错误的命令不会被执行
+```c
+struct redisServer {
+ // serverCron 函数每执行一次,这个属性的值就增 1
+ int cronloops;
+};
+```
-
-* 已经执行完毕的命令对应的数据不会自动回滚,需要程序员在代码中实现回滚,应该尽可能避免:
- 事务操作之前记录数据的状态
+****
- * 单数据:string
- * 多数据:hash、list、set、zset
- 设置指令恢复所有的被修改的项
- * 单数据:直接 set(注意周边属性,例如时效)
- * 多数据:修改对应值或整体克隆复制
+##### 缓冲限制
+服务器会关闭那些输入或者输出**缓冲区大小超出限制**的客户端
-***
-### 监控锁
+****
-对 key 添加监视锁,是一种乐观锁,在执行 exec 前如果其他客户端的操作导致 key 发生了变化,执行结果为 nil
-* 添加监控锁
- ```sh
- watch key1 [key2……] #可以监控一个或者多个key
- ```
+#### 初始化
-* 取消对所有 key 的监视
+##### 初始结构
- ```sh
- unwatch
- ```
+一个 Redis 服务器从启动到能够接受客户端的命令请求,需要经过一系列的初始化和设置过程
-应用:基于状态控制的批量任务执行,防止其他线程对变量的修改
+第一步:创建一个 redisServer 类型的实例变量 server 作为服务器的状态,并为结构中的各个属性设置默认值,由 initServerConfig 函数进行初始化一般属性:
+* 设置服务器的运行 ID、默认运行频率、默认配置文件路径、默认端口号、默认 RDB 持久化条件和 AOF 持久化条件
+* 初始化服务器的 LRU 时钟,创建命令表
+第二步:载入配置选项,用户可以通过给定配置参数或者指定配置文件,对 server 变量相关属性的默认值进行修改
-***
+第三步:初始化服务器数据结构(除了命令表之外),因为服务器**必须先载入用户指定的配置选项才能正确地对数据结构进行初始化**,所以载入配置完成后才进性数据结构的初始化,服务器将调用 initServer 函数:
+* server.clients 链表,记录了的客户端的状态结构;server.db 数组,包含了服务器的所有数据库
+* 用于保存频道订阅信息的 server.pubsub_channels 字典, 以及保存模式订阅信息的 server.pubsub_patterns 链表
+* 用于执行 Lua 脚本的 Lua 环境 server.lua
+* 保存慢查询日志的 server.slowlog 属性
+initServer 还进行了非常重要的设置操作:
-### 分布式锁
+* 为服务器设置进程信号处理器
+* 创建共享对象,包含 OK、ERR、**整数 1 到 10000 的字符串对象**等
+* **打开服务器的监听端口**
+* **为 serverCron 函数创建时间事件**, 等待服务器正式运行时执行 serverCron 函数
+* 如果 AOF 持久化功能已经打开,那么打开现有的 AOF 文件,如果 AOF 文件不存在,那么创建并打开一个新的 AOF 文件 ,为 AOF 写入做好准备
+* **初始化服务器的后台 I/O 模块**(BIO), 为将来的 I/O 操作做好准备
-#### 基本操作
+当 initServer 函数执行完毕之后, 服务器将用 ASCII 字符在日志中打印出 Redis 的图标, 以及 Redis 的版本号信息
-由于分布式系统多线程并发分布在不同机器上,这将使单机部署情况下的并发控制锁策略失效,需要分布式锁
-Redis 分布式锁的基本使用,悲观锁
-* 使用 setnx 设置一个公共锁
+***
- ```sh
- setnx lock-key value # value任意数,返回为1设置成功,返回为0设置失败
- ```
- * 对于返回设置成功的,拥有控制权,进行下一步的具体业务操作
- * 对于返回设置失败的,不具有控制权,排队或等待
- `NX`:只在键不存在时,才对键进行设置操作,`SET key value NX` 效果等同于 `SETNX key value`
+##### 还原状态
- `XX` :只在键已经存在时,才对键进行设置操作
+在完成了对服务器状态的初始化之后,服务器需要载入RDB文件或者AOF 文件, 并根据文件记录的内容来还原服务器的数据库状态:
- `EX`:设置键 key 的过期时间,单位时秒
+* 如果服务器启用了 AOF 持久化功能,那么服务器使用 AOF 文件来还原数据库状态
+* 如果服务器没有启用 AOF 持久化功能,那么服务器使用 RDB 文件来还原数据库状态
- `PX`:设置键 key 的过期时间,单位时毫秒
+当服务器完成数据库状态还原工作之后,服务器将在日志中打印出载入文件并还原数据库状态所耗费的时长
- 说明:由于 `SET` 命令加上选项已经可以完全取代 SETNX、SETEX、PSETEX 的功能,Redis 不推荐使用这几个命令
+```sh
+[7171] 22 Nov 22:43:49.084 * DB loaded from disk: 0.071 seconds
+```
-* 操作完毕通过 del 操作释放锁
- ```sh
- del lock-key
- ```
-* 使用 expire 为锁 key 添加存活(持有)时间,过期自动删除(放弃)锁
+***
- ```sh
- expire lock-key second
- pexpire lock-key milliseconds
- ```
-
- 通过 expire 设置过期时间缺乏原子性,如果在 setnx 和 expire 之间出现异常,锁也无法释放
-
-* 在 set 时指定过期时间
- ```sh
- SET key value [EX seconds | PX milliseconds] NX
-应用:解决抢购时出现超卖现象
+##### 驱动循环
+在初始化的最后一步,服务器将打印出以下日志,并开始**执行服务器的事件循环**(loop)
+```c
+[7171] 22 Nov 22:43:49.084 * The server is now ready to accept connections on pert 6379
+```
-****
+服务器现在开始可以接受客户端的连接请求,并处理客户端发来的命令请求了
-#### 防误删
-setnx 获取锁时,设置一个指定的唯一值(uuid),释放前获取这个值,判断是否自己的锁,防止出现线程之间误删了其他线程的锁
-```java
-// 加锁, unique_value作为客户端唯一性的标识
-SET lock_key unique_value NX PX 10000
-```
+*****
-unique_value 是客户端的唯一标识,可以用一个随机生成的字符串来表示,PX 10000 则表示 lock_key 会在 10s 后过期,以免客户端在这期间发生异常而无法释放锁
+### 慢日志
-***
+#### 基本介绍
+Redis 的慢查询日志功能用于记录执行时间超过给定时长的命令请求,通过产生的日志来监视和优化查询速度
+服务器配置有两个和慢查询日志相关的选项:
-## 删除策略
+* slowlog-log-slower-than 选项指定执行时间超过多少微秒的命令请求会被记录到日志上
+* slowlog-max-len 选项指定服务器最多保存多少条慢查询日志
-### 过期数据
+服务器使用先进先出 FIFO 的方式保存多条慢查询日志,当服务器存储的慢查询日志数量等于 slowlog-max-len 选项的值时,在添加一条新的慢查询日志之前,会先将最旧的一条慢查询日志删除
-Redis 是一种内存级数据库,所有数据均存放在内存中,内存中的数据可以通过 TTL 指令获取其状态
+配置选项可以通过 CONFIG SET option value 命令进行设置
-TTL 返回的值有三种情况:正数,-1,-2
+常用命令:
-- 正数:代表该数据在内存中还能存活的时间
-- -1:永久有效的数据
-- 2 :已经过期的数据或被删除的数据或未定义的数据
+```sh
+SLOWLOG GET [n] # 查看 n 条服务器保存的慢日志
+SLOWLOG LEN # 查看日志数量
+SLOWLOG RESET # 清除所有慢查询日志
+```
-删除策略:**删除策略就是针对已过期数据的处理策略**,已过期的数据不一定被立即删除,在不同的场景下使用不同的删除方式会有不同效果,这就是删除策略的问题
-过期数据是一块独立的存储空间,Hash 结构,field 是内存地址,value 是过期时间,保存了所有 key 的过期描述,在最终进行过期处理的时候,对该空间的数据进行检测, 当时间到期之后通过 field 找到内存该地址处的数据,然后进行相关操作
-
+***
-****
+#### 日志保存
+服务器状态中包含了慢查询日志功能有关的属性:
+```c
+struct redisServer {
+ // 下一条慢查询日志的ID
+ long long slowlog_entry_id;
+
+ // 保存了所有慢查询日志的链表
+ list *slowlog;
+
+ // 服务器配置选项的值
+ long long slowlog-log-slower-than;
+ // 服务器配置选项的值
+ unsigned long slowlog_max_len;
+}
+```
-### 数据删除
+slowlog_entry_id 属性的初始值为 0,每当创建一条新的慢查询日志时,这个属性就会用作新日志的 id 值,之后该属性增一
-#### 删除策略
+slowlog 链表保存了服务器中的所有慢查询日志,链表中的每个节点是一个 slowlogEntry 结构, 代表一条慢查询日志:
-在内存占用与 CPU 占用之间寻找一种平衡,顾此失彼都会造成整体 Redis 性能的下降,甚至引发服务器宕机或内存泄露
+```c
+typedef struct slowlogEntry {
+ // 唯一标识符
+ long long id;
+ // 命令执行时的时间,格式为UNIX时间戳
+ time_t time;
+ // 执行命令消耗的时间,以微秒为单位
+ long long duration;
+ // 命令与命令参数
+ robj **argv;
+ // 命令与命令参数的数量
+ int argc;
+}
+```
-针对过期数据有三种删除策略:
-- 定时删除
-- 惰性删除
-- 定期删除
@@ -10709,13 +10706,16 @@ TTL 返回的值有三种情况:正数,-1,-2
-#### 定时删除
+#### 添加日志
+
+在每次执行命令的前后,程序都会记录微秒格式的当前 UNIX 时间戳,两个时间之差就是执行命令所耗费的时长,函数会检查命令的执行时长是否超过 slowlog-log-slower-than 选项所设置:
+
+* 如果是的话,就为命令创建一个新的日志,并将新日志添加到 slowlog 链表的表头
+* 检查慢查询日志的长度是否超过 slowlog-max-len 选项所设置的长度,如果是将多出来的日志从 slowlog 链表中删除掉
+
+* 将 redisServer. slowlog_entry_id 的值增 1
-创建一个定时器,当 key 设置有过期时间,且过期时间到达时,由定时器任务立即执行对键的删除操作
-- 优点:节约内存,到时就删除,快速释放掉不必要的内存占用
-- 缺点:无论 CPU 此时负载量多高,均占用 CPU,会影响 Redis 服务器响应时间和指令吞吐量
-- 总结:用处理器性能换取存储空间(拿时间换空间)
@@ -10723,60 +10723,62 @@ TTL 返回的值有三种情况:正数,-1,-2
-#### 惰性删除
-数据到达过期时间,不做处理,等下次访问该数据时,需要判断:
-* 如果未过期,返回数据
-* 如果已过期,删除,返回不存在
+## 数据结构
-在任何 get 操作之前都要执行 **expireIfNeeded()**,相当于绑定在一起
+### 字符串
-特点:
+#### SDS
-* 优点:节约 CPU 性能,发现必须删除的时候才删除
-* 缺点:内存压力很大,出现长期占用内存的数据
-* 总结:用存储空间换取处理器性能(拿空间换时间)
+Redis 构建了简单动态字符串(SDS)的数据类型,作为 Redis 的默认字符串表示,包含字符串的键值对在底层都是由 SDS 实现
+```c
+struct sdshdr {
+ // 记录buf数组中已使用字节的数量,等于 SDS 所保存字符串的长度
+ int len;
+
+ // 记录buf数组中未使用字节的数量
+ int free;
+
+ // 【字节】数组,用于保存字符串(不是字符数组)
+ char buf[];
+};
+```
+SDS 遵循 C 字符串**以空字符结尾**的惯例,保存空字符的 1 字节不计算在 len 属性,SDS 会自动为空字符分配额外的 1 字节空间和添加空字符到字符串末尾,所以空字符对于 SDS 的使用者来说是完全透明的
-***
+
-#### 定期删除
+***
-定时删除和惰性删除这两种方案都是走的极端,定期删除就是折中方案
-定期删除是周期性轮询 Redis 库中的时效性数据,采用随机抽取的策略,利用过期数据占比的方式控制删除频度
-定期删除方案:
+#### 对比
-- Redis 启动服务器初始化时,读取配置 server.hz 的值,默认为 10,执行指令 info server 可以查看
+常数复杂度获取字符串长度:
-- 每秒钟执行 server.hz 次 serverCron() → databasesCron() → activeExpireCycle()
+* C 字符串不记录自身的长度,获取时需要遍历整个字符串,遇到空字符串为止,时间复杂度为 O(N)
+* SDS 获取字符串长度的时间复杂度为 O(1),设置和更新 SDS 长度由函数底层自动完成
-- databasesCron() 操作是**轮询每个数据库**
+杜绝缓冲区溢出:
-- activeExpireCycle() 对某个数据库中的每个 expires 进行检测,每次执行耗时:250ms/server.hz
+* C 字符串调用 strcat 函数拼接字符串时,如果字符串内存不够容纳目标字符串,就会造成缓冲区溢出(Buffer Overflow)
- 对某个 expires[*] 检测时,随机挑选 W 个 key 检测
+ s1 和 s2 是内存中相邻的字符串,执行 `strcat(s1, " Cluster")`(有空格):
- - 如果 key 超时,删除 key
- - 如果一轮中删除的 key 的数量 > W*25%,循环该过程
- - 如果一轮中删除的 key 的数量 ≤ W*25%,检查下一个expires[],0-15 循环
- - W 取值 = ACTIVE_EXPIRE_CYCLE_LOOKUPS_PER_LOOP 属性值,自定义值
+ 
-* 参数 current_db 用于记录 activeExpireCycle() 进入哪个expires[*] 执行
-* 如果 activeExpireCycle() 执行时间到期,下次从 current_db 继续向下执行
+* SDS 空间分配策略:当对 SDS 进行修改时,首先检查 SDS 的空间是否满足修改所需的要求, 如果不满足会自动将 SDS 的空间扩展至执行修改所需的大小,然后执行实际的修改操作, 避免了缓冲区溢出的问题
-
+二进制安全:
-定期删除特点:
+* C 字符串中的字符必须符合某种编码(比如 ASCII)方式,除了字符串末尾以外其他位置不能包含空字符,否则会被误认为是字符串的结尾,所以只能保存文本数据
+* SDS 的 API 都是二进制安全的,使用字节数组 buf 保存一系列的二进制数据,**使用 len 属性来判断数据的结尾**,所以可以保存图片、视频、压缩文件等二进制数据
-- CPU 性能占用设置有峰值,检测频度可自定义设置
-- 内存压力不是很大,长期占用内存的冷数据会被持续清理
-- 周期性抽查存储空间(随机抽查,重点抽查)
+兼容 C 字符串的函数:SDS 会在为 buf 数组分配空间时多分配一个字节来保存空字符,所以可以重用一部分 C 字符串函数库的函数
@@ -10784,31 +10786,31 @@ TTL 返回的值有三种情况:正数,-1,-2
-#### 策略对比
+#### 内存
-| | 优点 | 缺点 | 特点 |
-| -------- | ---------------- | ----------------------------- | ------------------ |
-| 定时删除 | 节约内存,无占用 | 不分时段占用CPU资源,频度高 | 拿时间换空间 |
-| 惰性删除 | 内存占用严重 | 延时执行,CPU利用率高 | 拿空间换时间 |
-| 定期删除 | 内存定期随机清理 | 每秒花费固定的CPU资源维护内存 | 随机抽查,重点抽查 |
+C 字符串**每次**增长或者缩短都会进行一次内存重分配,拼接操作通过重分配扩展底层数组空间,截断操作通过重分配释放不使用的内存空间,防止出现内存泄露
+SDS 通过未使用空间解除了字符串长度和底层数组长度之间的关联,在 SDS 中 buf 数组的长度不一定就是字符数量加一, 数组里面可以包含未使用的字节,字节的数量由 free 属性记录
+内存重分配涉及复杂的算法,需要执行**系统调用**,是一个比较耗时的操作,SDS 的两种优化策略:
-***
+* 空间预分配:当 SDS 需要进行空间扩展时,程序不仅会为 SDS 分配修改所必需的空间, 还会为 SDS 分配额外的未使用空间
+ * 对 SDS 修改之后,SDS 的长度(len 属性)小于 1MB,程序分配和 len 属性同样大小的未使用空间,此时 len 和 free 相等
+ s 为 Redis,执行 `sdscat(s, " Cluster")` 后,len 变为 13 字节,所以也分配了 13 字节的 free 空间,总长度变为 27 字节(额外的一字节保存空字符,13 + 13 + 1 = 27)
-### 数据淘汰
+ 
-#### 逐出算法
+ * 对 SDS 修改之后,SDS 的长度大于等于 1MB,程序会分配 1MB 的未使用空间
-数据淘汰策略:当新数据进入 Redis 时,在执行每一个命令前,会调用 **freeMemoryIfNeeded()** 检测内存是否充足。如果内存不满足新加入数据的最低存储要求,Redis 要临时删除一些数据为当前指令清理存储空间,清理数据的策略称为**逐出算法**
+ 在扩展 SDS 空间前,API 会先检查 free 空间是否足够,如果足够就无需执行内存重分配,所以通过预分配策略,SDS 将连续增长 N 次字符串所需内存的重分配次数从**必定 N 次降低为最多 N 次**
+
+* 惰性空间释放:当 SDS 缩短字符串时,程序并不立即使用内存重分配来回收缩短后多出来的字节,而是使用 free 属性将这些字节的数量记录起来,并等待将来复用
+
+ SDS 提供了相应的 API 来真正释放 SDS 的未使用空间,所以不用担心空间惰性释放策略造成的内存浪费问题
-逐出数据的过程不是 100% 能够清理出足够的可使用的内存空间,如果不成功则反复执行,当对所有数据尝试完毕,如不能达到内存清理的要求,**出现 Redis 内存打满异常**:
-```sh
-(error) OOM command not allowed when used memory >'maxmemory'
-```
@@ -10816,388 +10818,406 @@ TTL 返回的值有三种情况:正数,-1,-2
-#### 策略配置
+### 链表
-Redis 如果不设置最大内存大小或者设置最大内存大小为 0,在 64 位操作系统下不限制内存大小,在 32 位操作系统默认为 3GB 内存,一般推荐设置 Redis 内存为最大物理内存的四分之三
+链表提供了高效的节点重排能力,C 语言并没有内置这种数据结构,所以 Redis 构建了链表数据类型
-内存配置方式:
+链表节点:
-* 通过修改文件配置(永久生效):修改配置文件 maxmemory 字段,单位为字节
+```c
+typedef struct listNode {
+ // 前置节点
+ struct listNode *prev;
+
+ // 后置节点
+ struct listNode *next;
+
+ // 节点的值
+ void *value
+} listNode;
+```
-* 通过命令修改(重启失效):
+多个 listNode 通过 prev 和 next 指针组成**双端链表**:
- * `config set maxmemory 104857600`:设置 Redis 最大占用内存为 100MB
- * `config get maxmemory`:获取 Redis 最大占用内存
+
- * `info` :可以查看 Redis 内存使用情况,`used_memory_human` 字段表示实际已经占用的内存,`maxmemory` 表示最大占用内存
+list 链表结构:提供了表头指针 head 、表尾指针 tail 以及链表长度计数器 len
-影响数据淘汰的相关配置如下,配置 conf 文件:
+```c
+typedef struct list {
+ // 表头节点
+ listNode *head;
+ // 表尾节点
+ listNode *tail;
+
+ // 链表所包含的节点数量
+ unsigned long len;
+
+ // 节点值复制函数,用于复制链表节点所保存的值
+ void *(*dup) (void *ptr);
+ // 节点值释放函数,用于释放链表节点所保存的值
+ void (*free) (void *ptr);
+ // 节点值对比函数,用于对比链表节点所保存的值和另一个输入值是否相等
+ int (*match) (void *ptr, void *key);
+} list;
+```
-* 每次选取待删除数据的个数,采用随机获取数据的方式作为待检测删除数据,防止全库扫描,导致严重的性能消耗,降低读写性能
+
- ```sh
- maxmemory-samples count
- ```
+Redis 链表的特性:
-* 达到最大内存后的,对被挑选出来的数据进行删除的策略
+* 双端:链表节点带有 prev 和 next 指针,获取某个节点的前置节点和后置节点的时间复杂度都是 O(1)
+* 无环:表头节点的 prev 指针和表尾节点的 next 指针都指向 NULL,对链表的访问以 NULL 为终点
+* 带表头指针和表尾指针: 通过 list 结构的 head 指针和 tail 指针,获取链表的表头节点和表尾节点的时间复杂度为 O(1)
+* 带链表长度计数器:使用 len 属性来对 list 持有的链表节点进行计数,获取链表中节点数量的时间复杂度为 O(1)
+* 多态:链表节点使用 void * 指针来保存节点值, 并且可以通过 dup、free 、match 三个属性为节点值设置类型特定函数,所以链表可以保存各种**不同类型的值**
- ```sh
- maxmemory-policy policy
- ```
- 数据删除的策略 policy:3 类 8 种
- 第一类:检测易失数据(可能会过期的数据集 server.db[i].expires):
- ```sh
- volatile-lru # 对设置了过期时间的 key 选择最近最久未使用使用的数据淘汰
- volatile-lfu # 对设置了过期时间的 key 选择最近使用次数最少的数据淘汰
- volatile-ttl # 对设置了过期时间的 key 选择将要过期的数据淘汰
- volatile-random # 对设置了过期时间的 key 选择任意数据淘汰
- ```
- 第二类:检测全库数据(所有数据集 server.db[i].dict ):
+****
- ```sh
- allkeys-lru # 对所有 key 选择最近最少使用的数据淘汰
- allkeLyRs-lfu # 对所有 key 选择最近使用次数最少的数据淘汰
- allkeys-random # 对所有 key 选择任意数据淘汰,相当于随机
- ```
- 第三类:放弃数据驱逐
- ```sh
- no-enviction #禁止驱逐数据(redis4.0中默认策略),会引发OOM(Out Of Memory)
- ```
+### 字典
-数据淘汰策略配置依据:使用 INFO 命令输出监控信息,查询缓存 hit 和 miss 的次数,根据需求调优 Redis 配置
+#### 哈希表
+Redis 字典使用的哈希表结构:
+```c
+typedef struct dictht {
+ // 哈希表数组,数组中每个元素指向 dictEntry 结构
+ dictEntry **table;
+
+ // 哈希表大小,数组的长度
+ unsigned long size;
+
+ // 哈希表大小掩码,用于计算索引值,总是等于 【size-1】
+ unsigned long sizemask;
+
+ // 该哈希表已有节点的数量
+ unsigned long used;
+} dictht;
+```
+哈希表节点结构:
+```c
+typedef struct dictEntry {
+ // 键
+ void *key;
+
+ // 值,可以是一个指针,或者整数
+ union {
+ void *val; // 指针
+ uint64_t u64;
+ int64_t s64;
+ }
+
+ // 指向下个哈希表节点,形成链表,用来解决冲突问题
+ struct dictEntry *next;
+} dictEntry;
+```
-***
+
-## 主从复制
+***
-### 基本介绍
-**三高**架构:
-- 高并发:应用提供某一业务要能支持很多客户端同时访问的能力,我们称为并发
+#### 字典结构
-- 高性能:性能带给我们最直观的感受就是:速度快,时间短
+字典,又称为符号表、关联数组、映射(Map),用于保存键值对的数据结构,字典中的每个键都是独一无二的。底层采用哈希表实现,一个哈希表包含多个哈希表节点,每个节点保存一个键值对
-- 高可用:
- - 可用性:应用服务在全年宕机的时间加在一起就是全年应用服务不可用的时间
- - 业界可用性目标 5 个 9,即 99.999%,即服务器年宕机时长低于 315 秒,约 5.25 分钟
+```c
+typedef struct dict {
+ // 类型特定函数
+ dictType *type;
+
+ // 私有数据
+ void *privdata;
+
+ // 哈希表,数组中的每个项都是一个dictht哈希表,
+ // 一般情况下字典只使用 ht[0] 哈希表, ht[1] 哈希表只会在对 ht[0] 哈希表进行 rehash 时使用
+ dictht ht[2];
+
+ // rehash 索引,当 rehash 不在进行时,值为 -1
+ int rehashidx;
+} dict;
+```
-主从复制:
+type 属性和 privdata 属性是针对不同类型的键值对, 为创建多态字典而设置的:
-* 概念:将 master 中的数据即时、有效的复制到 slave 中
-* 特征:一个 master 可以拥有多个 slave,一个 slave 只对应一个 master
-* 职责:master 和 slave 各自的职责不一样
+* type 属性是指向 dictType 结构的指针, 每个 dictType 结构保存了一簇用于操作特定类型键值对的函数, Redis 会为用途不同的字典设置不同的类型特定函数
+* privdata 属性保存了需要传给那些类型特定函数的可选参数
- master:
- * **写数据**,执行写操作时,将出现变化的数据自动同步到 slave
- * 读数据(可忽略)
+
- slave
- * **读数据**
- * 写数据(禁止)
-主从复制的机制:
-* **薪火相传**:一个 slave 可以是下一个 slave 的 master,slave 同样可以接收其他 slave 的连接和同步请求,那么该 slave 作为了链条中下一个的 master, 可以有效减轻 master 的写压力,去中心化降低风险
+****
- 注意:主机挂了,从机还是从机,无法写数据了
-* **反客为主**:当一个 master 宕机后,后面的 slave 可以立刻升为 master,其后面的 slave 不做任何修改
- 将从机变为主机的命令:`slaveof no one`
+#### 哈希冲突
-主从复制的作用:
+Redis 使用 MurmurHash 算法来计算键的哈希值,这种算法的优点在于,即使输入的键是有规律的,算法仍能给出一个很好的随机分布性,并且算法的计算速度也非常快
-- **读写分离**:master 写、slave 读,提高服务器的读写负载能力
-- **负载均衡**:基于主从结构,配合读写分离,由 slave 分担 master 负载,并根据需求的变化,改变 slave 的数量,通过多个从节点分担数据读取负载,大大提高 Redis 服务器并发量与数据吞吐量
-- 故障恢复:当 master 出现问题时,由 slave 提供服务,实现快速的故障恢复
-- 数据冗余:实现数据热备份,是持久化之外的一种数据冗余方式
-- 高可用基石:基于主从复制,构建哨兵模式与集群,实现 Redis 的高可用方案
+将一个新的键值对添加到字典里,需要先根据键 key 计算出哈希值,然后进行取模运算(取余):
-主从复制的应用场景:
+```c
+index = hash & dict->ht[x].sizemask
+```
-* 机器故障:硬盘故障、系统崩溃,造成数据丢失,对业务形成灾难性打击,基本上会放弃使用redis
+当有两个或以上数量的键被分配到了哈希表数组的同一个索引上时,就称这些键发生了哈希冲突(collision)
-* 容量瓶颈:内存不足,放弃使用 redis
+Redis 的哈希表使用链地址法(separate chaining)来解决键哈希冲突, 每个哈希表节点都有一个 next 指针,多个节点通过 next 指针构成一个单向链表,被分配到同一个索引上的多个节点可以用这个单向链表连接起来,这就解决了键冲突的问题
-* 解决方案:为了避免单点 Redis 服务器故障,准备多台服务器,互相连通。将数据复制多个副本保存在不同的服务器上连接在一起,并保证数据是同步的。即使有其中一台服务器宕机,其他服务器依然可以继续提供服务,实现 Redis 高可用,同时实现数据冗余备份
+dictEntry 节点组成的链表没有指向链表表尾的指针,为了速度考虑,程序总是将新节点添加到链表的表头位置(**头插法**),时间复杂度为 O(1)
-
+
-***
+****
-### 工作流程
+#### 负载因子
-主从复制过程大体可以分为3个阶段
+负载因子的计算方式:哈希表中的**节点数量** / 哈希表的大小(**长度**)
-* 建立连接阶段(即准备阶段)
-* 数据同步阶段
-* 命令传播阶段
+```c
+load_factor = ht[0].used / ht[0].size
+```
-
+为了让哈希表的负载因子(load factor)维持在一个合理的范围之内,当哈希表保存的键值对数量太多或者太少时 ,程序会自动对哈希表的大小进行相应的扩展或者收缩
+哈希表执行扩容的条件:
+* 服务器没有执行 BGSAVE 或者 BGREWRITEAOF 命令,哈希表的负载因子大于等于 1
-***
+* 服务器正在执行 BGSAVE 或者 BGREWRITEAOF 命令,哈希表的负载因子大于等于 5
+ 原因:执行该命令的过程中,Redis 需要创建当前服务器进程的子进程,而大多数操作系统都采用写时复制(copy-on-write)技术来优化子进程的使用效率,通过提高执行扩展操作的负载因子,尽可能地避免在子进程存在期间进行哈希表扩展操作,可以避免不必要的内存写入操作,最大限度地节约内存
+哈希表执行收缩的条件:负载因子小于 0.1(自动执行,servreCron 中检测)
-### 建立连接
-#### 建立流程
-建立连接阶段:建立 slave 到 master 的连接,使 master 能够识别 slave,并保存 slave 端口号
+***
-流程如下:
-1. 设置 master 的地址和端口,保存 master 信息
-2. 建立 socket 连接
-3. 发送 ping 命令(定时器任务)
-4. 身份验证(可能没有)
-5. 发送 slave 端口信息
-6. 主从连接成功
-连接成功的状态:
+#### 重新散列
-* slave:保存 master 的地址与端口
+扩展和收缩哈希表的操作通过 rehash(重新散列)来完成,步骤如下:
-* master:保存 slave 的端口
+* 为字典的 ht[1] 哈希表分配空间,空间大小的分配情况:
+ * 如果执行的是扩展操作,ht[1] 的大小为第一个大于等于 $ht[0].used * 2$ 的 $2^n$
+ * 如果执行的是收缩操作,ht[1] 的大小为第一个大于等于 $ht[0].used$ 的 $2^n$
+* 将保存在 ht[0] 中所有的键值对重新计算哈希值和索引值,迁移到 ht[1] 上
+* 当 ht[0] 包含的所有键值对都迁移到了 ht[1] 之后(ht[0] 变为空表),释放 ht[0],将 ht[1] 设置为 ht[0],并在 ht[1] 创建一个新的空白哈希表,为下一次 rehash 做准备
-* 主从之间创建了连接的 socket
+如果哈希表里保存的键值对数量很少,rehash 就可以在瞬间完成,但是如果哈希表里数据很多,那么要一次性将这些键值对全部 rehash 到 ht[1] 需要大量计算,可能会导致服务器在一段时间内停止服务
-
+Redis 对 rehash 做了优化,使 rehash 的动作并不是一次性、集中式的完成,而是分多次,渐进式的完成,又叫**渐进式 rehash**
+* 为 ht[1] 分配空间,此时字典同时持有 ht[0] 和 ht[1] 两个哈希表
+* 在字典中维护了一个索引计数器变量 rehashidx,并将变量的值设为 0,表示 rehash 正式开始
+* 在 rehash 进行期间,每次对字典执行增删改查操作时,程序除了执行指定的操作以外,还会顺带将 ht[0] 哈希表在 rehashidx 索引上的所有键值对 rehash 到 ht[1],rehash 完成之后**将 rehashidx 属性的值增一**
+* 随着字典操作的不断执行,最终在某个时间点 ht[0] 的所有键值对都被 rehash 至 ht[1],将 rehashidx 属性的值设为 -1
+渐进式 rehash 采用**分而治之**的方式,将 rehash 键值对所需的计算工作均摊到对字典的每个添加、删除、查找和更新操作上,从而避免了集中式 rehash 带来的庞大计算量
-***
+渐进式 rehash 期间的哈希表操作:
+* 字典的查找、删除、更新操作会在两个哈希表上进行,比如查找一个键会先在 ht[0] 上查找,查找不到就去 ht[1] 继续查找
+* 字典的添加操作会直接在 ht[1] 上添加,不在 ht[0] 上进行任何添加
-#### 相关指令
-* master 和 slave 互联
- 方式一:客户端发送命令
- ```sh
- slaveof masterip masterport
- ```
+****
- 方式二:服务器带参启动
- ```sh
- redis-server --slaveof masterip masterport
- ```
- 方式三:服务器配置(主流方式)
+### 跳跃表
- ```sh
- slaveof masterip masterport
- ```
+#### 底层结构
- * slave 系统信息:info 指令
+跳跃表(skiplist)是一种有序(**默认升序**)的数据结构,在链表的基础上**增加了多级索引以提升查找的效率**,索引是占内存的,所以是一个**空间换时间**的方案,跳表平均 O(logN)、最坏 O(N) 复杂度的节点查找,效率与平衡树相当但是实现更简单
- ```sh
- master_link_down_since_seconds
- masterhost & masterport
- ```
+原始链表中存储的有可能是很大的对象,而索引结点只需要存储关键值和几个指针,并不需要存储对象,因此当节点本身比较大或者元素数量比较多的时候,其优势可以被放大,而缺点(占内存)则可以忽略
- * master 系统信息:
+Redis 只在两个地方应用了跳跃表,一个是实现有序集合键,另一个是在集群节点中用作内部数据结构
- ```sh
- uslave_listening_port(多个)
- ```
+```c
+typedef struct zskiplist {
+ // 表头节点和表尾节点,O(1) 的时间复杂度定位头尾节点
+ struct skiplistNode *head, *tail;
+
+ // 表的长度,也就是表内的节点数量 (表头节点不计算在内)
+ unsigned long length;
- * 系统信息:
+ // 表中层数最大的节点的层数 (表头节点的层高不计算在内)
+ int level
+} zskiplist;
+```
- ```sh
- info replication
- ```
+```c
+typedef struct zskiplistNode {
+ // 层
+ struct zskiplistLevel {
+ // 前进指针
+ struct zskiplistNode *forward;
+ // 跨度
+ unsigned int span;
+ } level[];
+
+ // 后退指针
+ struct zskiplistNode *backward;
+
+ // 分值
+ double score;
+
+ // 成员对象
+ robj *obj;
+} zskiplistNode;
+```
-* 主从断开连接:断开 slave 与 master 的连接,slave 断开连接后,不会删除已有数据,只是不再接受 master 发送的数据
+
- slave客户端执行命令:
- ```sh
- slaveof no one
- ```
-
-* 授权访问:master 有服务端和客户端,slave 也有服务端和客户端,不仅服务端之间可以发命令,客户端也可以
- master 客户端发送命令设置密码:
+***
- ```sh
- requirepass password
- ```
-
- master 配置文件设置密码:
- ```sh
- config set requirepass password
- config get requirepass
- ```
-
- slave 客户端发送命令设置密码:
- ```sh
- auth password
- ```
-
- slave 配置文件设置密码:
+#### 属性分析
- ```sh
- masterauth password
- ```
-
- slave 启动服务器设置密码:
+层:level 数组包含多个元素,每个元素包含指向其他节点的指针。根据幕次定律(power law,越大的数出现的概率越小)**随机**生成一个介于 1 和 32 之间的值(Redis5 之后最大为 64)作为 level 数组的大小,这个大小就是层的高度,节点的第一层是 level[0] = L1
- ```sh
- redis-server –a password
- ```
-
-
+前进指针:forward 用于从表头到表尾方向**正序(升序)遍历节点**,遇到 NULL 停止遍历
-***
+跨度:span 用于记录两个节点之间的距离,用来计算排位(rank):
+* 两个节点之间的跨度越大相距的就越远,指向 NULL 的所有前进指针的跨度都为 0
+* 在查找某个节点的过程中,**将沿途访问过的所有层的跨度累计起来,结果就是目标节点在跳跃表中的排位**,按照上图所示:
-### 数据同步
+ 查找分值为 3.0 的节点,沿途经历的层:查找的过程只经过了一个层,并且层的跨度为 3,所以目标节点在跳跃表中的排位为 3
-#### 同步流程
+ 查找分值为 2.0 的节点,沿途经历的层:经过了两个跨度为 1 的节点,因此可以计算出目标节点在跳跃表中的排位为 2
-数据同步需求:
+后退指针:backward 用于从表尾到表头方向**逆序(降序)遍历节点**
-- 在 slave 初次连接 master 后,复制 master 中的所有数据到 slave
-- 将 slave 的数据库状态更新成 master 当前的数据库状态
+分值:score 属性一个 double 类型的浮点数,跳跃表中的所有节点都按分值从小到大来排序
-同步过程如下:
+成员对象:obj 属性是一个指针,指向一个 SDS 字符串对象。同一个跳跃表中,各个节点保存的**成员对象必须是唯一的**,但是多个节点保存的分值可以是相同的,分值相同的节点将按照成员对象在字典序中的大小来进行排序(从小到大)
-1. 请求同步数据
-2. 创建 RDB 同步数据
-3. 恢复 RDB 同步数据(从服务器会**清空原有数据**)
-4. 请求部分同步数据
-5. 恢复部分同步数据
-6. 数据同步工作完成
-同步完成的状态:
-* slave:具有 master 端全部数据,包含 RDB 过程接收的数据
+个人笔记:JUC → 并发包 → ConcurrentSkipListMap 详解跳跃表
-* master:保存 slave 当前数据同步的位置
-* 主从之间完成了数据克隆
-
+****
-***
+### 整数集合
+#### 底层结构
+整数集合(intset)是用于保存整数值的集合数据结构,是 Redis 集合键的底层实现之一
-#### 同步优化
+```c
+typedef struct intset {
+ // 编码方式
+ uint32_t encoding;
+
+ // 集合包含的元素数量,也就是 contents 数组的长度
+ uint32_t length;
+
+ // 保存元素的数组
+ int8_t contents[];
+} intset;
+```
-* 数据同步阶段 master 说明
+encoding 取值为三种:INTSET_ENC_INT16、INTSET_ENC_INT32、INTSET_ENC_INT64
- 1. master 数据量巨大,数据同步阶段应避开流量高峰期,避免造成 master 阻塞,影响业务正常执行
+整数集合的每个元素都是 contents 数组的一个数组项(item),在数组中按值的大小从小到大**有序排列**,并且数组中**不包含任何重复项**。虽然 contents 属性声明为 int8_t 类型,但实际上数组并不保存任何 int8_t 类型的值, 真正类型取决于 encoding 属性
- 2. 复制缓冲区大小设定不合理,会导致**数据溢出**。比如进行全量复制周期太长,进行部分复制时发现数据已经存在丢失的情况,必须进行第二次全量复制,致使 slave 陷入死循环状态
+
- ```sh
- repl-backlog-size ?mb
- ```
+说明:底层存储结构是数组,所以为了保证有序性和不重复性,每次添加一个元素的时间复杂度是 O(N)
- 建议设置如下:
- * 测算从 master 到 slave 的重连平均时长 second
- * 获取 master 平均每秒产生写命令数据总量 write_size_per_second
- * 最优复制缓冲区空间 = 2 * second * write_size_per_second
- 3. master 单机内存占用主机内存的比例不应过大,建议使用 50%-70% 的内存,留下 30%-50% 的内存用于执行 bgsave 命令和创建复制缓冲区
+****
-* 数据同步阶段 slave 说明
- 1. 为避免 slave 进行全量复制、部分复制时服务器响应阻塞或数据不同步,建议关闭此期间的对外服务
- ```sh
- slave-serve-stale-data yes|no
- ```
+#### 类型升级
- 2. 数据同步阶段,master 发给 slave 信息可以理解 master是 slave 的一个客户端,主动向 slave 发送命令
+整数集合添加的新元素的类型比集合现有所有元素的类型都要长时,需要先进行升级(upgrade),升级流程:
- 3. 多个 slave 同时对 master 请求数据同步,master 发送的 RDB 文件增多,会对带宽造成巨大冲击,如果 master 带宽不足,因此数据同步需要根据业务需求,适量错峰
+* 根据新元素的类型长度以及集合元素的数量(包括新元素在内),扩展整数集合底层数组的空间大小
- 4. slave 过多时,建议调整拓扑结构,由一主多从结构变为树状结构,中间的节点既是 master,也是 slave。注意使用树状结构时,由于层级深度,导致深度越高的 slave 与最顶层 master 间数据同步延迟较大,数据一致性变差,应谨慎选择
+* 将底层数组现有的所有元素都转换成与新元素相同的类型,并将转换后的元素放入正确的位置,放置过程保证数组的有序性
+ 图示 32 * 4 = 128 位,首先将 3 放入索引 2(64 位 - 95 位),然后将 2 放置索引 1,将 1 放置在索引 0,从后向前依次放置在对应的区间,最后放置 65535 元素到索引 3(96 位- 127 位),修改 length 属性为 4
+* 将新元素添加到底层数组里
-***
+
+每次向整数集合添加新元素都可能会引起升级,而每次升级都需要对底层数组中的所有元素进行类型转换,所以向整数集合添加新元素的时间复杂度为 O(N)
+引发升级的新元素的长度总是比整数集合现有所有元素的长度都大,所以这个新元素的值要么就大于所有现有元素,要么就小于所有现有元素,升级之后新元素的摆放位置:
-### 命令传播
+* 在新元素小于所有现有元素的情况下,新元素会被放置在底层数组的最开头(索引 0)
+* 在新元素大于所有现有元素的情况下,新元素会被放置在底层数组的最末尾(索引 length-1)
-#### 传播原理
+整数集合升级策略的优点:
-命令传播:当 master 数据库状态被修改后,导致主从服务器数据库状态不一致,此时需要让主从数据同步到一致的状态,同步的动作称为命令传播
+* 提升整数集合的灵活性:C 语言是静态类型语言,为了避免类型错误通常不会将两种不同类型的值放在同一个数据结构里面,整数集合可以自动升级底层数组来适应新元素,所以可以随意的添加整数
-命令传播的过程:master 将接收到的数据变更命令发送给 slave,slave 接收命令后执行命令
+* 节约内存:要让数组可以同时保存 int16、int32、int64 三种类型的值,可以直接使用 int64_t 类型的数组作为整数集合的底层实现,但是会造成内存浪费,整数集合可以确保升级操作只会在有需要的时候进行,尽量节省内存
-命令传播阶段出现了断网现象:
+整数集合**不支持降级操作**,一旦对数组进行了升级,编码就会一直保持升级后的状态
-* 网络闪断闪连:忽略
-* 短时间网络中断:部分复制
-* 长时间网络中断:全量复制
-部分复制的三个核心要素:服务器的运行 id(run id)、主服务器的复制积压缓冲区、主从服务器的复制偏移量
-* 服务器运行ID(runid):服务器运行 ID 是每一台服务器每次运行的身份识别码,一台服务器多次运行可以生成多个运行 ID,由 40 位字符组成,是一个随机的十六进制字符
- 作用:用于在服务器间进行传输识别身份,如果想两次操作均对同一台服务器进行,必须每次操作携带对应的运行 ID,用于对方识别
- 实现:运行 ID 在每台服务器启动时自动生成,master 在首次连接 slave 时,将运行 ID 发送给 slave,slave 保存此 ID,通过 info Server 命令,可以查看节点的 runid
+*****
-* 复制缓冲区:复制积压缓冲区,是一个先进先出(FIFO)的队列,用于存储服务器执行过的命令
- 作用:用于保存 master 收到的所有指令(仅影响数据变更的指令,例如 set,select)
- 实现方式:每次传播命令,master 都会将传播的命令记录下来,并存储在复制缓冲区,复制缓冲区默认数据存储空间大小是 1M,当入队元素的数量大于队列长度时,最先入队的元素被弹出,新元素会被放入队列
+### 压缩列表
-* 复制偏移量:一个数字,描述复制缓冲区中的指令字节位置
+#### 底层结构
- - master 复制偏移量:记录发送给所有 slave 的指令字节对应的位置(多个)
- - slave 复制偏移量:记录 slave 接收 master 发送过来的指令字节对应的位置(一个)
-
- 作用:同步信息,比对 master 与 slave 的差异,当 slave 断线后,恢复数据使用
-
- 数据来源:
-
- - master 端:发送一次记录一次
- - slave 端:接收一次记录一次
+压缩列表(ziplist)是 Redis 为了节约内存而开发的,是列表键和哈希键的底层实现之一。是由一系列特殊编码的连续内存块组成的顺序型(sequential)数据结构,一个压缩列表可以包含任意多个节点(entry),每个节点可以保存一个字节数组或者一个整数值
-**工作原理**:
+
-- 通过 offset 区分不同的 slave 当前数据传播的差异
-- master 记录已发送的信息对应的 offset
-- slave 记录已接收的信息对应的 offset
+* zlbytes:uint32_t 类型 4 字节,记录整个压缩列表占用的内存字节数,在对压缩列表进行内存重分配或者计算 zlend 的位置时使用
+* zltail:uint32_t 类型 4 字节,记录压缩列表表尾节点距离起始地址有多少字节,通过这个偏移量程序无须遍历整个压缩列表就可以确定表尾节点的地址
+* zllen:uint16_t 类型 2 字节,记录了压缩列表包含的节点数量,当该属性的值小于 UINT16_MAX (65535) 时,该值就是压缩列表中节点的数量;当这个值等于 UINT16_MAX 时节点的真实数量需要遍历整个压缩列表才能计算得出
+* entryX:列表节点,压缩列表中的各个节点,**节点的长度由节点保存的内容决定**
+* zlend:uint8_t 类型 1 字节,是一个特殊值 0xFF (255),用于标记压缩列表的末端
-
+
+
+列表 zlbytes 属性的值为 0x50 (十进制 80),表示压缩列表的总长为 80 字节,列表 zltail 属性的值为 0x3c (十进制 60),假设表的起始地址为 p,计算得出表尾节点 entry3 的地址 p + 60
@@ -11205,119 +11225,114 @@ Redis 如果不设置最大内存大小或者设置最大内存大小为 0,在
-#### 复制流程
+#### 列表节点
-全量复制/部分复制
+列表节点 entry 的数据结构:
-
+
+previous_entry_length:以字节为单位记录了压缩列表中前一个节点的长度,程序可以通过指针运算,根据当前节点的起始地址来计算出前一个节点的起始地址,完成**从表尾向表头遍历**操作
+* 如果前一节点的长度小于 254 字节,该属性的长度为 1 字节,前一节点的长度就保存在这一个字节里
+* 如果前一节点的长度大于等于 254 字节,该属性的长度为 5 字节,其中第一字节会被设置为 0xFE(十进制 254),之后的四个字节则用于保存前一节点的长度
+encoding:记录了节点的 content 属性所保存的数据类型和长度
+* **长度为 1 字节、2 字节或者 5 字节**,值的最高位为 00、01 或者 10 的是字节数组编码,数组的长度由编码除去最高两位之后的其他位记录,下划线 `_` 表示留空,而 `b`、`x` 等变量则代表实际的二进制数据
-***
+ 
+* 长度为 1 字节,值的最高位为 11 的是整数编码,整数值的类型和长度由编码除去最高两位之后的其他位记录
+ 
-#### 心跳机制
+content:每个压缩列表节点可以保存一个字节数组或者一个整数值
-心跳机制:进入命令传播阶段,master 与 slave 间需要信息交换,使用心跳机制维护,实现双方连接保持在线
+* 字节数组可以是以下三种长度的其中一种:
-master 心跳任务:
+ * 长度小于等于 $63 (2^6-1)$ 字节的字节数组
-- 内部指令:PING
-- 周期:由 `repl-ping-slave-period` 决定,默认10秒
-- 作用:判断 slave 是否在线
-- 查询:INFO replication 获取 slave 最后一次连接时间间隔,lag 项维持在 0 或 1 视为正常
+ * 长度小于等于 $16383(2^{14}-1)$ 字节的字节数组
-slave 心跳任务
+ * 长度小于等于 $4294967295(2^{32}-1)$ 字节的字节数组
-- 内部指令:REPLCONF ACK {offset}
-- 周期:1秒
-- 作用:汇报 slave 自己的复制偏移量,获取最新的数据变更指令;判断 master 是否在线
+* 整数值则可以是以下六种长度的其中一种:
-心跳阶段注意事项:
+ * 4 位长,介于 0 至 12 之间的无符号整数
-* 当 slave 多数掉线,或延迟过高时,master 为保障数据稳定性,将拒绝所有信息同步
+ * 1 字节长的有符号整数
- slave 数量少于 2 个,或者所有 slave 的延迟都大于等于 8 秒时,强制关闭 master 写功能,停止数据同步
+ * 3 字节长的有符号整数
- ```sh
- min-slaves-to-write 2
- min-slaves-max-lag 8
- ```
+ * int16_t 类型整数
-* slave 数量由 slave 发送 REPLCONF ACK 命令做确认
+ * int32_t 类型整数
+ * int64_t 类型整数
-- slave 延迟由 slave 发送 REPLCONF ACK 命令做确认
+***
-****
+#### 连锁更新
-### 常见问题
+Redis 将在特殊情况下产生的连续多次空间扩展操作称之为连锁更新(cascade update)
-#### 重启恢复
+假设在一个压缩列表中,有多个连续的、长度介于 250 到 253 字节之间的节点 e1 至 eN。将一个长度大于等于 254 字节的新节点 new 设置为压缩列表的头节点,new 就成为 e1 的前置节点。e1 的 previous_entry_length 属性仅为 1 字节,无法保存新节点 new 的长度,所以要对压缩列表执行空间重分配操作,并将 e1 节点的 previous_entry_length 属性从 1 字节长扩展为 5 字节长。由于 e1 原本的长度介于 250 至 253 字节之间,所以扩展后 e1 的长度就变成了 254 至 257 字节之间,导致 e2 的 previous_entry_length 属性无法保存 e1 的长度,程序需要不断地对压缩列表执行空间重分配操作,直到 eN 为止
-系统不断运行,master 的数据量会越来越大,一旦 master 重启,runid 将发生变化,会导致全部 slave 的全量复制操作
+
-解决方法:本机保存上次 runid,重启后恢复该值,使所有 slave 认为还是之前的 master
+ 删除节点也可能会引发连锁更新,big.length >= 254,small.length < 254,删除 small 节点
-优化方案:
+
-* master 内部创建 master_replid 变量,使用 runid 相同的策略生成,长度41位,并发送给所有 slave
+连锁更新在最坏情况下需要对压缩列表执行 N 次空间重分配,每次重分配的最坏复杂度为 O(N),所以连锁更新的最坏复杂度为 O(N^2)
-* 在master关闭时执行命令 `shutdown save`,进行RDB持久化,将 runid 与 offset 保存到RDB文件中
+说明:尽管连锁更新的复杂度较高,但出现的记录是非常低的,即使出现只要被更新的节点数量不多,就不会对性能造成影响
- `redis-check-rdb dump.rdb` 命令可以查看该信息,保存为 repl-id 和 repl-offset
-* master 重启后加载 RDB 文件,恢复数据
- 重启后,将RDB文件中保存的 repl-id 与 repl-offset 加载到内存中
- * master_repl_id = repl-id,master_repl_offset = repl-offset
- * 通过 info 命令可以查看该信息
-
+****
-***
-#### 网络中断
-master 的 CPU 占用过高或 slave 频繁断开连接
+## 数据类型
-* 出现的原因:
- * slave 每1秒发送 REPLCONF ACK 命令到 master
- * 当 slave 接到了慢查询时(keys * ,hgetall等),会大量占用 CPU 性能
- * master 每1秒调用复制定时函数 replicationCron(),比对 slave 发现长时间没有进行响应
+### redisObj
- 最终导致 master 各种资源(输出缓冲区、带宽、连接等)被严重占用
+#### 对象系统
-* 解决方法:通过设置合理的超时时间,确认是否释放 slave
+Redis 使用对象来表示数据库中的键和值,当在 Redis 数据库中新创建一个键值对时至少会创建两个对象,一个对象用作键值对的键(**键对象**),另一个对象用作键值对的值(**值对象**)
- ```sh
- repl-timeout # 该参数定义了超时时间的阈值(默认60秒),超过该值,释放slave
- ```
+Redis 中对象由一个 redisObject 结构表示,该结构中和保存数据有关的三个属性分别是 type、 encoding、ptr:
-slave 与 master 连接断开
+```c
+typedef struct redisObiect {
+ // 类型
+ unsigned type:4;
+ // 编码
+ unsigned encoding:4;
+ // 指向底层数据结构的指针
+ void *ptr;
+
+ // ....
+} robj;
+```
-* 出现的原因:
- * master 发送 ping 指令频度较低
- * master 设定超时时间较短
- * ping 指令在网络中存在丢包
+Redis 并没有直接使用数据结构来实现键值对数据库,而是基于这些数据结构创建了一个对象系统,包含字符串对象、列表对象、哈希对象、集合对象和有序集合对象这五种类型的对象,而每种对象又通过不同的编码映射到不同的底层数据结构
-* 解决方法:提高 ping 指令发送的频度
+Redis 是一个 Map 类型,其中所有的数据都是采用 key : value 的形式存储,**键对象都是字符串对象**,而值对象有五种基本类型和三种高级类型对象
- ```sh
- repl-ping-slave-period
- ```
+
- 超时时间 repl-time 的时间至少是 ping 指令频度的5到10倍,否则 slave 很容易判定超时
+* 对一个数据库键执行 TYPE 命令,返回的结果为数据库键对应的值对象的类型,而不是键对象的类型
+* 对一个数据库键执行 OBJECT ENCODING 命令,查看数据库键对应的值对象的编码
@@ -11325,260 +11340,292 @@ slave 与 master 连接断开
-#### 一致性
+#### 命令多态
-网络信息不同步,数据发送有延迟,导致多个 slave 获取相同数据不同步
+Redis 中用于操作键的命令分为两种类型:
-解决方案:
+* 一种命令可以对任何类型的键执行,比如说 DEL 、EXPIRE、RENAME、 TYPE 等(基于类型的多态)
+* 只能对特定类型的键执行,比如 SET 只能对字符串键执行、HSET 对哈希键执行、SADD 对集合键执行,如果类型步匹配会报类型错误: `(error) WRONGTYPE Operation against a key holding the wrong kind of value`
-* **优化主从间的网络环境**,通常放置在同一个机房部署,如使用阿里云等云服务器时要注意此现象
+Redis 为了确保只有指定类型的键可以执行某些特定的命令,在执行类型特定的命令之前,先通过值对象 redisObject 结构 type 属性检查操作类型是否正确,然后再决定是否执行指定的命令
-* 监控主从节点延迟(通过offset)判断,如果 slave 延迟过大,**暂时屏蔽程序对该 slave 的数据访问**
+对于多态命令,比如列表对象有 ziplist 和 linkedlist 两种实现方式,通过 redisObject 结构 encoding 属性确定具体的编码类型,底层调用对应的 API 实现具体的操作(基于编码的多态)
- ```sh
- slave-serve-stale-data yes|no
- ```
- 开启后仅响应 info、slaveof 等少数命令(慎用,除非对数据一致性要求很高)
+***
+#### 内存回收
-***
+对象的整个生命周期可以划分为创建对象、 操作对象、 释放对象三个阶段
+C 语言没有自动回收内存的功能,所以 Redis 在对象系统中构建了引用计数(reference counting)技术实现的内存回收机制,程序可以跟踪对象的引用计数信息,在适当的时候自动释放对象并进行内存回收
+```c
+typedef struct redisObiect {
+ // 引用计数
+ int refcount;
+} robj;
+```
-## 哨兵模式
+对象的引用计数信息会随着对象的使用状态而不断变化,创建时引用计数 refcount 初始化为 1,每次被一个新程序使用时引用计数加 1,当对象不再被一个程序使用时引用计数值会被减 1,当对象的引用计数值变为 0 时,对象所占用的内存会被释放
-### 哨兵概述
-如果 Redis 的 master 宕机了,需要从 slave 中重新选出一个 master,要实现这些功能就需要 Redis 的哨兵
-哨兵(sentinel)是一个分布式系统,用于对主从结构中的每台服务器进行**监控**,当出现故障时通过**投票机制选择**新的 master 并将所有 slave 连接到新的 master
+***
-
-哨兵的作用:
-- 监控:监控 master 和 slave,不断的检查 master 和 slave 是否正常运行,master 存活检测、master 与 slave 运行情况检测
+#### 对象共享
-- 通知:当被监控的服务器出现问题时,向其他(哨兵间,客户端)发送通知
+对象的引用计数属性带有对象共享的作用,共享对象机制更节约内存,数据库中保存的相同值对象越多,节约的内存就越多
+让多个键共享一个对象的步骤:
-- 自动故障转移:断开 master 与 slave 连接,选取一个 slave 作为 master,将其他 slave 连接新的 master,并告知客户端新的服务器地址
+* 将数据库键的值指针指向一个现有的值对象
-注意:哨兵也是一台 Redis 服务器,只是不提供数据相关服务,通常哨兵的数量配置为单数(投票)
+* 将被共享的值对象的引用计数增一
+
+Redis 在初始化服务器时创建一万个(配置文件可以修改)字符串对象,包含了**从 0 到 9999 的所有整数值**,当服务器需要用到值为 0 到 9999 的字符串对象时,服务器就会使用这些共享对象,而不是新创建对象
-***
+比如创建一个值为 100 的键 A,并使用 OBJECT REFCOUNT 命令查看键 A 的值对象的引用计数,会发现值对象的引用计数为 2,引用这个值对象的两个程序分别是持有这个值对象的服务器程序,以及共享这个值对象的键 A
+共享对象在嵌套了字符串对象的对象(linkedlist 编码的列表、hashtable 编码的哈希、zset 编码的有序集合)中也能使用
+Redis 不共享包含字符串对象的原因:验证共享对象和目标对象是否相同的复杂度越高,消耗的 CPU 时间也会越多
-### 启用哨兵
+* 整数值的字符串对象, 验证操作的复杂度为 O(1)
+* 字符串值的字符串对象, 验证操作的复杂度为 O(N)
+* 如果共享对象是包含了多个值(或者对象的)对象,比如列表对象或者哈希对象,验证操作的复杂度为 O(N^2)
-配置哨兵:
-* 配置一拖二的主从结构
-* 配置三个哨兵(配置相同,端口不同),sentinel.conf
+****
- ```sh
- port 26401
- dir "/redis/data"
- sentinel monitor mymaster 127.0.0.1 6401 2
- sentinel down-after-milliseconds mymaster 5000
- sentinel failover-timeout mymaster 20000
- sentinel parallel-sync mymaster 1
- sentinel deny-scripts-reconfig yes
- ```
- 配置说明:
- * 设置哨兵监听的主服务器信息, sentinel_number 表示参与投票的哨兵数量
+#### 空转时长
- ```sh
- sentinel monitor master_name master_host master_port sentinel_number
- ```
+redisObject 结构包含一个 lru 属性,该属性记录了对象最后一次被命令程序访问的时间
- * 指定哨兵在监控 Redis 服务时,设置判定服务器宕机的时长,该设置控制是否进行主从切换
+```c
+typedef struct redisObiect {
+ unsigned lru:22;
+} robj;
+```
- ```sh
- sentinel down-after-milliseconds master_name million_seconds
- ```
+OBJECT IDLETIME 命令可以打印出给定键的空转时长,该值就是通过将当前时间减去键的值对象的 lru 时间计算得出的,这个命令在访问键的值对象时,不会修改值对象的 lru 属性
- * 出现故障后,故障切换的最大超时时间,超过该值,认定切换失败,默认3分钟
+```sh
+redis> OBJECT IDLETIME msg
+(integer) 10
+# 等待一分钟
+redis> OBJECT IDLETIME msg
+(integer) 70
+# 访问 msg
+redis> GET msg
+"hello world"
+# 键处于活跃状态,空转时长为 0
+redis> OBJECT IDLETIME msg
+(integer) 0
+```
- ```sh
- sentinel failover-timeout master_name million_seconds
- ```
+空转时长的作用:如果服务器开启 maxmemory 选项,并且回收内存的算法为 volatile-lru 或者 allkeys-lru,那么当服务器占用的内存数超过了 maxmemory 所设置的上限值时,空转时长较高的那部分键会优先被服务器释放,从而回收内存(LRU 算法)
- * 指定同时进行主从的 slave 数量,数值越大,要求网络资源越高,要求约小,同步时间约长
- ```sh
- sentinel parallel-syncs master_name sync_slave_number
- ```
-启动哨兵:
-* 服务端命令(Linux 命令):
- ```sh
- redis-sentinel filename
- ```
+***
-***
+### string
+#### 简介
+存储的数据:单个数据,最简单的数据存储类型,也是最常用的数据存储类型,实质上是存一个字符串,string 类型是二进制安全的,可以包含任何数据,比如图片或者序列化的对象
-### 工作原理
+存储数据的格式:一个存储空间保存一个数据,每一个空间中只能保存一个字符串信息
-#### 监控阶段
+存储内容:通常使用字符串,如果字符串以整数的形式展示,可以作为数字操作使用
-哨兵在进行主从切换过程中经历三个阶段
+
-- 监控
-- 通知
-- 故障转移
+Redis 所有操作都是**原子性**的,采用**单线程**机制,命令是单个顺序执行,无需考虑并发带来影响,原子性就是有一个失败则都失败
-监控阶段作用:同步各个节点的状态信息
+字符串对象可以是 int、raw、embstr 三种实现方式
-* 获取各个 sentinel 的状态(是否在线)
-- 获取 master 的状态
+***
- ```markdown
- master属性
- prunid
- prole:master
- 各个slave的详细信息
- ```
-- 获取所有 slave 的状态(根据 master 中的 slave 信息)
- ```markdown
- slave属性
- prunid
- prole:slave
- pmaster_host、master_port
- poffset
- ```
+#### 操作
-内部的工作原理:
+指令操作:
-sentinel 1 首先连接 master,建立 cmd 通道,根据主节点访问从节点,连接完成
+* 数据操作:
-sentinel 2 首先连接 master,然后通过 master 中的 sentinels 发现其他哨兵,然后寻找哨兵建立连接,哨兵之间同步数据
+ ```sh
+ set key value #添加/修改数据添加/修改数据
+ del key #删除数据
+ setnx key value #判定性添加数据,键值为空则设添加
+ mset k1 v1 k2 v2... #添加/修改多个数据,m:Multiple
+ append key value #追加信息到原始信息后部(如果原始信息存在就追加,否则新建)
+ ```
-
+* 查询操作
+ ```sh
+ get key #获取数据,如果不存在,返回空(nil)
+ mget key1 key2... #获取多个数据
+ strlen key #获取数据字符个数(字符串长度)
+ ```
+* 设置数值数据增加/减少指定范围的值
-***
+ ```sh
+ incr key #key++
+ incrby key increment #key+increment
+ incrbyfloat key increment #对小数操作
+ decr key #key--
+ decrby key increment #key-increment
+ ```
+
+* 设置数据具有指定的生命周期
+ ```sh
+ setex key seconds value #设置key-value存活时间,seconds单位是秒
+ psetex key milliseconds value #毫秒级
+ ```
+注意事项:
-#### 通知阶段
+1. 数据操作不成功的反馈与数据正常操作之间的差异
-sentinel 在通知阶段不断的去获取 master/slave 的信息,然后在各个 sentinel 之间进行共享,流程如下:
+ * 表示运行结果是否成功
+
+ * (integer) 0 → false ,失败
+
+ * (integer) 1 → true,成功
+
+ * 表示运行结果值
+
+ * (integer) 3 → 3 个
+
+ * (integer) 1 → 1 个
-
+2. 数据未获取到时,对应的数据为(nil),等同于null
+3. **数据最大存储量**:512MB
+4. string 在 Redis 内部存储默认就是一个字符串,当遇到增减类操作 incr,decr 时**会转成数值型**进行计算
-***
+5. 按数值进行操作的数据,如果原始数据不能转成数值,或超越了Redis 数值上限范围,将报错
+ 9223372036854775807(java 中 Long 型数据最大值,Long.MAX_VALUE)
+6. Redis 可用于控制数据库表主键 ID,为数据库表主键提供生成策略,保障数据库表的主键唯一性
-#### 故障转移
+单数据和多数据的选择:
-当 master 宕机后,sentinel 会判断出 master 是否真的宕机,具体的操作流程:
+* 单数据执行 3 条指令的过程:3 次发送 + 3 次处理 + 3 次返回
+* 多数据执行 1 条指令的过程:1 次发送 + 3 次处理 + 1 次返回(发送和返回的事件略高于单数据)
-* 检测 master
+
- sentinel1 检测到 master 下线后会做 flag:SRI_S_DOWN 标志,此时 master 的状态是主观下线,并通知其他哨兵,其他哨兵也会尝试与 master 连接,如果大于 (n/2) + 1 个sentinel 检测到 master 下线,就达成共识更改 flag,此时 master 的状态是客观下线
- 
-* 当 sentinel 认定 master 下线之后,此时需要决定更换 master,选举某个 sentinel 处理事故
- 在选举的时候每一个 sentinel 都有一票,于是每个 sentinel 都会发出一个指令,在内网广播要做主持人;比如 sentinel1 和 sentinel4 发出这个选举指令了,那么 sentinel2 既能接到 sentinel1 的也能接到 sentinel4 的,sentinel2 会把一票投给其中一方,投给指令最先到达的 sentinel。选举最终得票多的,就成为了处理事故的哨兵,需要注意在这个过程中有可能会存在失败的现象,就是一轮选举完没有选取,那就会接着进行第二轮第三轮直到完成选举。
- 
+***
-选择新的 master,在服务器列表中挑选备选 master 的原则:
-- 不在线的 OUT
-- 响应慢的 OUT
-- 与原 master 断开时间久的 OUT
+#### 实现
-- 优先原则:先根据优先级 → offset → runid
+字符串对象的编码可以是 int、raw、embstr 三种
-选出新的 master之后,发送指令(sentinel )给其他的 slave
+* int:字符串对象保存的是**整数值**,并且整数值可以用 long 类型来表示,那么对象会将整数值保存在字符串对象结构的 ptr 属性面(将 void * 转换成 long),并将字符串对象的编码设置为 int(浮点数用另外两种方式)
-* 向新的 master 发送 slaveof no one
-* 向其他 slave 发送 slaveof 新 masterIP 端口
+
+* raw:字符串对象保存的是一个字符串值,并且值的长度大于 39 字节,那么对象将使用简单动态字符串(SDS)来保存该值,并将对象的编码设置为 raw
+ 
+* embstr:字符串对象保存的是一个字符串值,并且值的长度小于等于 39 字节,那么对象将使用 embstr 编码的方式来保存这个字符串值,并将对象的编码设置为 embstr
+ 
-****
+ 上图所示,embstr 与 raw 都使用了 redisObject 和 sdshdr 来表示字符串对象,但是 raw 需要调用两次内存分配函数分别创建两种结构,embstr 只需要一次内存分配来分配一块**连续的空间**
+embstr 是用于保存短字符串的一种编码方式,对比 raw 的优点:
+* 内存分配次数从两次降低为一次,同样释放内存的次数也从两次变为一次
+* embstr 编码的字符串对象的数据都保存在同一块连续内存,所以比 raw 编码能够更好地利用缓存优势(局部性原理)
-## 集群模式
+int 和 embstr 编码的字符串对象在条件满足的情况下,会被转换为 raw 编码的字符串对象:
-### 集群概述
+* int 编码的整数值,执行 APPEND 命令追加一个字符串值,先将整数值转为字符串然后追加,最后得到一个 raw 编码的对象
+* Redis 没有为 embstr 编码的字符串对象编写任何相应的修改程序,所以 embstr 对象实际上**是只读的**,执行修改命令会将对象的编码从 embstr 转换成 raw,操作完成后得到一个 raw 编码的对象
-集群就是使用网络将若干台计算机联通起来,并提供统一的管理方式,使其对外呈现单机的服务效果
+某些情况下,程序会将字符串对象里面的字符串值转换回浮点数值,执行某些操作后再将浮点数值转换回字符串值:
-
+```sh
+redis> SET pi 3.14
+OK
+redis> OBJECT ENCODING pi
+"embstr"
+redis> INCRBYFLOAT pi 2.0 # 转为浮点数执行增加的操作
+"5. 14"
+redis> OBJECT ENCODING pi
+"embstr"
+```
-**集群作用:**
-- 分散单台服务器的访问压力,实现负载均衡
-- 分散单台服务器的存储压力,实现可扩展性
-- 降低单台服务器宕机带来的业务灾难
-***
+****
-### 结构设计
-**数据存储设计:**
-1. 通过算法设计,计算出 key 应该保存的位置(类似哈希寻址)
+#### 应用
- ```markdown
- key -> CRC16(key) -> 值 -> %16384 -> 存储位置
- ```
+主页高频访问信息显示控制,例如新浪微博大 V 主页显示粉丝数与微博数量
-2. 将所有的存储空间计划切割成 16384 份,每台主机保存一部分
+* 在 Redis 中为大 V 用户设定用户信息,以用户主键和属性值作为 key,后台设定定时刷新策略
- 注意:每份代表的是一个存储空间,不是一个 key 的保存空间,可以存储多个 key
+ ```sh
+ set user:id:3506728370:fans 12210947
+ set user:id:3506728370:blogs 6164
+ set user:id:3506728370:focuses 83
+ ```
-3. 将 key 按照计算出的结果放到对应的存储空间
+* 使用 JSON 格式保存数据
-
+ ```sh
+ user:id:3506728370 → {"fans":12210947,"blogs":6164,"focuses":83}
+ ```
-查找数据:
+* key的设置约定:表名 : 主键名 : 主键值 : 字段名
-- 各个数据库相互通信,保存各个库中槽的编号数据
-- 一次命中,直接返回
-- 一次未命中,告知具体位置,最多两次命中
+ | 表名 | 主键名 | 主键值 | 字段名 |
+ | ----- | ------ | --------- | ------ |
+ | order | id | 29437595 | name |
+ | equip | id | 390472345 | type |
+ | news | id | 202004150 | title |
-设置数据:系统默认存储到某一个
-
@@ -11586,237 +11633,223 @@ sentinel 在通知阶段不断的去获取 master/slave 的信息,然后在各
-### 结构搭建
+### hash
-整体框架:
+#### 简介
-- 配置服务器(3 主 3 从)
-- 建立通信(Meet)
-- 分槽(Slot)
-- 搭建主从(master-slave)
+数据存储需求:对一系列存储的数据进行编组,方便管理,典型应用存储对象信息
-创建集群 conf 配置文件:
+数据存储结构:一个存储空间保存多个键值对数据
-* redis-6501.conf
+hash 类型:底层使用**哈希表**结构实现数据存储
- ```sh
- port 6501
- dir "/redis/data"
- dbfilename "dump-6501.rdb"
- cluster-enabled yes
- cluster-config-file "cluster-6501.conf"
- cluster-node-timeout 5000
-
- #其他配置文件参照上面的修改端口即可,内容完全一样
- ```
+
-* 服务端启动:
+Redis 中的 hash 类似于 Java 中的 `Map>`,左边是 key,右边是值,中间叫 field 字段,本质上 **hash 存了一个 key-value 的存储空间**
- ```sh
- redis-server config_file_name
- ```
+hash 是指的一个数据类型,并不是一个数据
-* 客户端启动:
+* 如果 field 数量较少,存储结构优化为**压缩列表结构**(有序)
+* 如果 field 数量较多,存储结构使用 HashMap 结构(无序)
- ```sh
- redis-cli -p 6504 -c
- ```
-**cluster 配置:**
-- 是否启用 cluster,加入 cluster 节点
+***
- ```properties
- cluster-enabled yes|no
- ```
-- cluster 配置文件名,该文件属于自动生成,仅用于快速查找文件并查询文件内容
- ```properties
- cluster-config-file filename
- ```
+#### 操作
-- 节点服务响应超时时间,用于判定该节点是否下线或切换为从节点
-
- ```properties
- cluster-node-timeout milliseconds
- ```
+指令操作:
-- master 连接的 slave 最小数量
+* 数据操作
- ```properties
- cluster-migration-barrier min_slave_number
+ ```sh
+ hset key field value #添加/修改数据
+ hdel key field1 [field2] #删除数据,[]代表可选
+ hsetnx key field value #设置field的值,如果该field存在则不做任何操作
+ hmset key f1 v1 f2 v2... #添加/修改多个数据
```
-客户端启动命令:
+* 查询操作
-**cluster 节点操作命令(客户端命令):**
+ ```sh
+ hget key field #获取指定field对应数据
+ hgetall key #获取指定key所有数据
+ hmget key field1 field2... #获取多个数据
+ hexists key field #获取哈希表中是否存在指定的字段
+ hlen key #获取哈希表中字段的数量
+ ```
-- 查看集群节点信息
+* 获取哈希表中所有的字段名或字段值
- ```properties
- cluster nodes
+ ```sh
+ hkeys key #获取所有的field
+ hvals key #获取所有的value
```
-- 更改 slave 指向新的 master
+* 设置指定字段的数值数据增加指定范围的值
- ```properties
- cluster replicate master-id
+ ```sh
+ hincrby key field increment #指定字段的数值数据增加指定的值,increment为负数则减少
+ hincrbyfloat key field increment#操作小数
```
-- 发现一个新节点,新增 master
- ```properties
- cluster meet ip:port
- ```
+注意事项
-- 忽略一个没有 solt 的节点
+1. hash 类型中 value 只能存储字符串,不允许存储其他数据类型,不存在嵌套现象,如果数据未获取到,对应的值为(nil)
+2. 每个 hash 可以存储 2^32 - 1 个键值对
+3. hash 类型和对象的数据存储形式相似,并且可以灵活添加删除对象属性。但 hash 设计初衷不是为了存储大量对象而设计的,不可滥用,不可将 hash 作为对象列表使用
+4. hgetall 操作可以获取全部属性,如果内部 field 过多,遍历整体数据效率就很会低,有可能成为数据访问瓶颈
- ```properties
- cluster forget server_id
- ```
-- 手动故障转移
- ```properties
- cluster failover
- ```
+***
-**集群操作命令(Linux):**
-* 创建集群
- ```properties
- redis-cli –-cluster create masterhost1:masterport1 masterhost2:masterport2 masterhost3:masterport3 [masterhostn:masterportn …] slavehost1:slaveport1 slavehost2:slaveport2 slavehost3:slaveport3 -–cluster-replicas n
- ```
+#### 实现
- 注意:master 与 slave 的数量要匹配,一个 master 对应 n 个 slave,由最后的参数 n 决定。master 与 slave 的匹配顺序为第一个 master 与前 n 个 slave 分为一组,形成主从结构
+哈希对象的内部编码有两种:ziplist(压缩列表)、hashtable(哈希表、字典)
+* 压缩列表实现哈希对象:同一键值对的节点总是挨在一起,保存键的节点在前,保存值的节点在后
-* 添加 master 到当前集群中,连接时可以指定任意现有节点地址与端口
+ 
- ```properties
- redis-cli --cluster add-node new-master-host:new-master-port now-host:now-port
- ```
+* 字典实现哈希对象:字典的每一个键都是一个字符串对象,每个值也是
-* 添加 slave
+
- ```properties
- redis-cli --cluster add-node new-slave-host:new-slave-port master-host:master-port --cluster-slave --cluster-master-id masterid
- ```
+当存储的数据量比较小的情况下,Redis 才使用压缩列表来实现字典类型,具体需要满足两个条件:
-* 删除节点,如果删除的节点是 master,必须保障其中没有槽 slot
+- 当键值对数量小于 hash-max-ziplist-entries 配置(默认 512 个)
+- 所有键和值的长度都小于 hash-max-ziplist-value 配置(默认 64 字节)
- ```properties
- redis-cli --cluster del-node del-slave-host:del-slave-port del-slave-id
- ```
+以上两个条件的上限值是可以通过配置文件修改的,当两个条件的任意一个不能被满足时,对象的编码转换操作就会被执行
-* 重新分槽,分槽是从具有槽的 master 中划分一部分给其他 master,过程中不创建新的槽
+ziplist 使用更加紧凑的结构实现多个元素的连续存储,所以在节省内存方面比 hashtable 更加优秀,当 ziplist 无法满足哈希类型时,Redis 会使用 hashtable 作为哈希的内部实现,因为此时 ziplist 的读写效率会下降,而 hashtable 的读写时间复杂度为 O(1)
- ```properties
- redis-cli --cluster reshard new-master-host:new-master:port --cluster-from src- master-id1, src-master-id2, src-master-idn --cluster-to target-master-id -- cluster-slots slots
- ```
- 注意:将需要参与分槽的所有 masterid 不分先后顺序添加到参数中,使用 `,` 分隔,指定目标得到的槽的数量,所有的槽将平均从每个来源的 master 处获取
+***
-* 重新分配槽,从具有槽的 master 中分配指定数量的槽到另一个 master 中,常用于清空指定 master 中的槽
- ```properties
- redis-cli --cluster reshard src-master-host:src-master-port --cluster-from src- master-id --cluster-to target-master-id --cluster-slots slots --cluster-yes
- ```
-
+#### 应用
+```sh
+user:id:3506728370 → {"name":"春晚","fans":12210862,"blogs":83}
+```
+对于以上数据,使用单条去存的话,存的条数会很多。但如果用 json 格式,存一条数据就够了。
-***
+假如现在粉丝数量发生了变化,要把整个值都改变,但是用单条存就不存在这个问题,只需要改其中一个就可以
+
+可以实现购物车的功能,key 对应着每个用户,存储空间存储购物车的信息
-## 缓存方案
-### 缓存模式
-#### 旁路缓存
-缓存本质:弥补 CPU 的高算力和 IO 的慢读写之间巨大的鸿沟
-旁路缓存模式 Cache Aside Pattern 是平时使用比较多的一个缓存读写模式,比较适合读请求比较多的场景
+***
-Cache Aside Pattern 中服务端需要同时维系 DB 和 cache,并且是以 DB 的结果为准
-* 写操作:先更新 DB,然后直接删除 cache
-* 读操作:从 cache 中读取数据,读取到就直接返回;读取不到就从 DB 中读取数据返回,并放到 cache
-时序导致的不一致问题:
+### list
-* 在写数据的过程中,不能先删除 cache 再更新 DB,因为会造成缓存的不一致。比如请求 1 先写数据 A,请求 2 随后读数据 A,当请求 1 删除 cache 后,请求 2 直接读取了 DB,此时请求 1 还没写入 DB(延迟双删)
+#### 简介
-* 在写数据的过程中,先更新 DB 再删除 cache 也会出现问题,但是概率很小,因为缓存的写入速度非常快
+数据存储需求:存储多个数据,并对数据进入存储空间的顺序进行区分
-旁路缓存的缺点:
+数据存储结构:一个存储空间保存多个数据,且通过数据可以体现进入顺序,允许重复元素
-* 首次请求数据一定不在 cache 的问题,一般采用缓存预热的方法,将热点数据可以提前放入 cache 中
-* 写操作比较频繁的话导致 cache 中的数据会被频繁被删除,影响缓存命中率
+list 类型:保存多个数据,底层使用**双向链表**存储结构实现,类似于 LinkedList
+
+如果两端都能存取数据的话,这就是双端队列,如果只能从一端进一端出,这个模型叫栈
-****
+***
-#### 读写穿透
-读写穿透模式 Read/Write Through Pattern:服务端把 cache 视为主要数据存储,从中读取数据并将数据写入其中,cache 负责将此数据同步写入 DB,从而减轻了应用程序的职责
-* 写操作:先查 cache,cache 中不存在,直接更新 DB;cache 中存在则先更新 cache,然后 cache 服务更新 DB(同步更新 cache 和 DB)
+#### 操作
-* 读操作:从 cache 中读取数据,读取到就直接返回 ;读取不到先从 DB 加载,写入到 cache 后返回响应
+指令操作:
- Read-Through Pattern 实际只是在 Cache-Aside Pattern 之上进行了封装。在 Cache-Aside Pattern 下,发生读请求的时候,如果 cache 中不存在对应的数据,是由客户端负责把数据写入 cache,而 Read Through Pattern 则是 cache 服务自己来写入缓存的,对客户端是透明的
+* 数据操作
-Read-Through Pattern 也存在首次不命中的问题,采用缓存预热解决
+ ```sh
+ lpush key value1 [value2]...#从左边添加/修改数据(表头)
+ rpush key value1 [value2]...#从右边添加/修改数据(表尾)
+ lpop key #从左边获取并移除第一个数据,类似于出栈/出队
+ rpop key #从右边获取并移除第一个数据
+ lrem key count value #删除指定数据,count=2删除2个,该value可能有多个(重复数据)
+ ```
+* 查询操作
+ ```sh
+ lrange key start stop #从左边遍历数据并指定开始和结束索引,0是第一个索引,-1是终索引
+ lindex key index #获取指定索引数据,没有则为nil,没有索引越界
+ llen key #list中数据长度/个数
+ ```
-***
+* 规定时间内获取并移除数据
+ ```sh
+ b #代表阻塞
+ blpop key1 [key2] timeout #在指定时间内获取指定key(可以多个)的数据,超时则为(nil)
+ #可以从其他客户端写数据,当前客户端阻塞读取数据
+ brpop key1 [key2] timeout #从右边操作
+ ```
+
+* 复制操作
+ ```sh
+ brpoplpush source destination timeout #从source获取数据放入destination,假如在指定时间内没有任何元素被弹出,则返回一个nil和等待时长。反之,返回一个含有两个元素的列表,第一个元素是被弹出元素的值,第二个元素是等待时长
+ ```
-#### 异步缓存
+注意事项
-异步缓存写入 Write Behind Pattern 由 cache 服务来负责 cache 和 DB 的读写,对比读写穿透不同的是 Write Behind Caching 是只更新缓存,不直接更新 DB,改为**异步批量**的方式来更新 DB,可以减小写的成本
+1. list 中保存的数据都是 string 类型的,数据总容量是有限的,最多 2^32 - 1 个元素(4294967295)
+2. list 具有索引的概念,但操作数据时通常以队列的形式进行入队出队,或以栈的形式进行入栈出栈
+3. 获取全部数据操作结束索引设置为 -1
+4. list 可以对数据进行分页操作,通常第一页的信息来自于 list,第 2 页及更多的信息通过数据库的形式加载
-缺点:这种模式对数据一致性没有高要求,可能出现 cache 还没异步更新 DB,服务就挂掉了
-应用:
-* DB 的写性能非常高,适合一些数据经常变化又对数据一致性要求不高的场景,比如浏览量、点赞量
+****
-* MySQL 的 InnoDB Buffer Pool 机制用到了这种策略
+#### 实现
-****
+在 Redis3.2 版本以前列表对象的内部编码有两种:ziplist(压缩列表)和 linkedlist(链表)
+* 压缩列表实现的列表对象:PUSH 1、three、5 三个元素
+ 
-### 缓存一致
+* 链表实现的列表对象:为了简化字符串对象的表示,使用了 StringObject 的结构,底层其实是 sdshdr 结构
-使用缓存代表不需要强一致性,只需要最终一致性
+ 
-缓存不一致的方法:
+列表中存储的数据量比较小的时候,列表就会使用一块连续的内存存储,采用压缩列表的方式实现的条件:
-* 数据库和缓存数据强一致场景:
- * 更新 DB 时同样更新 cache,加一个锁来保证更新 cache 时不存在线程安全问题,这样可以增加命中率
- * 延迟双删:先淘汰缓存再写数据库,休眠 1 秒再次淘汰缓存,可以将 1 秒内造成的缓存脏数据再次删除
- * CDC 同步:通过 canal 订阅 MySQL binlog 的变更上报给 Kafka,系统监听 Kafka 消息触发缓存失效
-* 可以短暂允许数据库和缓存数据不一致场景:更新 DB 的时候同样更新 cache,但是给缓存加一个比较短的过期时间,这样就可以保证即使数据不一致影响也比较小
+* 列表对象保存的所有字符串元素的长度都小于 64 字节
+* 列表对象保存的元素数量小于 512 个
+以上两个条件的上限值是可以通过配置文件修改的,当两个条件的任意一个不能被满足时,对象的编码转换操作就会被执行
+在 Redis3.2 版本 以后对列表数据结构进行了改造,使用 **quicklist(快速列表)**代替了 linkedlist,quicklist 实际上是 ziplist 和 linkedlist 的混合体,将 linkedlist 按段切分,每一段使用 ziplist 来紧凑存储,多个 ziplist 之间使用双向指针串接起来,既满足了快速的插入删除性能,又不会出现太大的空间冗余
-参考文章:http://cccboke.com/archives/2020-09-30-21-29-56
+
@@ -11824,41 +11857,37 @@ Read-Through Pattern 也存在首次不命中的问题,采用缓存预热解
-### 企业方案
+#### 应用
-#### 缓存预热
+企业运营过程中,系统将产生出大量的运营数据,如何保障多台服务器操作日志的统一顺序输出?
-场景:宕机,服务器启动后迅速宕机
+* 依赖 list 的数据具有顺序的特征对信息进行管理,右进左查或者左近左查
+* 使用队列模型解决多路信息汇总合并的问题
+* 使用栈模型解决最新消息的问题
-问题排查:
+微信文章订阅公众号:
-1. 请求数量较高,大量的请求过来之后都需要去从缓存中获取数据,但是缓存中又没有,此时从数据库中查找数据然后将数据再存入缓存,造成了短期内对 redis 的高强度操作从而导致问题
+* 比如订阅了两个公众号,它们发布了两篇文章,文章 ID 分别为 666 和 888,可以通过执行 `LPUSH key 666 888` 命令推送给我
-2. 主从之间数据吞吐量较大,数据同步操作频度较高
-解决方案:
-- 前置准备工作:
- 1. 日常例行统计数据访问记录,统计访问频度较高的热点数据
- 2. 利用 LRU 数据删除策略,构建数据留存队列例如:storm 与 kafka 配合
+***
-- 准备工作:
- 1. 将统计结果中的数据分类,根据级别,redis 优先加载级别较高的热点数据
- 2. 利用分布式多服务器同时进行数据读取,提速数据加载过程
+### set
- 3. 热点数据主从同时预热
+#### 简介
-- 实施:
+数据存储需求:存储大量的数据,在查询方面提供更高的效率
- 4. 使用脚本程序固定触发数据预热过程
+数据存储结构:能够保存大量的数据,高效的内部存储机制,便于查询
- 5. 如果条件允许,使用了 CDN(内容分发网络),效果会更好
+set 类型:与 hash 存储结构哈希表完全相同,只是仅存储键不存储值(nil),所以添加,删除,查找的复杂度都是 O(1),并且**值是不允许重复且无序的**
-总的来说:缓存预热就是系统启动前,提前将相关的缓存数据直接加载到缓存系统。避免在用户请求的时候,先查询数据库,然后再将数据缓存的问题,用户直接查询事先被预热的缓存数据!
+
@@ -11866,269 +11895,4869 @@ Read-Through Pattern 也存在首次不命中的问题,采用缓存预热解
-#### 缓存雪崩
+#### 操作
-场景:数据库服务器崩溃,一连串的问题会随之而来
+指令操作:
-问题排查:在一个较短的时间内,**缓存中较多的 key 集中过期**,此周期内请求访问过期的数据 Redis 未命中,Redis 向数据库获取数据,数据库同时收到大量的请求无法及时处理。
+* 数据操作
-解决方案:
+ ```sh
+ sadd key member1 [member2] #添加数据
+ srem key member1 [member2] #删除数据
+ ```
+
+* 查询操作
-1. 加锁,慎用
-2. 设置热点数据永远不过期,如果缓存数据库是分布式部署,将热点数据均匀分布在不同搞得缓存数据库中
-3. 缓存数据的过期时间设置随机,防止同一时间大量数据过期现象发生
-4. 构建**多级缓存**架构,Nginx 缓存 + Redis 缓存 + ehcache 缓存
-5. 灾难预警机制,监控 Redis 服务器性能指标,CPU 使用率、内存容量、平均响应时间、线程数
-6. 限流、降级:短时间范围内牺牲一些客户体验,限制一部分请求访问,降低应用服务器压力,待业务低速运转后再逐步放开访问
+ ```sh
+ smembers key #获取全部数据
+ scard key #获取集合数据总量
+ sismember key member #判断集合中是否包含指定数据
+ ```
+* 随机操作
-总的来说:缓存雪崩就是瞬间过期数据量太大,导致对数据库服务器造成压力。如能够有效避免过期时间集中,可以有效解决雪崩现象的出现(约 40%),配合其他策略一起使用,并监控服务器的运行数据,根据运行记录做快速调整。
+ ```sh
+ spop key [count] #随机获取集中的某个数据并将该数据移除集合
+ srandmember key [count] #随机获取集合中指定(数量)的数据
+* 集合的交、并、差
+ ```sh
+ sinter key1 [key2...] #两个集合的交集,不存在为(empty list or set)
+ sunion key1 [key2...] #两个集合的并集
+ sdiff key1 [key2...] #两个集合的差集
+
+ sinterstore destination key1 [key2...] #两个集合的交集并存储到指定集合中
+ sunionstore destination key1 [key2...] #两个集合的并集并存储到指定集合中
+ sdiffstore destination key1 [key2...] #两个集合的差集并存储到指定集合中
+ ```
-***
+* 复制
+ ```sh
+ smove source destination member #将指定数据从原始集合中移动到目标集合中
+ ```
-#### 缓存击穿
+注意事项
-场景:系统平稳运行过程中,数据库连接量瞬间激增,Redis 服务器无大量 key 过期,Redis 内存平稳无波动,Redis 服务器 CPU 正常,但是数据库崩溃
+1. set 类型不允许数据重复,如果添加的数据在 set 中已经存在,将只保留一份
+2. set 虽然与 hash 的存储结构相同,但是无法启用 hash 中存储值的空间
-问题排查:
-1. **Redis 中某个 key 过期,该 key 访问量巨大**
-2. 多个数据请求从服务器直接压到 Redis 后,均未命中
+***
-3. Redis 在短时间内发起了大量对数据库中同一数据的访问
-简而言之两点:单个 key 高热数据,key 过期
-解决方案:
+#### 实现
-1. 预先设定:以电商为例,每个商家根据店铺等级,指定若干款主打商品,在购物节期间,加大此类信息 key 的过期时长 注意:购物节不仅仅指当天,以及后续若干天,访问峰值呈现逐渐降低的趋势
+集合对象的内部编码有两种:intset(整数集合)、hashtable(哈希表、字典)
-2. 现场调整:监控访问量,对自然流量激增的数据**延长过期时间或设置为永久性 key**
+* 整数集合实现的集合对象:
-3. 后台刷新数据:启动定时任务,高峰期来临之前,刷新数据有效期,确保不丢失
+
-4. **二级缓存**:设置不同的失效时间,保障不会被同时淘汰就行
+* 字典实现的集合对象:键值对的值为 NULL
-5. 加锁:分布式锁,防止被击穿,但是要注意也是性能瓶颈,慎重
+
-总的来说:缓存击穿就是单个高热数据过期的瞬间,数据访问量较大,未命中 Redis 后,发起了大量对同一数据的数据库访问,导致对数据库服务器造成压力。应对策略应该在业务数据分析与预防方面进行,配合运行监控测试与即时调整策略,毕竟单个 key 的过期监控难度较高,配合雪崩处理策略即可
+当集合对象可以同时满足以下两个条件时,对象使用 intset 编码:
+* 集合中的元素都是整数值
+* 集合中的元素数量小于 set-maxintset-entries配置(默认 512 个)
+以上两个条件的上限值是可以通过配置文件修改的
-***
+****
-#### 缓存穿透
-场景:系统平稳运行过程中,应用服务器流量随时间增量较大,Redis 服务器命中率随时间逐步降低,Redis 内存平稳,内存无压力,Redis 服务器 CPU 占用激增,数据库服务器压力激增,数据库崩溃
-问题排查:
+#### 应用
-1. Redis 中大面积出现未命中
-
-2. 出现非正常 URL 访问
+应用场景:
-问题分析:
+1. 黑名单:资讯类信息类网站追求高访问量,但是由于其信息的价值,往往容易被不法分子利用,通过爬虫技术,快速获取信息,个别特种行业网站信息通过爬虫获取分析后,可以转换成商业机密。
-- 访问了不存在的数据,跳过了 Redis 缓存,数据库页查询不到对应数据
-- Redis 获取到 null 数据未进行持久化,直接返回
-- 出现黑客攻击服务器
+ 注意:爬虫不一定做摧毁性的工作,有些小型网站需要爬虫为其带来一些流量。
-解决方案:
+2. 白名单:对于安全性更高的应用访问,仅仅靠黑名单是不能解决安全问题的,此时需要设定可访问的用户群体, 依赖白名单做更为苛刻的访问验证
-1. 缓存 null:对查询结果为 null 的数据进行缓存,设定短时限,例如 30-60 秒,最高 5 分钟
+3. 随机操作可以实现抽奖功能
-2. 白名单策略:提前预热各种分类**数据 id 对应的 bitmaps**,id 作为 bitmaps 的 offset,相当于设置了数据白名单。当加载正常数据时放行,加载异常数据时直接拦截(效率偏低),也可以使用布隆过滤器(有关布隆过滤器的命中问题对当前状况可以忽略)
+4. 集合的交并补可以实现微博共同关注的查看,可以根据共同关注或者共同喜欢推荐相关内容
-3. 实时监控:实时监控 Redis 命中率(业务正常范围时,通常会有一个波动值)与 null 数据的占比
- * 非活动时段波动:通常检测 3-5 倍,超过 5 倍纳入重点排查对象
- * 活动时段波动:通常检测10-50 倍,超过 50 倍纳入重点排查对象
- 根据倍数不同,启动不同的排查流程。然后使用黑名单进行防控
-4. key 加密:临时启动防灾业务 key,对 key 进行业务层传输加密服务,设定校验程序,过来的 key 校验;例如每天随机分配 60 个加密串,挑选 2 到 3 个,混淆到页面数据 id 中,发现访问 key 不满足规则,驳回数据访问
-总的来说:缓存击穿是指访问了不存在的数据,跳过了合法数据的 Redis 数据缓存阶段,每次访问数据库,导致对数据库服务器造成压力。通常此类数据的出现量是一个较低的值,当出现此类情况以毒攻毒,并及时报警。无论是黑名单还是白名单,都是对整体系统的压力,警报解除后尽快移除
+***
-参考视频:https://www.bilibili.com/video/BV15y4y1r7X3
+### zset
+#### 简介
+数据存储需求:数据排序有利于数据的有效展示,需要提供一种可以根据自身特征进行排序的方式
+数据存储结构:新的存储模型,可以保存可排序的数据
-***
+****
-### 性能指标
-Redis 中的监控指标如下:
+#### 操作
-* 性能指标:Performance
+指令操作:
- 响应请求的平均时间:
+* 数据操作
```sh
- latency
+ zadd key score1 member1 [score2 member2] #添加数据
+ zrem key member [member ...] #删除数据
+ zremrangebyrank key start stop #删除指定索引范围的数据
+ zremrangebyscore key min max #删除指定分数区间内的数据
+ zscore key member #获取指定值的分数
+ zincrby key increment member #指定值的分数增加increment
```
- 平均每秒处理请求总数:
+* 查询操作
```sh
- instantaneous_ops_per_sec
+ zrange key start stop [WITHSCORES] #获取指定范围的数据,升序,WITHSCORES 代表显示分数
+ zrevrange key start stop [WITHSCORES] #获取指定范围的数据,降序
+
+ zrangebyscore key min max [WITHSCORES] [LIMIT offset count] #按条件获取数据,从小到大
+ zrevrangebyscore key max min [WITHSCORES] [...] #从大到小
+
+ zcard key #获取集合数据的总量
+ zcount key min max #获取指定分数区间内的数据总量
+ zrank key member #获取数据对应的索引(排名)升序
+ zrevrank key member #获取数据对应的索引(排名)降序
```
- 缓存查询命中率(通过查询总次数与查询得到非nil数据总次数计算而来):
+ * min 与 max 用于限定搜索查询的条件
+ * start 与 stop 用于限定查询范围,作用于索引,表示开始和结束索引
+ * offset 与 count 用于限定查询范围,作用于查询结果,表示开始位置和数据总量
+
+* 集合的交、并操作
```sh
- hit_rate(calculated)
+ zinterstore destination numkeys key [key ...] #两个集合的交集并存储到指定集合中
+ zunionstore destination numkeys key [key ...] #两个集合的并集并存储到指定集合中
```
-* 内存指标:Memory
+注意事项:
- 当前内存使用量:
+1. score 保存的数据存储空间是 64 位,如果是整数范围是 -9007199254740992~9007199254740992
+2. score 保存的数据也可以是一个双精度的 double 值,基于双精度浮点数的特征可能会丢失精度,慎重使用
+3. sorted_set 底层存储还是基于 set 结构的,因此数据不能重复,如果重复添加相同的数据,score 值将被反复覆盖,保留最后一次修改的结果
- ```sh
- used_memory
- ```
- 内存碎片率(关系到是否进行碎片整理):
- ```sh
- mem_fragmentation_ratio
- ```
+***
- 为避免内存溢出删除的key的总数量:
- ```sh
- evicted_keys
- ```
- 基于阻塞操作(BLPOP等)影响的客户端数量:
+#### 实现
- ```sh
- blocked_clients
- ```
+有序集合对象的内部编码有两种:ziplist(压缩列表)和 skiplist(跳跃表)
-* 基本活动指标:Basic_activity
+* 压缩列表实现有序集合对象:ziplist 本身是有序、不可重复的,符合有序集合的特性
- 当前客户端连接总数:
+ 
- ```sh
- connected_clients
+* 跳跃表实现有序集合对象:**底层是 zset 结构,zset 同时包含字典和跳跃表的结构**,图示字典和跳跃表中重复展示了各个元素的成员和分值,但实际上两者会**通过指针来共享相同元素的成员和分值**,不会产生空间浪费
+
+ ```c
+ typedef struct zset {
+ zskiplist *zsl;
+ dict *dict;
+ } zset;
```
- 当前连接 slave 总数:
+ 
+
+使用字典加跳跃表的优势:
+
+* 字典为有序集合创建了一个**从成员到分值的映射**,用 O(1) 复杂度查找给定成员的分值
+* **排序操作使用跳跃表完成**,节省每次重新排序带来的时间成本和空间成本
+
+使用 ziplist 格式存储需要满足以下两个条件:
+
+- 有序集合保存的元素个数要小于 128 个;
+- 有序集合保存的所有元素大小都小于 64 字节
+
+当元素比较多时,此时 ziplist 的读写效率会下降,时间复杂度是 O(n),跳表的时间复杂度是 O(logn)
+
+为什么用跳表而不用平衡树?
+
+* 在做范围查找的时候,跳表操作简单(前进指针或后退指针),平衡树需要回旋查找
+* 跳表比平衡树实现简单,平衡树的插入和删除操作可能引发子树的旋转调整,而跳表的插入和删除只需要修改相邻节点的指针
+
+
+
+***
+
+
+
+#### 应用
+
+* 排行榜
+* 对于基于时间线限定的任务处理,将处理时间记录为 score 值,利用排序功能区分处理的先后顺序
+* 当任务或者消息待处理,形成了任务队列或消息队列时,对于高优先级的任务要保障对其优先处理,采用 score 记录权重
+
+
+
+
+
+***
+
+
+
+### Bitmaps
+
+#### 基本操作
+
+Bitmaps 是二进制位数组(bit array),底层使用 SDS 字符串表示,因为 SDS 是二进制安全的
+
+
+
+buf 数组的每个字节用一行表示,buf[1] 是 `'\0'`,保存位数组的顺序和书写位数组的顺序是完全相反的,图示的位数组 0100 1101
+
+数据结构的详解查看 Java → Algorithm → 位图
+
+
+
+
+
+***
+
+
+
+#### 命令实现
+
+##### GETBIT
+
+GETBIT 命令获取位数组 bitarray 在 offset 偏移量上的二进制位的值
+
+```sh
+GETBIT
+```
+
+执行过程:
+
+* 计算 `byte = offset/8`(向下取整), byte 值记录数据保存在位数组中的索引
+* 计算 `bit = (offset mod 8) + 1`,bit 值记录数据在位数组中的第几个二进制位
+* 根据 byte 和 bit 值,在位数组 bitarray 中定位 offset 偏移量指定的二进制位,并返回这个位的值
+
+GETBIT 命令执行的所有操作都可以在常数时间内完成,所以时间复杂度为 O(1)
+
+
+
+***
+
+
+
+##### SETBIT
+
+SETBIT 将位数组 bitarray 在 offset 偏移量上的二进制位的值设置为 value,并向客户端返回二进制位的旧值
+
+```sh
+SETBIT
+```
+
+执行过程:
+
+* 计算 `len = offset/8 + 1`,len 值记录了保存该数据至少需要多少个字节
+* 检查 bitarray 键保存的位数组的长度是否小于 len,成立就会将 SDS 扩展为 len 字节(注意空间预分配机制),所有新扩展空间的二进制位的值置为 0
+* 计算 `byte = offset/8`(向下取整), byte 值记录数据保存在位数组中的索引
+* 计算 `bit = (offset mod 8) + 1`,bit 值记录数据在位数组中的第几个二进制位
+* 根据 byte 和 bit 值,在位数组 bitarray 中定位 offset 偏移量指定的二进制位,首先将指定位现存的值保存在 oldvalue 变量,然后将新值 value 设置为这个二进制位的值
+* 向客户端返回 oldvalue 变量的值
+
+
+
+***
+
+
+
+##### BITCOUNT
+
+BITCOUNT 命令用于统计给定位数组中,值为 1 的二进制位的数量
+
+```sh
+BITCOUNT [start end]
+```
+
+二进制位统计算法:
+
+* 遍历法:遍历位数组中的每个二进制位
+* 查表算法:读取每个字节(8 位)的数据,查表获取数值对应的二进制中有几个 1
+* variable-precision SWAR算法:计算汉明距离
+* Redis 实现:
+ * 如果二进制位的数量大于等于 128 位, 那么使用 variable-precision SWAR 算法来计算二进制位的汉明重量
+ * 如果二进制位的数量小于 128 位,那么使用查表算法来计算二进制位的汉明重量
+
+
+
+****
+
+
+
+##### BITOP
+
+BITOP 命令对指定 key 按位进行交、并、非、异或操作,并将结果保存到指定的键中
+
+```sh
+BITOP OPTION destKey key1 [key2...]
+```
+
+OPTION 有 AND(与)、OR(或)、 XOR(异或)和 NOT(非)四个选项
+
+AND、OR、XOR 三个命令可以接受多个位数组作为输入,需要遍历输入的每个位数组的每个字节来进行计算,所以命令的复杂度为 O(n^2);与此相反,NOT 命令只接受一个位数组输入,所以时间复杂度为 O(n)
+
+
+
+***
+
+
+
+#### 应用场景
+
+- **解决 Redis 缓存穿透**,判断给定数据是否存在, 防止缓存穿透
+
+
+
+- 垃圾邮件过滤,对每一个发送邮件的地址进行判断是否在布隆的黑名单中,如果在就判断为垃圾邮件
+
+- 爬虫去重,爬给定网址的时候对已经爬取过的 URL 去重
+
+- 信息状态统计
+
+
+
+
+
+***
+
+
+
+### Hyper
+
+基数是数据集去重后元素个数,HyperLogLog 是用来做基数统计的,运用了 LogLog 的算法
+
+```java
+{1, 3, 5, 7, 5, 7, 8} 基数集: {1, 3, 5 ,7, 8} 基数:5
+{1, 1, 1, 1, 1, 7, 1} 基数集: {1,7} 基数:2
+```
+
+相关指令:
+
+* 添加数据
```sh
- connected_slaves
+ pfadd key element [element ...]
```
- 最后一次主从信息交换距现在的秒:
+* 统计数据
```sh
- master_last_io_seconds_ago
+ pfcount key [key ...]
```
- key 的总数:
+* 合并数据
```sh
- keyspace
+ pfmerge destkey sourcekey [sourcekey...]
```
-* 持久性指标:Persistence
+应用场景:
+
+* 用于进行基数统计,不是集合不保存数据,只记录数量而不是具体数据,比如网站的访问量
+* 核心是基数估算算法,最终数值存在一定误差
+* 误差范围:基数估计的结果是一个带有 0.81% 标准错误的近似值
+* 耗空间极小,每个 hyperloglog key 占用了12K的内存用于标记基数
+* pfadd 命令不是一次性分配12K内存使用,会随着基数的增加内存逐渐增大
+* Pfmerge 命令合并后占用的存储空间为12K,无论合并之前数据量多少
- 当前服务器其最后一次 RDB 持久化的时间:
- ```sh
- rdb_last_save_time
- ```
- 当前服务器最后一次 RDB 持久化后数据变化总量:
+***
- ```sh
- rdb_changes_since_last_save
- ```
-* 错误指标:Error
- 被拒绝连接的客户端总数(基于达到最大连接值的因素):
+### GEO
+
+GeoHash 是一种地址编码方法,把二维的空间经纬度数据编码成一个字符串
+
+* 添加坐标点
```sh
- rejected_connections
+ geoadd key longitude latitude member [longitude latitude member ...]
+ georadius key longitude latitude radius m|km|ft|mi [withcoord] [withdist] [withhash] [count count]
```
- key未命中的总次数:
+* 获取坐标点
```sh
- keyspace_misses
+ geopos key member [member ...]
+ georadiusbymember key member radius m|km|ft|mi [withcoord] [withdist] [withhash] [count count]
```
- 主从断开的秒数:
+* 计算距离
```sh
- master_link_down_since_seconds
+ geodist key member1 member2 [unit] #计算坐标点距离
+ geohash key member [member ...] #计算经纬度
```
-要对redis的相关指标进行监控,我们可以采用一些用具:
+Redis 应用于地理位置计算
-- CloudInsight Redis
-- Prometheus
-- Redis-stat
-- Redis-faina
-- RedisLive
-- zabbix
-命令工具:
-* benchmark
- 测试当前服务器的并发性能:
- ```sh
- redis-benchmark [-h ] [-p ] [-c ] [-n [-k ]
- ```
+****
- 范例:100 个连接,5000 次请求对应的性能
- ```sh
- redis-benchmark -c 100 -n 5000
- ```
- 
-* redis-cli
- monitor:启动服务器调试信息
+## 持久机制
- ```sh
- monitor
- ```
+### 概述
- slowlog:慢日志
+持久化:利用永久性存储介质将数据进行保存,在特定的时间将保存的数据进行恢复的工作机制称为持久化
- ```sh
- slowlog [operator] #获取慢查询日志
- ```
+作用:持久化用于防止数据的意外丢失,确保数据安全性,因为 Redis 是内存级,所以需要持久化到磁盘
- * get :获取慢查询日志信息
- * len :获取慢查询日志条目数
- * reset :重置慢查询日志
+计算机中的数据全部都是二进制,保存一组数据有两种方式
+
- 相关配置:
+RDB:将当前数据状态进行保存,快照形式,存储数据结果,存储格式简单
- ```sh
- slowlog-log-slower-than 1000 #设置慢查询的时间下线,单位:微妙
- slowlog-max-len 100 #设置慢查询命令对应的日志显示长度,单位:命令数
- ```
+AOF:将数据的操作过程进行保存,日志形式,存储操作过程,存储格式复杂
+
+
+
+***
+
+
+
+### RDB
-
\ No newline at end of file
+#### 文件创建
+
+RDB 持久化功能所生成的 RDB 文件是一个经过压缩的紧凑二进制文件,通过该文件可以还原生成 RDB 文件时的数据库状态,有两个 Redis 命令可以生成 RDB 文件,一个是 SAVE,另一个是 BGSAVE
+
+
+
+##### SAVE
+
+SAVE 指令:手动执行一次保存操作,该指令的执行会阻塞当前 Redis 服务器,客户端发送的所有命令请求都会被拒绝,直到当前 RDB 过程完成为止,有可能会造成长时间阻塞,线上环境不建议使用
+
+工作原理:Redis 是个**单线程的工作模式**,会创建一个任务队列,所有的命令都会进到这个队列排队执行。当某个指令在执行的时候,队列后面的指令都要等待,所以这种执行方式会非常耗时
+
+配置 redis.conf:
+
+```sh
+dir path #设置存储.rdb文件的路径,通常设置成存储空间较大的目录中,目录名称data
+dbfilename "x.rdb" #设置本地数据库文件名,默认值为dump.rdb,通常设置为dump-端口号.rdb
+rdbcompression yes|no #设置存储至本地数据库时是否压缩数据,默认yes,设置为no节省CPU运行时间
+rdbchecksum yes|no #设置读写文件过程是否进行RDB格式校验,默认yes
+```
+
+
+
+***
+
+
+
+##### BGSAVE
+
+BGSAVE:bg 是 background,代表后台执行,命令的完成需要两个进程,**进程之间不相互影响**,所以持久化期间 Redis 正常工作
+
+工作原理:
+
+
+
+流程:客户端发出 BGSAVE 指令,Redis 服务器使用 fork 函数创建一个子进程,然后响应后台已经开始执行的信息给客户端。子进程会异步执行持久化的操作,持久化过程是先将数据写入到一个临时文件中,持久化操作结束再用这个临时文件**替换**上次持久化的文件
+
+```python
+# 创建子进程
+pid = fork()
+if pid == 0:
+ # 子进程负责创建 RDB 文件
+ rdbSave()
+ # 完成之后向父进程发送信号
+ signal_parent()
+elif pid > 0:
+ # 父进程继续处理命令请求,并通过轮询等待子进程的信号
+ handle_request_and_wait_signal()
+else:
+ # 处理出错恃况
+ handle_fork_error()
+```
+
+配置 redis.conf
+
+```sh
+stop-writes-on-bgsave-error yes|no #后台存储过程中如果出现错误,是否停止保存操作,默认yes
+dbfilename filename
+dir path
+rdbcompression yes|no
+rdbchecksum yes|no
+```
+
+注意:BGSAVE 命令是针对 SAVE 阻塞问题做的优化,Redis 内部所有涉及到 RDB 操作都采用 BGSAVE 的方式,SAVE 命令放弃使用
+
+在 BGSAVE 命令执行期间,服务器处理 SAVE、BGSAVE、BGREWRITEAOF 三个命令的方式会和平时有所不同
+
+* SAVE 命令会被服务器拒绝,服务器禁止 SAVE 和 BGSAVE 命令同时执行是为了避免父进程(服务器进程)和子进程同时执行两个 rdbSave 调用,产生竞争条件
+* BGSAVE 命令也会被服务器拒绝,也会产生竞争条件
+* BGREWRITEAOF 和 BGSAVE 两个命令不能同时执行
+ * 如果 BGSAVE 命令正在执行,那么 BGREWRITEAOF 命令会被**延迟**到 BGSAVE 命令执行完毕之后执行
+ * 如果 BGREWRITEAOF 命令正在执行,那么 BGSAVE 命令会被服务器拒绝
+
+
+
+***
+
+
+
+##### 特殊指令
+
+RDB 特殊启动形式的指令(客户端输入)
+
+* 服务器运行过程中重启
+
+ ```sh
+ debug reload
+ ```
+
+* 关闭服务器时指定保存数据
+
+ ```sh
+ shutdown save
+ ```
+
+ 默认情况下执行 shutdown 命令时,自动执行 bgsave(如果没有开启 AOF 持久化功能)
+
+* 全量复制:主从复制部分详解
+
+
+
+
+
+***
+
+
+
+#### 文件载入
+
+RDB 文件的载入工作是在服务器启动时自动执行,期间 Redis 会一直处于阻塞状态,直到载入完成
+
+Redis 并没有专门用于载入 RDB 文件的命令,只要服务器在启动时检测到 RDB 文件存在,就会自动载入 RDB 文件
+
+```sh
+[7379] 30 Aug 21:07:01.289 * DB loaded from disk: 0.018 seconds # 服务器在成功载入 RDB 文件之后打印
+```
+
+AOF 文件的更新频率通常比 RDB 文件的更新频率高:
+
+* 如果服务器开启了 AOF 持久化功能,那么会优先使用 AOF 文件来还原数据库状态
+* 只有在 AOF 持久化功能处于关闭状态时,服务器才会使用 RDB 文件来还原数据库状态
+
+
+
+
+
+****
+
+
+
+#### 自动保存
+
+##### 配置文件
+
+Redis 支持通过配置服务器的 save 选项,让服务器每隔一段时间自动执行一次 BGSAVE 命令
+
+配置 redis.conf:
+
+```sh
+save second changes #设置自动持久化条件,满足限定时间范围内key的变化数量就进行持久化(bgsave)
+```
+
+* second:监控时间范围
+* changes:监控 key 的变化量
+
+默认三个条件:
+
+```sh
+save 900 1 # 900s内1个key发生变化就进行持久化
+save 300 10
+save 60 10000
+```
+
+判定 key 变化的依据:
+
+* 对数据产生了影响,不包括查询
+* 不进行数据比对,比如 name 键存在,重新 set name seazean 也算一次变化
+
+save 配置要根据实际业务情况进行设置,频度过高或过低都会出现性能问题,结果可能是灾难性的
+
+
+
+***
+
+
+
+##### 自动原理
+
+服务器状态相关的属性:
+
+```c
+struct redisServer {
+ // 记录了保存条件的数组
+ struct saveparam *saveparams;
+
+ // 修改计数器
+ long long dirty;
+
+ // 上一次执行保存的时间
+ time_t lastsave;
+};
+```
+
+* Redis 服务器启动时,可以通过指定配置文件或者传入启动参数的方式设置 save 选项, 如果没有自定义就设置为三个默认值(上节提及),设置服务器状态 redisServe.saveparams 属性,该数组每一项为一个 saveparam 结构,代表 save 的选项设置
+
+ ```c
+ struct saveparam {
+ // 秒数
+ time_t seconds
+ // 修改数
+ int changes;
+ };
+ ```
+
+* dirty 计数器记录距离上一次成功执行 SAVE 或者 BGSAVE 命令之后,服务器中的所有数据库进行了多少次修改(包括写入、删除、更新等操作),当服务器成功执行一个修改指令,该命令修改了多少次数据库, dirty 的值就增加多少
+
+* lastsave 属性是一个 UNIX 时间戳,记录了服务器上一次成功执行 SAVE 或者 BGSAVE 命令的时间
+
+Redis 的服务器周期性操作函数 serverCron 默认每隔 100 毫秒就会执行一次,该函数用于对正在运行的服务器进行维护
+
+serverCron 函数的其中一项工作是检查 save 选项所设置的保存条件是否满足,会遍历 saveparams 数组中的**所有保存条件**,只要有任意一个条件被满足服务器就会执行 BGSAVE 命令
+
+
+
+
+
+
+
+***
+
+
+
+#### 文件结构
+
+RDB 的存储结构:图示全大写单词标示常量,用全小写单词标示变量和数据
+
+
+
+* REDIS:长度为 5 字节,保存着 `REDIS` 五个字符,是 RDB 文件的开头,在载入文件时可以快速检查所载入的文件是否 RDB 文件
+* db_version:长度为 4 字节,是一个用字符串表示的整数,记录 RDB 的版本号
+* database:包含着零个或任意多个数据库,以及各个数据库中的键值对数据
+* EOF:长度为 1 字节的常量,标志着 RDB 文件正文内容的结束,当读入遇到这个值时,代表所有数据库的键值对都已经载入完毕
+* check_sum:长度为 8 字节的无符号整数,保存着一个校验和,该值是通过 REDIS、db_version、databases、EOF 四个部分的内容进行计算得出。服务器在载入 RDB 文件时,会将载入数据所计算出的校验和与 check_sum 所记录的校验和进行对比,来检查 RDB 文件是否有出错或者损坏
+
+Redis 本身带有 RDB 文件检查工具 redis-check-dump
+
+
+
+
+
+***
+
+
+
+### AOF
+
+#### 基本概述
+
+AOF(append only file)持久化:以独立日志的方式记录每次写命令(不记录读)来记录数据库状态,**增量保存**只许追加文件但不可以改写文件,**与 RDB 相比可以理解为由记录数据改为记录数据的变化**
+
+AOF 主要作用是解决了**数据持久化的实时性**,目前已经是 Redis 持久化的主流方式
+
+AOF 写数据过程:
+
+
+
+Redis 只会将对数据库进行了修改的命令写入到 AOF 文件,并复制到各个从服务器,但是 PUBSUB 和 SCRIPT LOAD 命令例外:
+
+* PUBSUB 命令虽然没有修改数据库,但 PUBSUB 命令向频道的所有订阅者发送消息这一行为带有副作用,接收到消息的所有客户端的状态都会因为这个命令而改变,所以服务器需要使用 REDIS_FORCE_AOF 标志强制将这个命令写入 AOF 文件。这样在将来载入 AOF 文件时,服务器就可以再次执行相同的 PUBSUB 命令,并产生相同的副作用
+* SCRIPT LOAD 命令虽然没有修改数据库,但它修改了服务器状态,所以也是一个带有副作用的命令,需要使用 REDIS_FORCE_AOF
+
+
+
+***
+
+
+
+#### 持久实现
+
+AOF 持久化功能的实现可以分为命令追加(append)、文件写入、文件同步(sync)三个步骤
+
+
+
+##### 命令追加
+
+启动 AOF 的基本配置:
+
+```sh
+appendonly yes|no #开启AOF持久化功能,默认no,即不开启状态
+appendfilename filename #AOF持久化文件名,默认appendonly.aof,建议设置appendonly-端口号.aof
+dir #AOF持久化文件保存路径,与RDB持久化文件路径保持一致即可
+```
+
+当 AOF 持久化功能处于打开状态时,服务器在执行完一个写命令之后,会以协议格式将被执行的写命令**追加**到服务器状态的 aof_buf 缓冲区的末尾
+
+```c
+struct redisServer {
+ // AOF 缓冲区
+ sds aof_buf;
+};
+```
+
+
+
+***
+
+
+
+##### 文件写入
+
+服务器在处理文件事件时会执行**写命令,追加一些内容到 aof_buf 缓冲区**里,所以服务器每次结束一个事件循环之前,就会执行 flushAppendOnlyFile 函数,判断是否需要**将 aof_buf 缓冲区中的内容写入和保存到 AOF 文件**里
+
+flushAppendOnlyFile 函数的行为由服务器配置的 appendfsync 选项的值来决定
+
+```sh
+appendfsync always|everysec|no #AOF写数据策略:默认为everysec
+```
+
+- always:每次写入操作都将 aof_buf 缓冲区中的所有内容**写入并同步**到 AOF 文件
+
+ 特点:安全性最高,数据零误差,但是性能较低,不建议使用
+
+
+- everysec:先将 aof_buf 缓冲区中的内容写入到操作系统缓存,判断上次同步 AOF 文件的时间距离现在超过一秒钟,再次进行同步 fsync,这个同步操作是由一个(子)线程专门负责执行的
+
+ 特点:在系统突然宕机的情况下丢失 1 秒内的数据,准确性较高,性能较高,建议使用,也是默认配置
+
+
+- no:将 aof_buf 缓冲区中的内容写入到操作系统缓存,但并不进行同步,何时同步由操作系统来决定
+
+ 特点:**整体不可控**,服务器宕机会丢失上次同步 AOF 后的所有写指令
+
+
+
+****
+
+
+
+##### 文件同步
+
+在现代操作系统中,当用户调用 write 函数将数据写入文件时,操作系统通常会将写入数据暂时保存在一个内存缓冲区空间,等到缓冲区**写满或者到达特定时间周期**,才真正地将缓冲区中的数据写入到磁盘里面(刷脏)
+
+* 优点:提高文件的写入效率
+* 缺点:为写入数据带来了安全问题,如果计算机发生停机,那么保存在内存缓冲区里面的写入数据将会丢失
+
+系统提供了 fsync 和 fdatasync 两个同步函数做**强制硬盘同步**,可以让操作系统立即将缓冲区中的数据写入到硬盘里面,函数会阻塞到写入硬盘完成后返回,保证了数据持久化
+
+异常恢复:AOF 文件损坏,通过 redis-check-aof--fix appendonly.aof 进行恢复,重启 Redis,然后重新加载
+
+
+
+
+
+***
+
+
+
+#### 文件载入
+
+AOF 文件里包含了重建数据库状态所需的所有写命令,所以服务器只要读入并重新执行一遍 AOF 文件里的命令,就还原服务器关闭之前的数据库状态,服务器在启动时,还原数据库状态打印的日志:
+
+```sh
+[8321] 05 Sep 11:58:50.449 * DB loaded from append only file: 0.000 seconds
+```
+
+AOF 文件里面除了用于指定数据库的 SELECT 命令是服务器自动添加的,其他都是通过客户端发送的命令
+
+```sh
+* 2\r\n$6\r\nSELECT\r\n$1\r\n0\r\n # 服务器自动添加
+* 3\r\n$3\r\nSET\r\n$3\r\nmsg\r\n$5\r\nhello\r\n
+* 5\r\n$4\r\nSADD\r\n$6\r\nfruits\r\n$5\r\napple\r\n$6\r\nbanana\r\n$6\r\ncherry\r\n
+```
+
+Redis 读取 AOF 文件并还原数据库状态的步骤:
+
+* 创建一个**不带网络连接的伪客户端**(fake client)执行命令,因为 Redis 的命令只能在客户端上下文中执行, 而载入 AOF 文件时所使用的命令来源于本地 AOF 文件而不是网络连接
+* 从 AOF 文件分析并读取一条写命令
+* 使用伪客户端执行被读出的写命令,然后重复上述步骤
+
+
+
+
+
+****
+
+
+
+#### 重写实现
+
+##### 重写策略
+
+AOF 重写:读取服务器当前的数据库状态,**生成新 AOF 文件来替换旧 AOF 文件**,不会对现有的 AOF 文件进行任何读取、分析或者写入操作,而是直接原子替换。新 AOF 文件不会包含任何浪费空间的冗余命令,所以体积通常会比旧 AOF 文件小得多
+
+AOF 重写规则:
+
+- 进程内具有时效性的数据,并且数据已超时将不再写入文件
+
+
+- 对同一数据的多条写命令合并为一条命令,因为会读取当前的状态,所以直接将当前状态转换为一条命令即可。为防止数据量过大造成客户端缓冲区溢出,对 list、set、hash、zset 等集合类型,**单条指令**最多写入 64 个元素
+
+ 如 lpushlist1 a、lpush list1 b、lpush list1 c 可以转化为:lpush list1 a b c
+
+- 非写入类的无效指令将被忽略,只保留最终数据的写入命令,但是 select 指令虽然不更改数据,但是更改了数据的存储位置,此类命令同样需要记录
+
+AOF 重写作用:
+
+- 降低磁盘占用量,提高磁盘利用率
+- 提高持久化效率,降低持久化写时间,提高 IO 性能
+- 降低数据恢复的用时,提高数据恢复效率
+
+
+
+***
+
+
+
+##### 重写原理
+
+AOF 重写程序 aof_rewrite 函数可以创建一个新 AOF 文件, 但是该函数会进行大量的写入操作,调用这个函数的线程将被长时间阻塞,所以 Redis 将 AOF 重写程序放到 fork 的子进程里执行,不会阻塞父进程,重写命令:
+
+```sh
+bgrewriteaof
+```
+
+* 子进程进行 AOF 重写期间,服务器进程(父进程)可以继续处理命令请求
+
+* 子进程带有服务器进程的数据副本,使用子进程而不是线程,可以在避免使用锁的情况下, 保证数据安全性
+
+ 
+
+子进程在进行 AOF 重写期间,服务器进程还需要继续处理命令请求,而新命令可能会对现有的数据库状态进行修改,从而使得服务器当前的数据库状态和重写后的 AOF 文件所保存的数据库状态不一致,所以 Redis 设置了 AOF 重写缓冲区
+
+工作流程:
+
+* Redis 服务器执行完一个写命令,会同时将该命令追加到 AOF 缓冲区和 AOF 重写缓冲区(从创建子进程后才开始写入)
+* 当子进程完成 AOF 重写工作之后,会向父进程发送一个信号,父进程在接到该信号之后, 会调用一个信号处理函数,该函数执行时会**对服务器进程(父进程)造成阻塞**(影响很小,类似 JVM STW),主要工作:
+ * 将 AOF 重写缓冲区中的所有内容写入到新 AOF 文件中, 这时新 AOF 文件所保存的状态将和服务器当前的数据库状态一致
+ * 对新的 AOF 文件进行改名,**原子地(atomic)覆盖**现有的 AOF 文件,完成新旧两个 AOF 文件的替换
+
+
+
+
+
+***
+
+
+
+##### 自动重写
+
+触发时机:Redis 会记录上次重写时的 AOF 大小,默认配置是当 AOF 文件大小是上次重写后大小的一倍且文件大于 64M 时触发
+
+```sh
+auto-aof-rewrite-min-size size #设置重写的基准值,最小文件 64MB,达到这个值开始重写
+auto-aof-rewrite-percentage percent #触发AOF文件执行重写的增长率,当前AOF文件大小超过上一次重写的AOF文件大小的百分之多少才会重写,比如文件达到 100% 时开始重写就是两倍时触发
+```
+
+自动重写触发比对参数( 运行指令 `info Persistence` 获取具体信息 ):
+
+```sh
+aof_current_size #AOF文件当前尺寸大小(单位:字节)
+aof_base_size #AOF文件上次启动和重写时的尺寸大小(单位:字节)
+```
+
+自动重写触发条件公式:
+
+- aof_current_size > auto-aof-rewrite-min-size
+- (aof_current_size - aof_base_size) / aof_base_size >= auto-aof-rewrite-percentage
+
+
+
+
+
+****
+
+
+
+### 对比
+
+RDB 的特点
+
+* RDB 优点:
+ - RDB 是一个紧凑压缩的二进制文件,存储效率较高,但存储数据量较大时,存储效率较低
+ - RDB 内部存储的是 Redis 在某个时间点的数据快照,非常**适合用于数据备份,全量复制、灾难恢复**
+ - RDB 恢复数据的速度要比 AOF 快很多,因为是快照,直接恢复
+* RDB 缺点:
+
+ - BGSAVE 指令每次运行要执行 fork 操作创建子进程,会牺牲一些性能
+ - RDB 方式无论是执行指令还是利用配置,无法做到实时持久化,具有丢失数据的可能性,最后一次持久化后的数据可能丢失
+ - Redis 的众多版本中未进行 RDB 文件格式的版本统一,可能出现各版本之间数据格式无法兼容
+
+AOF 特点:
+
+* AOF 的优点:数据持久化有**较好的实时性**,通过 AOF 重写可以降低文件的体积
+* AOF 的缺点:文件较大时恢复较慢
+
+AOF 和 RDB 同时开启,系统默认取 AOF 的数据(数据不会存在丢失)
+
+应用场景:
+
+- 对数据**非常敏感**,建议使用默认的 AOF 持久化方案,AOF 持久化策略使用 everysecond,每秒钟 fsync 一次,该策略 Redis 仍可以保持很好的处理性能
+
+ 注意:AOF 文件存储体积较大,恢复速度较慢,因为要执行每条指令
+
+- 数据呈现**阶段有效性**,建议使用 RDB 持久化方案,可以做到阶段内无丢失,且恢复速度较快
+
+ 注意:利用 RDB 实现紧凑的数据持久化,存储数据量较大时,存储效率较低
+
+综合对比:
+
+- RDB 与 AOF 的选择实际上是在做一种权衡,每种都有利有弊
+- 灾难恢复选用 RDB
+- 如不能承受数分钟以内的数据丢失,对业务数据非常敏感,选用 AOF;如能承受数分钟以内的数据丢失,且追求大数据集的恢复速度,选用 RDB
+- 双保险策略,同时开启 RDB 和 AOF,重启后 Redis 优先使用 AOF 来恢复数据,降低丢失数据的量
+- 不建议单独用 AOF,因为可能会出现 Bug,如果只是做纯内存缓存,可以都不用
+
+
+
+***
+
+
+
+### fork
+
+#### 介绍
+
+fork() 函数创建一个子进程,子进程与父进程几乎是完全相同的进程,系统先给子进程分配资源,然后把父进程的所有数据都复制到子进程中,只有少数值与父进程的值不同,相当于克隆了一个进程
+
+在完成对其调用之后,会产生 2 个进程,且每个进程都会**从 fork() 的返回处开始执行**,这两个进程将执行相同的程序段,但是拥有各自不同的堆段,栈段,数据段,每个子进程都可修改各自的数据段,堆段,和栈段
+
+```c
+#include
+pid_t fork(void);
+// 父进程返回子进程的pid,子进程返回0,错误返回负值,根据返回值的不同进行对应的逻辑处理
+```
+
+fork 调用一次,却能够**返回两次**,可能有三种不同的返回值:
+
+* 在父进程中,fork 返回新创建子进程的进程 ID
+* 在子进程中,fork 返回 0
+* 如果出现错误,fork 返回一个负值,错误原因:
+ * 当前的进程数已经达到了系统规定的上限,这时 errno 的值被设置为 EAGAIN
+ * 系统内存不足,这时 errno 的值被设置为 ENOMEM
+
+fpid 的值在父子进程中不同:进程形成了链表,父进程的 fpid 指向子进程的进程 id,因为子进程没有子进程,所以其 fpid 为0
+
+创建新进程成功后,系统中出现两个基本完全相同的进程,这两个进程执行没有固定的先后顺序,哪个进程先执行要看系统的调度策略
+
+每个进程都有一个独特(互不相同)的进程标识符 process ID,可以通过 getpid() 函数获得;还有一个记录父进程 pid 的变量,可以通过 getppid() 函数获得变量的值
+
+
+
+***
+
+
+
+#### 使用
+
+基本使用:
+
+```c
+#include
+#include
+int main ()
+{
+ pid_t fpid; // fpid表示fork函数返回的值
+ int count = 0;
+ fpid = fork();
+ if (fpid < 0)
+ printf("error in fork!");
+ else if (fpid == 0) {
+ printf("i am the child process, my process id is %d/n", getpid());
+ count++;
+ }
+ else {
+ printf("i am the parent process, my process id is %d/n", getpid());
+ count++;
+ }
+ printf("count: %d/n",count);// 1
+ return 0;
+}
+/* 输出内容:
+ i am the child process, my process id is 5574
+ count: 1
+ i am the parent process, my process id is 5573
+ count: 1
+*/
+```
+
+进阶使用:
+
+```c
+#include
+#include
+int main(void)
+{
+ int i = 0;
+ // ppid 指当前进程的父进程pid
+ // pid 指当前进程的pid,
+ // fpid 指fork返回给当前进程的值,在这可以表示子进程
+ for(i = 0; i < 2; i++){
+ pid_t fpid = fork();
+ if(fpid == 0)
+ printf("%d child %4d %4d %4d/n",i, getppid(), getpid(), fpid);
+ else
+ printf("%d parent %4d %4d %4d/n",i, getppid(), getpid(),fpid);
+ }
+ return 0;
+}
+/*输出内容:
+ i 父id id 子id
+ 0 parent 2043 3224 3225
+ 0 child 3224 3225 0
+ 1 parent 2043 3224 3226
+ 1 parent 3224 3225 3227
+ 1 child 1 3227 0
+ 1 child 1 3226 0
+*/
+```
+
+
+
+在 p3224 和 p3225 执行完第二个循环后,main 函数退出,进程死亡。所以 p3226,p3227 就没有父进程了,成为孤儿进程,所以 p3226 和 p3227 的父进程就被置为 ID 为 1 的 init 进程(笔记 Tool → Linux → 进程管理详解)
+
+参考文章:https://blog.csdn.net/love_gaohz/article/details/41727415
+
+
+
+***
+
+
+
+#### 内存
+
+fork() 调用之后父子进程的内存关系
+
+早期 Linux 的 fork() 实现时,就是全部复制,这种方法效率太低,而且造成了很大的内存浪费,现在 Linux 实现采用了两种方法:
+
+* 父子进程的代码段是相同的,所以代码段是没必要复制的,只需内核将代码段标记为只读,父子进程就共享此代码段。fork() 之后在进程创建代码段时,子进程的进程级页表项都指向和父进程相同的物理页帧
+
+
+
+* 对于父进程的数据段,堆段,栈段中的各页,由于父子进程相互独立,采用**写时复制 COW** 的技术,来提高内存以及内核的利用率
+
+ 在 fork 之后两个进程用的是相同的物理空间(内存区),子进程的代码段、数据段、堆栈都是指向父进程的物理空间,**两者的虚拟空间不同,但其对应的物理空间是同一个**,当父子进程中有更改相应段的行为发生时,再为子进程相应的段分配物理空间。如果两者的代码完全相同,代码段继续共享父进程的物理空间;而如果两者执行的代码不同,子进程的代码段也会分配单独的物理空间。
+
+ fork 之后内核会将子进程放在队列的前面,让子进程先执行,以免父进程执行导致写时复制,而后子进程再执行,因无意义的复制而造成效率的下降
+
+
+
+补充知识:
+
+vfork(虚拟内存 fork virtual memory fork):调用 vfork() 父进程被挂起,子进程使用父进程的地址空间。不采用写时复制,如果子进程修改父地址空间的任何页面,这些修改过的页面对于恢复的父进程是可见的
+
+
+
+参考文章:https://blog.csdn.net/Shreck66/article/details/47039937
+
+
+
+
+
+****
+
+
+
+
+
+## 事务机制
+
+### 事务特征
+
+Redis 事务就是将多个命令请求打包,然后**一次性、按顺序**地执行多个命令的机制,并且在事务执行期间,服务器不会中断事务去执行其他的命令请求,会将事务中的所有命令都执行完毕,然后才去处理其他客户端的命令请求,Redis 事务的特性:
+
+* Redis 事务**没有隔离级别**的概念,队列中的命令在事务没有提交之前都不会实际被执行
+* Redis 单条命令式保存原子性的,但是事务**不保证原子性**,事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚
+
+
+
+
+
+***
+
+
+
+### 工作流程
+
+事务的执行流程分为三个阶段:
+
+* 事务开始:MULTI 命令的执行标志着事务的开始,通过在客户端状态的 flags 属性中打开 REDIS_MULTI 标识,将执行该命令的客户端从非事务状态切换至事务状态
+
+ ```sh
+ MULTI # 设定事务的开启位置,此指令执行后,后续的所有指令均加入到事务中
+ ```
+
+* 命令入队:事务队列以先进先出(FIFO)的方式保存入队的命令,每个 Redis 客户端都有事务状态,包含着事务队列:
+
+ ```c
+ typedef struct redisClient {
+ // 事务状态
+ multiState mstate; /* MULTI/EXEC state */
+ }
+
+ typedef struct multiState {
+ // 事务队列,FIFO顺序
+ multiCmd *commands;
+
+ // 已入队命令计数
+ int count;
+ }
+ ```
+
+ * 如果命令为 EXEC、DISCARD、WATCH、MULTI 四个命中的一个,那么服务器立即执行这个命令
+ * 其他命令服务器不执行,而是将命令放入一个事务队列里面,然后向客户端返回 QUEUED 回复
+
+* 事务执行:EXEC 提交事务给服务器执行,服务器会遍历这个客户端的事务队列,执行队列中的命令并将执行结果返回
+
+ ```sh
+ EXEC # Commit 提交,执行事务,与multi成对出现,成对使用
+ ```
+
+事务取消的方法:
+
+* 取消事务:
+
+ ```sh
+ DISCARD # 终止当前事务的定义,发生在multi之后,exec之前
+ ```
+
+ 一般用于事务执行过程中输入了错误的指令,直接取消这次事务,类似于回滚
+
+
+
+
+
+***
+
+
+
+### WATCH
+
+#### 监视机制
+
+WATCH 命令是一个乐观锁(optimistic locking),可以在 EXEC 命令执行之前,监视任意数量的数据库键,并在 EXEC 命令执行时,检查被监视的键是否至少有一个已经被修改过了,如果是服务器将拒绝执行事务,并向客户端返回代表事务执行失败的空回复
+
+* 添加监控锁
+
+ ```sh
+ WATCH key1 [key2……] #可以监控一个或者多个key
+ ```
+
+* 取消对所有 key 的监视
+
+ ```sh
+ UNWATCH
+ ```
+
+
+
+***
+
+
+
+#### 实现原理
+
+每个 Redis 数据库都保存着一个 watched_keys 字典,键是某个被 WATCH 监视的数据库键,值则是一个链表,记录了所有监视相应数据库键的客户端:
+
+```c
+typedef struct redisDb {
+ // 正在被 WATCH 命令监视的键
+ dict *watched_keys;
+}
+```
+
+所有对数据库进行修改的命令,在执行后都会调用 `multi.c/touchWatchKey` 函数对 watched_keys 字典进行检查,是否有客户端正在监视刚被命令修改过的数据库键,如果有的话函数会将监视被修改键的客户端的 REDIS_DIRTY_CAS 标识打开,表示该客户端的事务安全性已经被破坏
+
+服务器接收到个客户端 EXEC 命令时,会根据这个客户端是否打开了 REDIS_DIRTY_CAS 标识,如果打开了说明客户端提交事务不安全,服务器会拒绝执行
+
+
+
+
+
+****
+
+
+
+### ACID
+
+#### 原子性
+
+事务具有原子性(Atomicity)、一致性(Consistency)、隔离性(Isolation)、持久性(Durability)
+
+原子性指事务队列中的命令要么就全部都执行,要么一个都不执行,但是在命令执行出错时,不会保证原子性(下一节详解)
+
+Redis 不支持事务回滚机制(rollback),即使事务队列中的某个命令在执行期间出现了错误,整个事务也会继续执行下去,直到将事务队列中的所有命令都执行完毕为止
+
+回滚需要程序员在代码中实现,应该尽可能避免:
+
+* 事务操作之前记录数据的状态
+
+ * 单数据:string
+
+ * 多数据:hash、list、set、zset
+
+
+* 设置指令恢复所有的被修改的项
+
+ * 单数据:直接 set(注意周边属性,例如时效)
+
+ * 多数据:修改对应值或整体克隆复制
+
+
+
+***
+
+
+
+#### 一致性
+
+事务具有一致性指的是,数据库在执行事务之前是一致的,那么在事务执行之后,无论事务是否执行成功,数据库也应该仍然是一致的
+
+一致是数据符合数据库的定义和要求,没有包含非法或者无效的错误数据,Redis 通过错误检测和简单的设计来保证事务的一致性:
+
+* 入队错误:命令格式输入错误,出现语法错误造成,**整体事务中所有命令均不会执行**,包括那些语法正确的命令
+
+
+
+* 执行错误:命令执行出现错误,例如对字符串进行 incr 操作,事务中正确的命令会被执行,运行错误的命令不会被执行
+
+
+
+* 服务器停机:
+
+ * 如果服务器运行在无持久化的内存模式下,那么重启之后的数据库将是空白的,因此数据库是一致的
+ * 如果服务器运行在持久化模式下,重启之后将数据库还原到一致的状态
+
+
+
+
+***
+
+
+
+#### 隔离性
+
+Redis 是一个单线程的执行原理,所以对于隔离性,分以下两种情况:
+
+* 并发操作在 EXEC 命令前执行,隔离性的保证要使用 WATCH 机制来实现,否则隔离性无法保证
+* 并发操作在 EXEC 命令后执行,隔离性可以保证
+
+
+
+***
+
+
+
+#### 持久性
+
+Redis 并没有为事务提供任何额外的持久化功能,事务的持久性由 Redis 所使用的持久化模式决定
+
+配置选项 `no-appendfsync-on-rewrite` 可以配合 appendfsync 选项在 AOF 持久化模式使用:
+
+* 选项打开时在执行 BGSAVE 或者 BGREWRITEAOF 期间,服务器会暂时停止对 AOF 文件进行同步,从而尽可能地减少 I/O 阻塞
+* 选项打开时运行在 always 模式的 AOF 持久化,事务也不具有持久性,所以该选项默认关闭
+
+在一个事务的最后加上 SAVE 命令总可以保证事务的耐久性
+
+
+
+
+
+***
+
+
+
+## Lua 脚本
+
+### 环境创建
+
+#### 基本介绍
+
+Redis 对 Lua 脚本支持,通过在服务器中嵌入 Lua 环境,客户端可以使用 Lua 脚本直接在服务器端**原子地执行**多个命令
+
+```sh
+EVAL
@@ -8710,7 +8748,7 @@ v-on:为 HTML 标签绑定事件,有简写方式
new Vue({
el:"#div",
data:{
- name:"黑马程序员"
+ name:"sea程序员"
},
methods:{
change(){
@@ -8740,7 +8778,7 @@ v-on:为 HTML 标签绑定事件,有简写方式
将Model和View关联起来的就是ViewModel,它是桥梁。
ViewModel负责把Model的数据同步到View显示出来,还负责把View修改的数据同步回Model。
- 
+ 
```html
@@ -8912,11 +8950,11 @@ Element:网站快速成型工具,是饿了么公司前端开发团队提供
* 生命周期
- 
+ 
* 生命周期八个阶段
- 
+ 
@@ -9049,16 +9087,16 @@ Nginx 两个最核心的功能:高性能的静态 Web 服务器,反向代理
nginx.conf 文件时 Nginx 的主配置文件
-
+
* main 部分
-
+
* events 部分
-
+
* server 部分
-
+
root 设置的路径会拼接上 location 的路径,然后去最终路径寻找对应的文件
@@ -9116,7 +9154,7 @@ nginx.conf 文件时 Nginx 的主配置文件
* 提高访问速度:代理服务器都设置一个较大的硬盘缓冲区,会将部分请求的响应保存到缓冲区中,当其他用户再访问相同的信息时, 则直接由缓冲区中取出信息,传给用户,以提高访问速度
* 隐藏客户端真实 IP:隐藏自己的 IP,免受攻击
-
+
@@ -9131,7 +9169,7 @@ nginx.conf 文件时 Nginx 的主配置文件
* 提高访问速度:反向代理服务器可以对于静态内容及短时间内有大量访问请求的动态内容提供缓存服务
* 提供安全保障:反向代理服务器可以作为应用层防火墙,为网站提供对基于 Web 的攻击行为(例如 DoS/DDoS)的防护,更容易排查恶意软件等
-
+
区别: