一般被拿来解决一些什么样的问题?
数据库字段太多,查询太慢,索引没有办法再做优化;数据库一个count就拖死全表;MySQL的limit翻到几十几百万页后实在是太慢;数据库like实在太慢,每次like整个服务器cpu内存飙高,拖慢整个线上服务;想要对外/内提供db里的数据的全文检索服务;提供日志(程序运行)查询功能;下面来针对上面几方面的问题逐一进行说明。
数据库方面MySQL对于一些较为固定,字段较少的查询方式,可以通过简单的增加索引来完成优化。在大多数公司,即使对索引优化不熟悉,也有专门的dba来帮忙完成一些简单的优化。甚至有些公司要求程序中不允许出现orm,必须用纯sql来完成业务逻辑,这样dba可以直接介入到代码中来。
不过到字段太多的时候,这种方法就失灵了。字段越多,查询自然就越慢(比如单条记录可能都超过了4k)。
MySQL表在普通查询过程中,比如select * from xxx limit 100w, 100;这种,数据量小的时候随便写sql,可能不会体会到翻页的痛。但在一个单表3000w的系统中写了limit 100w, 10。那数据库服务器就哭了。因为实际上数据库为了取出想要的那几条数据,需要把所有的数据也就是10000010条都取到内存中,复杂一点的select再加上order by则可能会同时涉及到多次磁盘读取和文件排序,慢上加慢。
除此之外,现在最流行的innodb之类的存储引擎在计算count的时候非常的慢。当然了,网络上会有人从乱七八糟的文章里看到换myisam应该就会更快的结论,但这其实是错的。如果在select语句的where条件中也有表达式时,这两种存储引擎本质上都是一样的,都会很慢很慢。
还有MySQL的like,其实没什么玄幻的,每次做like本质还是查询内容去和数据库字段做字符串匹配。非常地慢。
现在一般的互联网系统都是普遍的写少读多的系统,写/读搞不好会有1/5以上。但因为数据量庞大,为了读取效率而去做拆表或者拆库的话,有时候实在是有点得不偿失。而且拆表拆库对业务代码来说也并不透明,还可能会对本来支持的功能造成额外的影响。只是为了查询而去拆分的话,不是很合适。
上面这些问题,ES都可以解决。企业里对数据的查询一般可以分为三种:列表查询、详情查询和统计查询。列表一般就是列表页对应的查询,详情查询一般就是具体id对应的详情查询,而统计查询一般都是在看一些数值之类的报表,也就是一堆count值。
这三种查询里,MySQL做起来最困难的是1和3,即列表查询和统计查询。列表查询这种场景也会对应各种各样的查询条件,例如字段等于/小于/大于/不等判断,或者像字符串的严格匹配/前后缀模糊查询,时间字段的范围查询,in查询等等。这些查询都可以翻译为ES中的bool查询,举一个简单的例子:
例如上面这个es中的bool查询,就是从这种sql翻译过来的:
对应到业务里,常用的查询其实大多数都是这些很简单的条件并列,A && B && C && D。所以翻译起来也比较简单。
单表的count放在ES里做也非常的快,为什么呢?因为ES本身会把单个字段的一种值当作一个term,然后会记录这个term出现的所有文档和出现次数。举个例子,大家公司的业务,可能会去查询某个业务线下的所有工单。那么查询条件就类似于where business_type is 6这样。可能只需要一毫秒就返回了结果。很费解是不是?其实ES也只是去读了一下这个business_type是6的term出现的文档数,逻辑上是很简单的。
这是不是说明ES就是万能的了?
并不是。
首先是翻页的问题,ES里有上亿数据,翻到最后一页的时候还是会比较慢,并且会影响到整个系统的load,然后系统响应变慢。因为其原理还是拿一堆数据来做merge。
从传统的sql思维翻译到es的dsl过程也稍微有点痛苦。因为ES毕竟是从搜索引擎的角度去做这些事情,所以如果当DB来用的话,其DSL设计就显得很别扭。虽然有了上面的转换规则,但实际上业务转换起来并没有这么方便,比如在通常的查询里还可能会有where a = 1 or b = 2。显然想转成DSL就没有这么方便了。
ES不是数据库,所以如果想要实现联表查询也会变得很麻烦。如果还想实现事务,那么还是放弃吧。
在企业里用ES提供查询服务的话,一般都会做一层查询封装。直接提供sql接口。
但插件支持的功能也是有限的,并不是所以的特性都能很好的支持,比如join。所以也有一些公司的人会用druid之类的东西做一个sql parser层,然后来支持这些需求。不过即使是直接用这种插件,也不能认为它就能一劳永逸,还是需要对ES内部的机制(例如mapping)和通常的查询方式(term/query_string/wild_card等)很了解才行。
比如必须知道wildcard查询必须对字符串字段设置为not_analyzed。还得知道term什么时候代表的是分词后的词,什么时候代表的是整个字段的值。
在了解了这些之后才会了解到ES的高性能like,其实也还是有一些限制。例如输入的字符串会被分词,这也就是说,想要高性能的时候只能用ES默认提供的基于词的字符串like,而且一旦分词,就没办法实现类似sql里的 x= “Hello world”这种准确匹配的逻辑。也就是说,在ES里查询hello world,hello world fuck也会出现在结果当中。不过这个对于大多数的业务来说实际上是无所谓的。
检索服务方面搜索是人类的自然需求。如果不是的话,那Google和百度就不会诞生了。
而检索/搜索的基本原理就是对语句进行分词,然后再形成倒排索引,再根据词项出现次数对文档进行打分,最终按分数倒序展示给用户。
对于海量数据的公司来说,一个单机的方案很快就会遇到瓶颈,而去寻求或自行开发更好的解决方案。在ES之前solr更流行一些吧,不过solr的配置还是稍微麻烦,而es的集群搭建只要改改yml就好了。
有了ES以后,集群便可以非常方便地进行动态扩展。只要加硬盘加机器改配置就好,因为本身的副本分布策略比较科学。所以只要别一半以上的节点都挂掉,数据就不会丢失。而且还会在某些结点挂掉的时候自动进行分片relocate。
由于ES本身带的分词不是很科学,这样的话对doc打分可能会有一些影响。比如中国人可能不正确地分成了中/国人之类的。现在很多人会选择以插件的形式把ik分词器之类的插件挂载到es上来改善分词效果。这些插件的本质其实还是一个非常庞大的中文词库。内部设计有链接可以直接查看语句的分词结果,可以方便地直接查看效果。
所以要是有几亿的文档需要做些检索,那五六台配置不错的ES机器就足够了,甚至都不用ssd。
日志方面企业里的系统一般都是分布式系统,所以无论是接入,还是api,还是db,都不太可能在一台机器上完成需求。
对于某一个服务模块来说,多台机器最麻烦的就是去查问题。在没有日志系统的时代,程序员大概只能登陆到机器去一台一台寻找可能的错误日志,然而因为负载均衡算法(比如可能是一致性哈希望/随机/RR/WR)的问题,可能一个用户在一次访问会话(session)中的请求都不是一台而是多台机器完成的响应。
所以日志系统的工作就是把日志汇集到一起,并提供统一的查询入口。
要收集日志一般会自行搭建一个elk平台,elasticsearch/logstash/kibana必不可少。
不过拿来的东西总会有那么一些问题,比如kibana里的按地图出数据默认用的是googlemap,在墙内使会有些问题,这个问题github上也有人已经解决了。再比如logstash这个程序可能只考虑了简单的收集 ,如果是大公司的业务讲究一个严谨。例如想要对日志收集端的资源使用做一些限制,不能随便占用系统资源而影响到业务系统。再比如还希望日志不要因为网络闪断之类的问题导致日志丢失什么的,所以还可能会在logstash后面再加一个kafka/redis。不管怎么说,工作基础还是elk。
日志系统还存在一个问题,因为海量的数据和海量的访问,日志的数据量一般都非常地庞大。所以一般数据都会有一个过期时间,一般来说,日志数据其实一般也就一周或者一个月。毕竟即使是一个边缘部门,一周的日志也都已经几个亿(100+GB)了。
查询起来也不希望太慢,所以还是尽量把日志索引的大小控制在一个范围内。当然,也有按照日期来生成索引的。每一天在一个独立的索引下,这样查询性能也会好一些。
同时又是因为这海量的数据,在写入到ES的时候必须使用bulk端口,相信使用过ES的人都知道使用和不使用分别意味着什么。
mysql试题,mysql读写延迟问题,mysql赋予空值,mysql去重复值语句,pyrhon链接mysql,mysql_query 捕捉错误