博客
关于我
Memcache的安装与配置
阅读量:459 次
发布时间:2019-03-06

本文共 1691 字,大约阅读时间需要 5 分钟。

因为单位要求修复Memcached的DDOS漏洞,整理了本文。之前的文章 提到了解决方案,我们使用的版本较低,因此需要对 Memcached 进行升级,有需要的朋友可以参考。

旧版本的卸载

如果 Memcached 是通过 yum 或 rpm 安装的,可以通过 yum 删除

yum remove <package_name>

新版本的安装

我的环境是 Redhat 6.5 和 6.4,因为最新版的 Memcached 要求 Libevent 2.0 ,系统自带的版本太老了,因此需要先安装 Libevent 再安装 Memcached。我都使用了源码安装的方式,过程比较简单,都是configure make && make install。这里只是对遇到的问题总结一下。

如果启动的时候看到这个提示:/usr/local/memcached/bin/memcached: error while loading shared libraries: libevent-2.1.so.6: cannot open shared object file: No such file or directory

在 Redhat 6.5 和 6.4 中有不同的解决方案

Redhat 6.5

ln -s /usr/local/lib/libevent-2.1.so.6 /usr/lib64/libevent-2.1.so.6

Redhat 6.4

ln -s /usr/local/lib/libevent-2.1.so.6 /usr/lib/libevent-2.1.so.6

如何把 Memcached 加入到服务中

cp scripts/memcached.sysv /etc/init.d/memcahced #拷贝启动脚本到init.d目录ln -s /usr/local/bin/memcached /usr/bin/memcachedchkconfig --add memcachedchkconfig memcached on

Memcache的配置

第一次配置Memcached的时候,需要特别关注 -m, -d, -v 这三个参数。
-m 设置Memcached可以使用的内存大小(以Mb为单位),Memcached不能完全使用分配的大小,实际上要小一些。所以这个值需要设置在一个安全的范围内。在1.4.x版本或之前,设置为小于48M是不能生效的。
-d 设置Memcached以守护进行的形式运行。如果使用init脚本启动,则不需要这个参数。
-v 控制Memcached与STDOUT/STDERR的交互方式。加上这个参数后,可以在命令行中看到Memcache启动和工作过程中的一些输出信息。

-p 指定监听的端口
-l 绑定特定的地址

TCP -p 修改的时候,只针对TCP的链接请求有效
UDP -U 用来修改UDP的监听端口,UDP对于读取、设置一些比较小的条目时非常有用。如果对于这个端口比较担心,设置为0就可以禁止掉。

-s 这个配置可以将访问限制在一个单独的本地用户,启用这个配置后,会禁用TCP和UDP的访问。

连接限制:默认情况下,最大的连接限制是1024。这个的正确配置非常重要,达到最大连接数后,额外的连接会一直等待,直到有多余的slots空闲出来。通过查看“listen_disabled_num”这个状态值能够检查实例是否发生过最大连接数的情况。

memcached能够轻松的处理访问量的变化,所以即使设置的太高,也不需要担心。但是,设置一定要适合自己的情况,并且有一定的富余。如果你有5个Web前端,每台前端的MaxClients设置为12,那么memcached可能承受的最大访问量就是60。

ldd 命令

打印依赖的共享库

LD_DEBUG=libs /usr/local/bin/memcached -v

本文为作者原创,如果您觉得本文对您有帮助,请随意打赏,您的支持将鼓励我继续创作。

参考资料:
1、
2、
3、
4、
5、

转载地址:http://alrkz.baihongyu.com/

你可能感兴趣的文章
NIFI分页获取Postgresql数据到Hbase中_实际操作---大数据之Nifi工作笔记0049
查看>>
NIFI同步MySql数据_到SqlServer_错误_驱动程序无法通过使用安全套接字层(SSL)加密与SQL Server_Navicat连接SqlServer---大数据之Nifi工作笔记0047
查看>>
NIFI同步MySql数据源数据_到原始库hbase_同时对数据进行实时分析处理_同步到清洗库_实际操作06---大数据之Nifi工作笔记0046
查看>>
Nifi同步过程中报错create_time字段找不到_实际目标表和源表中没有这个字段---大数据之Nifi工作笔记0066
查看>>
【Flink】Flink 1.9 版本 web UI 突然没有日志
查看>>
NIFI大数据进阶_FlowFile拓扑_对FlowFile内容和属性的修改删除添加_介绍和描述_以及实际操作---大数据之Nifi工作笔记0023
查看>>
NIFI大数据进阶_FlowFile生成器_GenerateFlowFile处理器_ReplaceText处理器_处理器介绍_处理过程说明---大数据之Nifi工作笔记0019
查看>>
NIFI大数据进阶_FlowFile生成器_GenerateFlowFile处理器_ReplaceText处理器_实际操作---大数据之Nifi工作笔记0020
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_实际操作_02---大数据之Nifi工作笔记0032
查看>>
NIFI大数据进阶_Json内容转换为Hive支持的文本格式_操作方法说明_01_EvaluteJsonPath处理器---大数据之Nifi工作笔记0031
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka消费者处理器_来消费kafka数据---大数据之Nifi工作笔记0037
查看>>
NIFI大数据进阶_Kafka使用相关说明_实际操作Kafka生产者---大数据之Nifi工作笔记0036
查看>>
NIFI大数据进阶_NIFI的模板和组的使用-介绍和实际操作_创建组_嵌套组_模板创建下载_导入---大数据之Nifi工作笔记0022
查看>>
NIFI大数据进阶_NIFI监控功能实际操作_Summary查看系统和处理器运行情况_viewDataProvenance查看_---大数据之Nifi工作笔记0026
查看>>
NIFI大数据进阶_NIFI监控的强大功能介绍_处理器面板_进程组面板_summary监控_data_provenance事件源---大数据之Nifi工作笔记0025
查看>>
NIFI大数据进阶_NIFI集群知识点_认识NIFI集群以及集群的组成部分---大数据之Nifi工作笔记0014
查看>>
NIFI大数据进阶_NIFI集群知识点_集群的断开_重连_退役_卸载_总结---大数据之Nifi工作笔记0018
查看>>
NIFI大数据进阶_使用NIFI表达式语言_来获取自定义属性中的数据_NIFI表达式使用体验---大数据之Nifi工作笔记0024
查看>>
NIFI大数据进阶_内嵌ZK模式集群1_搭建过程说明---大数据之Nifi工作笔记0015
查看>>
NIFI大数据进阶_内嵌ZK模式集群2_实际操作搭建NIFI内嵌模式集群---大数据之Nifi工作笔记0016
查看>>