Posts
Mysql Galera Cluster
· ☕ 6 分钟 · ✍️ starifly

介绍

Galera Cluster主要功能

  1. 同步复制
  2. 真正的multi-master,即所有节点可以同时读写数据库
  3. 自动的节点成员控制,失效节点自动被清除
  4. 新节点加入数据自动复制
  5. 真正的并行复制,行级
  6. 用户可以直接连接集群,使用感受上与MySQL完全一致

优势


U盘安装RedHat
· ☕ 1 分钟 · ✍️ starifly

刚开始网上查教程,大部分都说使用UltraISO刻录U盘启动盘,但是坑爹的是通过这种方式刻录的启动盘在安装过程中会找不到安装介质,所以不能使用这种方式。


k8s cronjob执行时区问题
· ☕ 1 分钟 · ✍️ starifly

使用k8s中的cronjob备份数据库发现一个问题,设置一个固定的时间点执行job,但是到了设定的时间后却没有执行。

经过查资料才得知,是k8s中时区的问题,所以需要修改/etc/kubernetes/manifests/kube-scheduler.yaml配置文件,增加相应的时区设置:


k8s中部署loki
· ☕ 3 分钟 · ✍️ starifly

Loki 架构

  • Loki:主服务,用于存储日志和处理查询。
  • Promtail:代理服务,用于采集日志,并转发给 Loki。
  • Grafana:通过 Web 界面来提供数据展示、查询、告警等功能。

安装 Loki

1)创建 RBAC 授权


画图
· ☕ 4 分钟 · ✍️ starifly
超好用的画图工具介绍

k8s部署EFK
· ☕ 1 分钟 · ✍️ starifly
本文介绍了如何在k8s中部署efk

ceph硬件布置参考
· ☕ 1 分钟 · ✍️ starifly

1、网络拓扑参考

2、设备位置图参考

3、服务器配置信息及运行服务统计

一般来说,内存越多越好。

对于一个中等规模的集群,监视/管理器节点可以使用64GB;对于具有数百个osd的大型集群,128GB是一个合理的目标。


ceph故障域
· ☕ 5 分钟 · ✍️ starifly

准备

1、执行ceph -s确认存储集群状态,保证为健康状态。

[root@ceph001 ~]# ceph -s
  cluster:
    id:     d00c744a-17f6-4768-95de-1243202557f2
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum ceph001,ceph002,ceph003 (age 41m)
    mgr: ceph001(active, since 43m), standbys: ceph003
    mds: cephfs:1 {0=ceoh002=up:active} 2 up:standby
    osd: 6 osds: 6 up (since 3m), 6 in (since 3m)
    rgw: 3 daemons active (ceph001, ceph002, ceph003)

  task status:

  data:
    pools:   10 pools, 96 pgs
    objects: 803 objects, 2.1 GiB
    usage:   13 GiB used, 62 GiB / 75 GiB avail
    pgs:     96 active+clean

2、执行ceph osd tree ,记录变更前的结构。以及存储池pool及其他信息。


ceph在不复制rgw的情况下配置多个区域
· ☕ 1 分钟 · ✍️ starifly

ceph 在同一个集群配置多个zone,但不同 zone 之间的 rgw 不复制,这种情形应该可以适应多租户环境,因为希望每个租户之间的数据是相互独立的,具体配置可以参考 https://access.redhat.com/documentation/en-us/red_hat_ceph_storage/3/html-single/object_gateway_guide_for_red_hat_enterprise_linux/index#configuring-multiple-zones-without-replication-rgw



点击屏幕右上角的 ···
在弹出的窗口中选择 在浏览器中打开