fix: 替换所有中文括号为英文括号

feat: 新增操作审计字段 user/action/target/result 到 syslog 输出
docs: 更新 README 输出格式和配置示例说明
This commit is contained in:
QClaw Bot
2026-05-13 13:33:45 +08:00
parent 46651fdc10
commit ebc1a2a87c
5 changed files with 104 additions and 70 deletions

View File

@@ -1,6 +1,6 @@
# db_log_exporter # db_log_exporter
从 MySQL / PostgreSQL 数据库表中**定时拉取日志**,写入标准 **syslog 格式**RFC 5424 变体文本文件。 从 MySQL / PostgreSQL 数据库表中**定时拉取日志**,写入标准 **syslog 格式**(RFC 5424 变体)文本文件。
--- ---
@@ -22,20 +22,24 @@
## 输出格式 ## 输出格式
每行一条日志,格式如下RFC 5424 变体 每行一条日志,格式如下(RFC 5424 变体)
``` ```
<priority>1 2026-05-12T15:30:00.123456+08:00 hostname app_name[12345]: [trace=abc123] [span=def456] 日志内容 <priority>1 2026-05-12T15:30:00.123456+08:00 hostname app_name[12345]: [user=张三] [action=删除订单] [target=订单系统] [result=成功] [trace=abc123] [span=def456] 日志内容
``` ```
| 字段 | 说明 | | 字段 | 说明 |
|------|------| |------|------|
| `<priority>` | syslog 优先级,`<6>`=INFO `<4>`=WARN `<3>`=ERROR 等 | | `<priority>` | syslog 优先级,`<6>`=INFO `<4>`=WARN `<3>`=ERROR 等 |
| `version` | RFC 5424 版本号,始终为 `1` | | `version` | RFC 5424 版本号,始终为 `1` |
| `timestamp` | ISO 8601 时间含微秒和时区 | | `timestamp` | ISO 8601 时间(含微秒和时区) |
| `hostname` | 配置文件中的 hostname默认系统 hostname | | `hostname` | 配置文件中的 hostname(默认系统 hostname) |
| `app_name[pid]` | 配置的 app_name + 本进程 PID | | `app_name[pid]` | 配置的 app_name + 本进程 PID |
| `[trace=...] [span=...]` | 结构化数据trace_id / span_id 等) | | `[user=...]` | 操作人用户名 |
| `[action=...]` | 操作动作,如:删除/创建/更新/登录等 |
| `[target=...]` | 操作对象,如:订单系统/用户管理/配置项等 |
| `[result=...]` | 操作结果,如:成功/失败/超时等 |
| `[trace=...] [span=...]` | 结构化数据(trace_id / span_id 等) |
| `message` | 日志正文 | | `message` | 日志正文 |
--- ---
@@ -70,7 +74,7 @@ sudo mkdir -p /etc/db_log_exporter
sudo nano /etc/db_log_exporter/config.yaml sudo nano /etc/db_log_exporter/config.yaml
``` ```
参考 `config.yaml.example`本仓库根目录,主要填: 参考 `config.yaml.example`(本仓库根目录),主要填:
```yaml ```yaml
databases: databases:
@@ -93,7 +97,7 @@ sources:
message: message message: message
``` ```
### 4. 测试连接Dry-run ### 4. 测试连接(Dry-run)
```bash ```bash
python3 /opt/db_log_exporter/db_log_exporter.py \ python3 /opt/db_log_exporter/db_log_exporter.py \
@@ -103,7 +107,7 @@ python3 /opt/db_log_exporter/db_log_exporter.py \
### 5. 运行方式 ### 5. 运行方式
**方式 Asystemd 守护进程推荐** **方式 Asystemd 守护进程(推荐)**
```bash ```bash
# 复制 service 文件 # 复制 service 文件
@@ -113,7 +117,7 @@ sudo systemctl enable --now db_log_exporter
sudo journalctl -u db_log_exporter -f # 实时查看日志 sudo journalctl -u db_log_exporter -f # 实时查看日志
``` ```
**方式 Bcron 定时任务单次模式** **方式 Bcron 定时任务(单次模式)**
```bash ```bash
# crontab -e # crontab -e
@@ -121,7 +125,7 @@ sudo journalctl -u db_log_exporter -f # 实时查看日志
-c /etc/db_log_exporter/config.yaml --once -c /etc/db_log_exporter/config.yaml --once
``` ```
**方式 C直接运行前台守护** **方式 C直接运行(前台守护)**
```bash ```bash
python3 /opt/db_log_exporter/db_log_exporter.py \ python3 /opt/db_log_exporter/db_log_exporter.py \
@@ -139,7 +143,7 @@ global:
output_dir: /var/log/db_exporter # 日志输出目录 output_dir: /var/log/db_exporter # 日志输出目录
checkpoint_dir: /var/lib/... # 断点文件目录 checkpoint_dir: /var/lib/... # 断点文件目录
hostname: myserver # syslog hostname hostname: myserver # syslog hostname
interval: 30 # 默认轮询间隔(秒) interval: 30 # 默认轮询间隔(秒)
batch_size: 1000 # 默认每次最多读条数 batch_size: 1000 # 默认每次最多读条数
databases: databases:
@@ -168,9 +172,14 @@ sources:
message: message message: message
trace_id: trace_id # 可选 trace_id: trace_id # 可选
span_id: span_id # 可选 span_id: span_id # 可选
# 操作审计字段
user: user # 操作人
action: action # 操作动作
target: target # 操作对象
result: result # 操作结果
``` ```
### 数据库用户权限最小权限 ### 数据库用户权限(最小权限)
**MySQL:** **MySQL:**
```sql ```sql
@@ -192,7 +201,7 @@ GRANT SELECT ON audit_log TO log_reader;
## 与日志采集系统集成 ## 与日志采集系统集成
### rsyslog服务器接收 ### rsyslog(服务器接收)
```conf ```conf
# /etc/rsyslog.d/60-db-exporter.conf # /etc/rsyslog.d/60-db-exporter.conf
@@ -204,7 +213,7 @@ input(type="imfile"
Facility="local0") Facility="local0")
``` ```
### Filebeat采集到 Elasticsearch ### Filebeat(采集到 Elasticsearch)
```yaml ```yaml
# filebeat.yml # filebeat.yml
@@ -217,7 +226,7 @@ filebeat.inputs:
fields_under_root: true fields_under_root: true
``` ```
### PromtailLoki 采集 ### Promtail(Loki 采集)
```yaml ```yaml
# promtail.yml # promtail.yml
@@ -240,7 +249,7 @@ scrape_configs:
| 连接被拒绝 | 确认数据库允许该 IP 连接,检查防火墙/安全组 | | 连接被拒绝 | 确认数据库允许该 IP 连接,检查防火墙/安全组 |
| 权限不足 | 确认运行用户对 `output_dir``checkpoint_dir` 有写权限 | | 权限不足 | 确认运行用户对 `output_dir``checkpoint_dir` 有写权限 |
| 日志重复 | 删除对应断点文件并重启,程序会从头拉取 | | 日志重复 | 删除对应断点文件并重启,程序会从头拉取 |
| 中文乱码 | 确认数据库字符集为 `utf8mb4`MySQL`UTF8`PG | | 中文乱码 | 确认数据库字符集为 `utf8mb4`(MySQL)`UTF8`(PG) |
| 连接超时 | 在 `databases` 中加 `connect_timeout: 10` | | 连接超时 | 在 `databases` 中加 `connect_timeout: 10` |
--- ---
@@ -249,7 +258,7 @@ scrape_configs:
``` ```
db_log_exporter/ db_log_exporter/
├── db_log_exporter.py # 主程序Python 守护进程 ├── db_log_exporter.py # 主程序(Python 守护进程)
├── config.yaml.example # 配置文件示例 ├── config.yaml.example # 配置文件示例
├── requirements.txt # Python 依赖 ├── requirements.txt # Python 依赖
├── db_log_exporter.service # systemd 服务文件 ├── db_log_exporter.service # systemd 服务文件
@@ -262,11 +271,11 @@ db_log_exporter/
## 命令行参数 ## 命令行参数
``` ```
-c, --config YAML 配置文件路径必填 -c, --config YAML 配置文件路径(必填)
--once 仅执行一次轮询后退出适合 cron --once 仅执行一次轮询后退出(适合 cron)
--dry-run 仅测试数据库连接,不写文件 --dry-run 仅测试数据库连接,不写文件
--log-level 日志级别: DEBUG|INFO|WARNING|ERROR默认 INFO --log-level 日志级别: DEBUG|INFO|WARNING|ERROR(默认 INFO)
--log-file 本程序日志输出文件默认 stdout --log-file 本程序日志输出文件(默认 stdout)
``` ```
--- ---

View File

@@ -13,18 +13,18 @@
# 全局配置 # 全局配置
# --------------------------------------------------------------------------- # ---------------------------------------------------------------------------
global: global:
# 日志输出目录需有写入权限 # 日志输出目录(需有写入权限)
output_dir: /var/log/db_exporter output_dir: /var/log/db_exporter
# 断点存放目录需有写入权限 # 断点存放目录(需有写入权限)
# 每次拉取后保存最后一条记录的 ID实现断点续传 # 每次拉取后保存最后一条记录的 ID实现断点续传
checkpoint_dir: /var/lib/db_exporter/checkpoints checkpoint_dir: /var/lib/db_exporter/checkpoints
# 本程序写入日志时使用的 hostname出现在 syslog 行中 # 本程序写入日志时使用的 hostname(出现在 syslog 行中)
# 不填则自动取系统 hostname # 不填则自动取系统 hostname
hostname: "" hostname: ""
# 全局默认轮询间隔(秒),单个 source 可单独覆盖 # 全局默认轮询间隔(秒),单个 source 可单独覆盖
interval: 30 interval: 30
# 全局默认每次最多读取条数,单个 source 可单独覆盖 # 全局默认每次最多读取条数,单个 source 可单独覆盖
@@ -56,7 +56,7 @@ databases:
# --------------------------------------------------------------------------- # ---------------------------------------------------------------------------
# 日志源定义每个 source = 一个数据库表 # 日志源定义(每个 source = 一个数据库表)
# --------------------------------------------------------------------------- # ---------------------------------------------------------------------------
sources: sources:
@@ -68,24 +68,29 @@ sources:
database: mysql_prod database: mysql_prod
# 要查询的表名 # 要查询的表名
table: access_log table: access_log
# 输出到 output_dir 中的文件名支持子目录,如 "subdir/app.log" # 输出到 output_dir 中的文件名(支持子目录,如 "subdir/app.log")
log_file: mysql_access.log log_file: mysql_access.log
# 此数据源的 app_name出现在 syslog 行 <app_name>[<pid>] # 此数据源的 app_name(出现在 syslog 行 <app_name>[<pid>])
app_name: access-log app_name: access-log
# 此数据源的轮询间隔(秒),覆盖全局配置 # 此数据源的轮询间隔(秒),覆盖全局配置
interval: 15 interval: 15
# 每次最多读取条数,覆盖全局配置 # 每次最多读取条数,覆盖全局配置
batch_size: 500 batch_size: 500
# 列名映射当数据库列名与默认值不同时使用 # 列名映射(当数据库列名与默认值不同时使用)
columns: columns:
id: id # 主键/自增列必填,用于断点跟踪 id: id # 主键/自增列(必填,用于断点跟踪)
timestamp: created_at # 时间戳列必填 timestamp: created_at # 时间戳列(必填)
level: log_level # 日志级别列必填,值如 INFO/ERROR/WARN level: log_level # 日志级别列(必填,值如 INFO/ERROR/WARN)
message: msg # 日志内容列必填 message: msg # 日志内容列(必填)
# 以下为可选扩展字段,可在 syslog structured data 中体现 # 以下为可选扩展字段,可在 syslog structured data 中体现
trace_id: trace_id trace_id: trace_id
span_id: span_id span_id: span_id
extra: extra_data extra: extra_data
# 操作审计字段
user: user
action: action
target: target
result: result
# ------------------------------- # -------------------------------
# MySQL 日志表 — 错误日志 # MySQL 日志表 — 错误日志

View File

@@ -4,9 +4,9 @@
db_log_exporter — 数据库日志导出守护进程 db_log_exporter — 数据库日志导出守护进程
从 MySQL / PostgreSQL 数据库表中定时提取日志,写入标准 syslog 格式文本文件。 从 MySQL / PostgreSQL 数据库表中定时提取日志,写入标准 syslog 格式文本文件。
支持每个数据源独立跟踪偏移量断点续传,线程安全,无重复日志。 支持每个数据源独立跟踪偏移量(断点续传),线程安全,无重复日志。
标准输出格式RFC 5424 变体,每行一条 标准输出格式(RFC 5424 变体,每行一条)
<Jan 1 12:00:00> <hostname> <app_name>[<pid>]: <priority><version> <timestamp_iso> <hostname> <app_name> <pid> <msg_id> <structured_data> <message> <Jan 1 12:00:00> <hostname> <app_name>[<pid>]: <priority><version> <timestamp_iso> <hostname> <app_name> <pid> <msg_id> <structured_data> <message>
作者QClaw 作者QClaw
@@ -68,7 +68,7 @@ SYSLOG_PRIORITY = {
"FATAL": "<2>", "FATAL": "<2>",
} }
# 默认字段映射当配置中未指定时使用 # 默认字段映射(当配置中未指定时使用)
DEFAULT_COLUMN_MAP = { DEFAULT_COLUMN_MAP = {
"id": "id", "id": "id",
"timestamp": "created_at", "timestamp": "created_at",
@@ -80,9 +80,14 @@ DEFAULT_COLUMN_MAP = {
"trace_id": "trace_id", "trace_id": "trace_id",
"span_id": "span_id", "span_id": "span_id",
"extra": "extra", "extra": "extra",
# operation audit fields
"user": "user",
"action": "action",
"target": "target",
"result": "result",
} }
DEFAULT_INTERVAL = 30 # 默认轮询间隔(秒) DEFAULT_INTERVAL = 30 # 默认轮询间隔(秒)
DEFAULT_BATCH = 1000 # 默认每次最多读取条数 DEFAULT_BATCH = 1000 # 默认每次最多读取条数
DEFAULT_HOSTNAME = socket.gethostname() DEFAULT_HOSTNAME = socket.gethostname()
@@ -104,7 +109,7 @@ def setup_logging(level: str = "INFO", log_file: Optional[str] = None) -> loggin
ch.setFormatter(logging.Formatter(fmt, datefmt)) ch.setFormatter(logging.Formatter(fmt, datefmt))
logger.addHandler(ch) logger.addHandler(ch)
# 文件可选 # 文件(可选)
if log_file: if log_file:
fh = logging.FileHandler(log_file, encoding="utf-8") fh = logging.FileHandler(log_file, encoding="utf-8")
fh.setFormatter(logging.Formatter(fmt, datefmt)) fh.setFormatter(logging.Formatter(fmt, datefmt))
@@ -134,22 +139,29 @@ def format_syslog_line(
trace_id: str = "", trace_id: str = "",
span_id: str = "", span_id: str = "",
extra: str = "", extra: str = "",
user: str = "",
action: str = "",
target: str = "",
result: str = "",
) -> str: ) -> str:
""" """
格式化为 RFC 5424 变体 syslog 行。 格式化为 RFC 5424 变体 syslog 行。
格式: 格式:
<priority>version timestamp hostname appname pid msgid structured_data message <priority>version timestamp hostname appname pid msgid structured_data message
示例完整一行 示例(完整一行)
<6>1 2026-01-01T12:00:00.123456+08:00 myhost myapp[12345]: [trace=abc] message text <6>1 2026-01-01T12:00:00.123456+08:00 myhost myapp[12345]: [user=张三] [action=删除订单] [target=订单系统] [result=成功] message text
""" """
pri = get_syslog_priority(level) pri = get_syslog_priority(level)
# 去掉 level 字符串两端方括号(如果有)
clean_msg = message.strip() clean_msg = message.strip()
parts = [f"[{k}={v}]" for k, v in [ parts = [f"[{k}={v}]" for k, v in [
("trace", trace_id), ("trace", trace_id),
("span", span_id), ("span", span_id),
("extra", extra), ("extra", extra),
("user", user),
("action", action),
("target", target),
("result", result),
] if v] ] if v]
structured = " ".join(parts) structured = " ".join(parts)
if structured: if structured:
@@ -167,14 +179,14 @@ def acquire_lock_file(lock_path: str) -> int:
fcntl.flock(fd, fcntl.LOCK_EX | fcntl.LOCK_NB) fcntl.flock(fd, fcntl.LOCK_EX | fcntl.LOCK_NB)
except BlockingIOError: except BlockingIOError:
os.close(fd) os.close(fd)
raise RuntimeError(f"另一个 {APP_NAME} 实例已在运行锁文件:{lock_path},请先停止。") raise RuntimeError(f"另一个 {APP_NAME} 实例已在运行(锁文件:{lock_path}),请先停止。")
return fd return fd
def load_checkpoint(checkpoint_dir: str, source_name: str) -> Optional[Any]: def load_checkpoint(checkpoint_dir: str, source_name: str) -> Optional[Any]:
""" """
加载断点文件,返回 last_id可以是 int、datetime 或任意可序列化值 加载断点文件,返回 last_id(可以是 int、datetime 或任意可序列化值)
若文件不存在,返回 None从头开始拉取 若文件不存在,返回 None(从头开始拉取)
""" """
path = Path(checkpoint_dir) / f"{source_name}.json" path = Path(checkpoint_dir) / f"{source_name}.json"
if not path.exists(): if not path.exists():
@@ -229,7 +241,7 @@ def build_mysql_query(cfg: Dict[str, Any], col_map: Dict[str, str],
ts_col = col_map["timestamp"] ts_col = col_map["timestamp"]
lvl_col = col_map["level"] lvl_col = col_map["level"]
msg_col = col_map["message"] msg_col = col_map["message"]
# 构造 SELECT 列处理别名 # 构造 SELECT 列(处理别名)
extra_cols = [] extra_cols = []
for alias, db_col in col_map.items(): for alias, db_col in col_map.items():
if alias not in ("id", "timestamp", "level", "message") and db_col: if alias not in ("id", "timestamp", "level", "message") and db_col:
@@ -262,7 +274,7 @@ def build_mysql_query(cfg: Dict[str, Any], col_map: Dict[str, str],
def build_pg_query(cfg: Dict[str, Any], col_map: Dict[str, str], def build_pg_query(cfg: Dict[str, Any], col_map: Dict[str, str],
last_id: Optional[int], batch: int) -> Tuple[str, Tuple]: last_id: Optional[int], batch: int) -> Tuple[str, Tuple]:
"""构建 PostgreSQL 查询语句语法与 MySQL 基本兼容,%s 替换""" """构建 PostgreSQL 查询语句(语法与 MySQL 基本兼容,%s 替换)"""
return build_mysql_query(cfg, col_map, last_id, batch) # 参数风格相同 return build_mysql_query(cfg, col_map, last_id, batch) # 参数风格相同
@@ -366,7 +378,7 @@ class LogSource:
self.app_name = table_config.get("app_name", name) self.app_name = table_config.get("app_name", name)
self.pid_str = str(os.getpid()) self.pid_str = str(os.getpid())
self.col_map = merge_column_map(table_config.get("columns")) self.col_map = merge_column_map(table_config.get("columns"))
self.filter_query = table_config.get("filter", "") # WHERE 子句不含 WHERE self.filter_query = table_config.get("filter", "") # WHERE 子句(不含 WHERE)
self.log_file_pattern = table_config.get("log_file", f"{name}.log") self.log_file_pattern = table_config.get("log_file", f"{name}.log")
self._last_id: Optional[Any] = None self._last_id: Optional[Any] = None
@@ -420,7 +432,7 @@ class LogSource:
# 有新日志,短暂 sleep 避免空转 # 有新日志,短暂 sleep 避免空转
self._stop_evt.wait(min(self.interval, 2.0)) self._stop_evt.wait(min(self.interval, 2.0))
except DatabaseError as e: except DatabaseError as e:
logger.error("[%s] 数据库错误%s%ds 后重试: %s", self.name, self.db_type, self.interval, e) logger.error("[%s] 数据库错误(%s)%ds 后重试: %s", self.name, self.db_type, self.interval, e)
self._stop_evt.wait(self.interval) self._stop_evt.wait(self.interval)
except Exception as e: except Exception as e:
logger.exception("[%s] 未知异常,%ds 后重试: %s", self.name, self.interval, e) logger.exception("[%s] 未知异常,%ds 后重试: %s", self.name, self.interval, e)
@@ -450,7 +462,7 @@ class LogSource:
elif self.db_type == "postgresql" or self.db_type == "postgres": elif self.db_type == "postgresql" or self.db_type == "postgres":
return get_rows_pg(self.db_config, self.col_map, self._last_id, self.batch_size) return get_rows_pg(self.db_config, self.col_map, self._last_id, self.batch_size)
else: else:
raise ValueError(f"不支持的数据库类型: {self.db_type}仅支持 mysql/postgresql") raise ValueError(f"不支持的数据库类型: {self.db_type}(仅支持 mysql/postgresql)")
def _write_rows(self, rows: List[Dict]) -> None: def _write_rows(self, rows: List[Dict]) -> None:
"""将行数据写入日志文件""" """将行数据写入日志文件"""
@@ -483,6 +495,10 @@ class LogSource:
tid_val = str(row.get(self.col_map.get("trace_id", "")) or "") tid_val = str(row.get(self.col_map.get("trace_id", "")) or "")
sid_val = str(row.get(self.col_map.get("span_id", "")) or "") sid_val = str(row.get(self.col_map.get("span_id", "")) or "")
ext_val = str(row.get(self.col_map.get("extra", "")) or "") ext_val = str(row.get(self.col_map.get("extra", "")) or "")
usr_val = str(row.get(self.col_map.get("user", "") or "") or "")
act_val = str(row.get(self.col_map.get("action", "") or "") or "")
tgt_val = str(row.get(self.col_map.get("target", "") or "") or "")
res_val = str(row.get(self.col_map.get("result", "") or "") or "")
# 处理时间戳格式 # 处理时间戳格式
timestamp = self._format_timestamp(ts_val) timestamp = self._format_timestamp(ts_val)
@@ -497,11 +513,15 @@ class LogSource:
trace_id = tid_val, trace_id = tid_val,
span_id = sid_val, span_id = sid_val,
extra = ext_val, extra = ext_val,
user = usr_val,
action = act_val,
target = tgt_val,
result = res_val,
) )
def _format_timestamp(self, val: Any) -> str: def _format_timestamp(self, val: Any) -> str:
""" """
将任意时间格式转为 ISO 8601 格式带时区 将任意时间格式转为 ISO 8601 格式(带时区)
支持: datetime / date / 字符串 / unix timestamp(float/int) / None 支持: datetime / date / 字符串 / unix timestamp(float/int) / None
""" """
if val is None: if val is None:
@@ -580,7 +600,7 @@ def create_parser() -> argparse.ArgumentParser:
epilog=""" epilog="""
示例: 示例:
%(prog)s -c /etc/db_log_exporter/config.yaml %(prog)s -c /etc/db_log_exporter/config.yaml
%(prog)s -c config.yaml --once # 运行一次不守护并退出 %(prog)s -c config.yaml --once # 运行一次(不守护)并退出
%(prog)s -c config.yaml --dry-run # 仅连接测试,不写入文件 %(prog)s -c config.yaml --dry-run # 仅连接测试,不写入文件
%(prog)s -c config.yaml --log-level DEBUG %(prog)s -c config.yaml --log-level DEBUG
""", """,
@@ -588,14 +608,14 @@ def create_parser() -> argparse.ArgumentParser:
parser.add_argument("-c", "--config", required=True, parser.add_argument("-c", "--config", required=True,
help="YAML 配置文件路径") help="YAML 配置文件路径")
parser.add_argument("--once", action="store_true", parser.add_argument("--once", action="store_true",
help="仅执行一次轮询后退出不守护") help="仅执行一次轮询后退出(不守护)")
parser.add_argument("--dry-run", action="store_true", parser.add_argument("--dry-run", action="store_true",
help="仅测试数据库连接,不写入日志文件") help="仅测试数据库连接,不写入日志文件")
parser.add_argument("--log-level", default="INFO", parser.add_argument("--log-level", default="INFO",
choices=["DEBUG", "INFO", "WARNING", "ERROR"], choices=["DEBUG", "INFO", "WARNING", "ERROR"],
help="本程序的日志级别默认 INFO") help="本程序的日志级别(默认 INFO)")
parser.add_argument("--log-file", parser.add_argument("--log-file",
help="本程序的日志输出文件默认仅输出到 stdout") help="本程序的日志输出文件(默认仅输出到 stdout)")
return parser return parser
@@ -628,7 +648,7 @@ def main() -> int:
logger.warning("配置中没有发现任何数据源,请检查配置文件。") logger.warning("配置中没有发现任何数据源,请检查配置文件。")
return 0 return 0
# 确保必要目录存在如果以 root 运行时 # 确保必要目录存在(如果以 root 运行时)
for d in [config.get("global", {}).get("output_dir", "/var/log/db_exporter"), for d in [config.get("global", {}).get("output_dir", "/var/log/db_exporter"),
config.get("global", {}).get("checkpoint_dir", "/var/lib/db_exporter/checkpoints")]: config.get("global", {}).get("checkpoint_dir", "/var/lib/db_exporter/checkpoints")]:
try: try:
@@ -643,20 +663,20 @@ def main() -> int:
for src in sources: for src in sources:
try: try:
rows, _ = src._fetch() rows, _ = src._fetch()
logger.info("[%s] ✅ 连接成功,当前有新日志 %d未写入", src.name, len(rows)) logger.info("[%s] ✅ 连接成功,当前有新日志 %d(未写入)", src.name, len(rows))
except Exception as e: except Exception as e:
logger.error("[%s] ❌ 连接失败: %s", src.name, e) logger.error("[%s] ❌ 连接失败: %s", src.name, e)
ok = False ok = False
return 0 if ok else 1 return 0 if ok else 1
# 获取锁文件防止重复启动 # 获取锁文件(防止重复启动)
lock_file = f"/var/run/{APP_NAME}/{APP_NAME}.lock" lock_file = f"/var/run/{APP_NAME}/{APP_NAME}.lock"
lock_fd = None lock_fd = None
try: try:
Path(lock_file).parent.mkdir(parents=True, exist_ok=True) Path(lock_file).parent.mkdir(parents=True, exist_ok=True)
lock_fd = acquire_lock_file(lock_file) lock_fd = acquire_lock_file(lock_file)
except PermissionError: except PermissionError:
logger.warning("无权限创建锁文件 %s,跳过锁定检测可能重复启动", lock_file) logger.warning("无权限创建锁文件 %s,跳过锁定检测(可能重复启动)", lock_file)
except RuntimeError as e: except RuntimeError as e:
logger.error("%s", e) logger.error("%s", e)
return 1 return 1
@@ -689,7 +709,7 @@ def main() -> int:
src.stop(timeout=5.0) src.stop(timeout=5.0)
logger.info("=== 单次轮询完成,退出 ===") logger.info("=== 单次轮询完成,退出 ===")
else: else:
# 守护进程主循环防止主线程退出 # 守护进程主循环(防止主线程退出)
while True: while True:
time.sleep(3600) time.sleep(3600)

View File

@@ -5,7 +5,7 @@ After=network.target mysql.service postgresql.service
Wants=mysql.service postgresql.service Wants=mysql.service postgresql.service
[Service] [Service]
# 以专门的用户/组运行推荐先创建示例useradd -r -s /sbin/nologin db_exporter # 以专门的用户/组运行(推荐先创建示例useradd -r -s /sbin/nologin db_exporter)
User=root User=root
Group=root Group=root
@@ -26,10 +26,10 @@ ProtectSystem=strict
ProtectHome=true ProtectHome=true
ReadWritePaths=/var/log/db_exporter /var/lib/db_exporter ReadWritePaths=/var/log/db_exporter /var/lib/db_exporter
# 环境变量可选,敏感信息可用 systemd secret 或环境文件 # 环境变量(可选,敏感信息可用 systemd secret 或环境文件)
# EnvironmentFile=/etc/db_log_exporter/env # EnvironmentFile=/etc/db_log_exporter/env
# 日志输出systemd journal # 日志输出(systemd journal)
StandardOutput=journal StandardOutput=journal
StandardError=journal StandardError=journal
SyslogIdentifier=db_log_exporter SyslogIdentifier=db_log_exporter

View File

@@ -52,11 +52,11 @@ check_deps() {
error "缺少依赖: ${missing[*]} \n请先安装: pip3 install PyMySQL psycopg2-binary PyYAML" error "缺少依赖: ${missing[*]} \n请先安装: pip3 install PyMySQL psycopg2-binary PyYAML"
fi fi
# 检查 MySQL / PostgreSQL 客户端仅检查命令是否存在,不强制要求服务运行 # 检查 MySQL / PostgreSQL 客户端(仅检查命令是否存在,不强制要求服务运行)
if command -v mysql &>/dev/null || command -v psql &>/dev/null; then if command -v mysql &>/dev/null || command -v psql &>/dev/null; then
info "数据库客户端已找到" info "数据库客户端已找到"
else else
warn "未找到 mysql/psql 客户端程序使用 Python DB 驱动,不影响运行" warn "未找到 mysql/psql 客户端(程序使用 Python DB 驱动,不影响运行)"
fi fi
info "依赖检查通过 ✓" info "依赖检查通过 ✓"
@@ -85,7 +85,7 @@ do_install() {
info "文件已复制到 ${INSTALL_DIR}${CONFIG_DIR}" info "文件已复制到 ${INSTALL_DIR}${CONFIG_DIR}"
# 3. 创建 config.yaml如果不存在 # 3. 创建 config.yaml(如果不存在)
if [ ! -f "${CONFIG_DIR}/config.yaml" ]; then if [ ! -f "${CONFIG_DIR}/config.yaml" ]; then
if [ -f "${CONFIG_DIR}/config.yaml.example" ]; then if [ -f "${CONFIG_DIR}/config.yaml.example" ]; then
cp "${CONFIG_DIR}/config.yaml.example" "${CONFIG_DIR}/config.yaml" cp "${CONFIG_DIR}/config.yaml.example" "${CONFIG_DIR}/config.yaml"
@@ -126,7 +126,7 @@ do_uninstall() {
rm -f "/etc/systemd/system/${SYSTEMD_UNIT}" rm -f "/etc/systemd/system/${SYSTEMD_UNIT}"
systemctl daemon-reload systemctl daemon-reload
info "删除安装目录确认不再需要..." info "删除安装目录(确认不再需要)..."
read -rp "是否删除 ${INSTALL_DIR}${CONFIG_DIR}[y/N]: " confirm read -rp "是否删除 ${INSTALL_DIR}${CONFIG_DIR}[y/N]: " confirm
if [[ "$confirm" =~ ^[Yy]$ ]]; then if [[ "$confirm" =~ ^[Yy]$ ]]; then
rm -rf "${INSTALL_DIR}" "${CONFIG_DIR}" "${LOG_DIR}" "${DATA_DIR}" "${RUN_DIR}" rm -rf "${INSTALL_DIR}" "${CONFIG_DIR}" "${LOG_DIR}" "${DATA_DIR}" "${RUN_DIR}"
@@ -144,7 +144,7 @@ do_status() {
info "服务状态: 运行中 ✓" info "服务状态: 运行中 ✓"
systemctl status "${APP_NAME}" --no-pager systemctl status "${APP_NAME}" --no-pager
elif systemctl is-enabled --quiet "${APP_NAME}"; then elif systemctl is-enabled --quiet "${APP_NAME}"; then
warn "服务状态: 未运行已开机自启" warn "服务状态: 未运行(已开机自启)"
else else
warn "服务状态: 未安装或未启用" warn "服务状态: 未安装或未启用"
fi fi
@@ -171,5 +171,5 @@ case "$ACTION" in
install) do_install "$@" ;; install) do_install "$@" ;;
uninstall) do_uninstall "$@" ;; uninstall) do_uninstall "$@" ;;
status) do_status "$@" ;; status) do_status "$@" ;;
*) error "未知操作: $ACTION支持: install | uninstall | status" ;; *) error "未知操作: $ACTION(支持: install | uninstall | status)" ;;
esac esac