从零开始搭建一个前端日志框架 - 掘金

前言

原谅我起了一个这么大的标题,当了一回标题党😛

之前一直做B端系统,针对线上错误引入了 sentry 来收集错误日志,一开始还能盯着告警邮件,后面告警越来越多就选择性忽视了🤪,大伙可千万别学我,我忽视的可都是不影响业务和流程的报错(嗨,还在找借口🤣),让我想起来每次说我爸骑车闯红灯,他都会说是在不影响安全的情况下闯的,有那么点异曲同工之妙了。

入职新公司后顺理成章也接入了 sentry,满心期待着能发挥他的作用,果然不多久产品就反馈说线上出问题了,说是屏幕上不显示立定跳远成绩,对了新公司是做AI智慧体育的,出现的问题是在立定跳远项目上。出现问题后第一时间肯定是自测一遍,咦没问题啊,再测还是没问题,那没辙只能从代码上看看。因为学生跳完后不知道什么时候出成绩,所以和后端约定了通过 WebSocket 发送成绩消息给前端,那既然这样前端不显示成绩肯定是后端没发送对应的 WebSocket 消息了,可是证据呢,对啊从哪找证据呢!

接下来的几个月又出现了各种奇葩的问题,无一例外这些在 sentry 里都看不到错误日志,因为本身代码没有报错,只是流程上出了问题。忍无可忍,无需再忍,看来开发一套前端自己的日志系统迫在眉睫了。

为什么要大费周章自己开发呢,网上前端日志系统不是一抓一大把吗,很遗憾都是处理异常的,而我们需要记录所有 WebSocket 消息,所有前端 log,所有 http 请求,还有一些特殊的要求,综上只能自己来了。

一个合格的日志系统必须有的几个功能。

  1. console 劫持
  2. 前端离线存储
  3. http 请求劫持
  4. 错误日志劫持
  5. 上传日志
  6. 服务器查看日志

console 劫持

因为产品的特殊性,需要记录程序运行过程中所有日志打印,方便线上出问题排查,所以第一步就要劫持所有 console 打印,并在最前面加上时间戳方便和后端配合定位问题,最简单的方案就是重写 console.log

js

复制代码

``rewritetConsole() {
const consoleLog = console.log
console.log = (...args: any[]) => {
const now = dayjs().format('YYYY-MM-DD HH:mm:ss:SSS')
consoleLog.apply(console, [${now} [info], ...args])
}
}``

image.png

console.errorconsole.warn 怎么办,是不是每个都要劫持原生方法,况且 console 下面有25个方法,挨个写不得累死,那换个姿势重写,遍历 console 下所有方法。

js

复制代码

``rewritetConsole() {
Object.keys(console).forEach(key => {
const rewrite = console[key]
console[key] = (...args: any[]) => {
const now = dayjs().format('YYYY-MM-DD HH:mm:ss:SSS')
rewrite.apply(console, [${now} [${key}], ...args])
}
})
}``

但是我不建议这么操作,因为 console.timeconsole.count 等方法接收的传参不能多个,会导致功能不生效,最好的办法是提前定义好需要劫持的方法,这样自由度最高。

js

复制代码

``rewritetConsole() {
const rewriteFunctions = ['log', 'warn', 'error']
rewriteFunctions.forEach((key) => {
const rewrite = console[key]
console[key] = (...args: any[]) => {
const now = dayjs().format('YYYY-MM-DD HH:mm:ss:SSS')
rewrite.apply(console, [${now} [${key}], ...args])
}
})
}``

前端离线存储

虽然已经劫持了 console 日志,但是日志并没有上传到服务器,考虑到性能和网络掉线等情况,不可能每打印一条日志就上传一条,所以需要先把日志临时存储起来。

前端常见的存储方案有 localStoragecookieindexDB,不过 localStoragecookie 存储上限都太小了,有时候打印一个base64图片可能就超过4Mb了,所以最终敲定方案为 indexDB,内容是存储在硬盘的,每个浏览器策略还不一样,火狐 FireFox 全局限制为可用磁盘空间的 50%,chrome 没有找到文档说明但也不用顾虑超过存储上限的。至于 兼容性 现代浏览器就更不用担心了。

indexDB 原生操作起来还是有点繁琐的,所以找了一个库 dexie 来协助操作,而且 dexie 的用法和之前写 Sequelize 有点像,上手起来也快。

首先创建一个数据库 logger,新建一个 logs 表记录所有日志内容,策略是每隔几秒上传一次最近的日志,不过有个问题如果网络异常或者服务器异常导致日志上传失败,那么下一次上传时还要继续上传未上传的日志,所以得有一个字段 hasUploadMessageId 记录已经上传过的日志 id,上传成功后修改该字段为最后一条日志 id。另外还需要一个字段 latestMessageId 记录最新日志 id,不然每次从 logs 表计算性能损耗太大了,后续上传日志到服务器时取 hasUploadMessageIdlatestMessageId 之间的日志。

js

复制代码

`import Dexie from 'dexie'
import type { Table } from 'dexie'
class IndexDB extends Dexie {
/* 日志内容表 /
logs!: Table<{
/* 自增id /
id?: number
/* 日志内容 /
message: string
}>

/* 标志字段表 /
flag!: Table<{
/* 自增id /
id?: number
/* 最新日志id /
latestMessageId: number
/* 已经上传成功的日志id /
hasUploadMessageId: number
}>

/* 初始化 /
constructor() {
super('logger')
this.version(1).stores({
logs: '++id, message',
flag: '++id, latestMessageId, hasUploadMessageId'
})
}
}`

接下来写一个通用方法把日志写入到 indexDB 中,这样就完成了日志离线存储。

js

复制代码

`/**

  • 日志写入到 indexDB 中

*/
async insertLog(...args: any[]) {
const messages: string[] = []
args.forEach((arg) => {
if (typeof arg === 'string') {
messages.push(arg)
} else {
// 非字符串需要通过 JSON.stringify 转义成字符串
try {
messages.push(JSON.stringify(arg))
} catch {}
}
})
// 拼接后的日志内容
const message = messages.join(' ').trim()
// 日志为空或者超过最大长度不记录
if (message.length === 0 || message.length > this.config.maxLength) {
return
}
try {
// 插入日志
const id = await db.logs.add({
message
})
// 更新
db.flag
.update(1, {
latestMessageId: id
})
.then((updated) => {
if (updated) {
this.latestMessageId = id as number
}
})
} catch (error) {}
}`

测试下效果,可以看到 indexDB 中已经有了日志

image.png

因为还没有上传到服务器,所以 hasUploadMessageId 为 0

image.png

http 请求劫持

在排查线上问题的时候由于不知道出错那一刻 http 请求返回内容而没头绪,所以需要劫持 http 请求,目前 http 请求有两种 xhrfetch,分两种情况劫持。

xhr 劫持 的原理就是重写 XMLHttpRequest.prototype 原型链上的 open 方法,获取请求方法和请求地址,然后监听 readystatechange 事件获取响应内容,最后把这些一起写入到 indexDB 中。

js

复制代码

``/**

  • 劫持 xhr 请求

*/
interceptXHR() {
const insertLog = this.insertLog.bind(this)
// 重写 xhr.open 方法,open 方法接收两个参数,第一个为请求方法,第二个为请求地址
const xhrOpen = XMLHttpRequest.prototype.open
XMLHttpRequest.prototype.open = function (...args: any) {
const method = args[0]
const url = args[1]
const now = dayjs().format('YYYY-MM-DD HH:mm:ss:SSS')
// 调用原生方法
xhrOpen.apply(this, args)
// 监听 readystatechange 事件
this.addEventListener('readystatechange', () => {
if (this.readyState === XMLHttpRequest.prototype.DONE) {
// 20 开头的状态码都是成功的,比如201、204
if (String(this.status).startsWith('20')) {
// 正常 http 请求不需要打印到控制台,在 network 里可以看到完整信息,
// 只需要记录到 indexDB 并上传服务器即可,所以不能使用 console.log
insertLog(
${now} [http ok] method: ${method}, url: ${url}, status: ${this.status}, response: ${this.response}
)
} else {
// http 请求异常
insertLog(
${now} [http error] method: ${method}, url: ${url}, status: ${this.status}, response: ${this.response}
)
}
}
})
}
}``

fetch 劫持 原理和 xhr 一样,也是重写原生方法,不过 fetch 能获取到请求参数和 headers 等。xhr 劫持因为请求参数是在 xhr.send 时携带的,在 xhr.open 中获取不到,所以在监听回调事件的时候无法获取请求参数,除非不用原生 xhr 请求自己封装一个。

js

复制代码

``/**

  • 劫持 fetch 请求

*/
interceptFetch() {
const insertLog = this.insertLog.bind(this)
const originalFetch = window.fetch
window.fetch = async (...args) => {
let [url, config] = args
// 请求开始时间
const start = dayjs().format('YYYY-MM-DD HH:mm:ss:SSS')
const response = await originalFetch(url, config)
// 响应内容
let responseText = ''
try {
responseText = await response.clone().json()
} catch (error) {
responseText = ''
}
// 响应时间
const now = dayjs().format('YYYY-MM-DD HH:mm:ss:SSS')
// 20 开头的状态码都是成功的,比如201、204
if (String(response.status).startsWith('20')) {
insertLog(
`${now} [http ok] method: ${
config?.method || 'get'
}, url: ${url}, status: ${response.status}, requestBody: ${
config?.body
}, requestTime: ${start}, response: `,
responseText
)
} else {
insertLog(
`${now} [http error] method: ${
config?.method || 'get'
}, url: ${url}, status: ${response.status}, requestBody: ${
config?.body
}, requestTime: ${start}, response: `,
responseText
)
}
return response
}
}``

至此 http 劫持已经实现了,在日志中可以看到请求方法,请求地址,请求时间,请求体和返回内容

image.png

系统接入了友盟统计,每次点击页面的时候都会自动发送一个请求到友盟服务器,这个请求其实我们是不关心他有没有发送成功的,也不需要记录日志,所以需要把他过滤掉,定义一个参数 filterHttpUrls,如果请求地址包含这个就不记录日志。

可选配置项 config

js

复制代码

`type ConfigType = {
/* 单条日志最大长度,超过不写入 indexDB 也不上报后台 /
maxLength?: number
/* 过滤掉的 http 请求地址,这些地址不记录到日志里 /
filterHttpUrls: string[]
}
// 默认配置
const defaultConfig: Required<ConfigType> = {
maxLength: 10000,
filterHttpUrls: []
}
export default class Logger {
/* 配置 /
config!: Required<ConfigType>
constructor(config?: ConfigType) {
this.config = Object.assign(config || {}, defaultConfig)
}
}`

过滤不需要记录日志的 url

js

复制代码

`// 请求地址过滤
if (config.filterHttpUrls.filter((item) => url.indexOf(item) !== -1).length === 0) {
return
}`

错误日志劫持

window.onerror MDN的解释为:当资源加载失败或无法使用时,会在Window对象触发error事件,例如:script 执行时报错。

不过 window.onerror 无法捕获 promise 异常,需要监听 window.onunhandledrejection 事件,MDN解释为:当 Promise 被 reject 且没有 reject 处理器的时候,会触发 unhandledrejection 事件;这可能发生在 window 下,但也可能发生在 Worker 中。这对于调试和为意外情况提供后备错误处理非常有用。

js

复制代码

``/**

  • 监听错误

*/
interceptError() {
// 监听全局错误
window.onerror = (message, source, _lineno, _colno, error) => {
console.error(${message}, ${error}, ${source})
}
// 监听未处理的 promise 错误,不能打印 event.reason,JSON.stringify 后为空对象 {}
window.onunhandledrejection = (event) => {
// 这里如果打印 event.reason 在控制台是可以看到报错的,但是 JSON.stringify 却为空
// 必须打印 event.reason.stack
console.error(event.reason.stack)
}
}``

上传日志

日志都已经记录下来了,接下来就是要上传日志到服务器了,我的策略是每隔一段时间上传几十条,上传间隔和数量用户都可以自定义。

为了方便在服务器上查看日志,我们规定每台设备生成一个日志文件,文件名字为该设备的唯一设备ID,初始用 uuid 生成,后续存储到 localStorage 中,保证后续设备ID不会变化。当然用户也可以自定义设备ID。

js

复制代码

`type ConfigType = {
/* 日志服务器地址 /
uploadUrl?: string
/* 日志上传间隔 /
uploadInterval?: number
/* 单次日志上传最大数量 /
uploadMaxCount?: number
/* 设备ID /
deviceId?: string
}`

接口轮询上传日志

js

复制代码

`/**

  • 上传日志到服务器

*/
uploadLog(currentMessageId: number) {
setInterval(async () => {
// 不能重复上传
if (this.isUploading) return
this.isUploading = true
// 如果需要上传的日志大于最大数量则只上传固定数量
const offset =
currentMessageId - this.hasUploadMessageId > this.config.uploadMaxCount
? this.hasUploadMessageId + this.config.uploadMaxCount
: currentMessageId
const res = await db.logs
.where('id')
.between(this.hasUploadMessageId, offset)
.toArray()
// 上传日志,这里可以根据自己服务器配置自定义
fetch(this.config.uploadUrl, {
method: 'POST',
mode: 'cors',
headers: {
'Content-Type': 'application/json'
},
body: JSON.stringify({
deviceId: this.config.deviceId,
logs: res.map((item) => item.message)
})
})
.then((res) => res.json())
.then((res) => {
// 日志上传成功需要更新 hasUploadMessageId 为最新已上传的 id
if (res.code === 200) {
db.flag
.update(1, {
hasUploadMessageId: offset
})
.then((update) => {
if (update) {
this.hasUploadMessageId = offset
}
})
}
})
.finally(() => {
this.isUploading = false
})
}, this.config.uploadInterval * 1000)
}`

虽然说 indexDB 使用过程中不需要考虑容量限制,但也架不住日志越来越多,所以可以每隔一段时间清空已经上传的日志,已经上传的日志删除不影响现有功能的。

js

复制代码

`/**

  • 周期性删除已经上传成功的日志

*/
deleteHasUploadLogs() {
setInterval(() => {
// 删除日志的时候不能上传日志
this.isUploading = true
db.logs
.where('id')
.belowOrEqual(this.hasUploadMessageId)
.delete()
.finally(() => {
this.isUploading = true
})
}, 60 60 1000)
}`

合并配置

定义了很多配置项,用户可以使用默认配置也可以自定义配置,所以需要把用户配置和默认配置进行合并。因为要保证合并后的配置项 ts 类型不会丢失,所以要用到范型约束自动推导出配置类型。

js

复制代码

`/**

  • 合并配置项

*/
mergeConfig<T extends object | undefined, U extends object>(
config: T,
defaultConfig: U
) {
const mergedConfig = {}
Object.keys(defaultConfig).forEach((key) => {
if (this.isValidKey(key, defaultConfig)) {
if (config) {
mergedConfig[key] =
config[key] === undefined ? defaultConfig[key] : config[key]
} else {
mergedConfig[key] = defaultConfig[key]
}
}
})
return mergedConfig as U
}`

初始化

js

复制代码

`/**

  • 初始化

*/
constructor(config?: ConfigType) {
this.config = this.mergeConfig(config, defaultConfig)
this.initialDeviceId()
this.initialIndexDB()
this.rewritetConsole()
this.interceptXHR()
this.interceptFetch()
this.interceptError()
this.uploadLog()
this.deleteHasUploadLogs()
}`

日志文件在服务器是以设备ID命名的,所以需要知道终端设备的设备ID才能在服务器上查看对应的日志,我的想法是在设备上连续点击10次弹出 toast 显示设备ID。

js

复制代码

``/**

  • 连续点击设备10次弹窗显示设备ID

*/
showDeviceId() {
/* 连续点击次数 /
let clickTimes = 0
/* 两次点击之间最小间隔 /
let waitTime = 300
let lastTime = new Date().getTime()
document.body.addEventListener('click', () => {
clickTimes =
new Date().getTime() - lastTime < waitTime ? clickTimes + 1 : 1
lastTime = new Date().getTime()
if (clickTimes >= 10) {
const div = document.createElement('div')
div.setAttribute(
'style',
'position: fixed; top: 0; right: 0; bottom: 0; left: 0; display: flex; align-items: center; justify-content: center; z-index: 99999'
)

const deviceId = document.createElement('div')
deviceId.setAttribute(
'style',
'max-width: 500px; height: 60px; padding: 0 24px; border-radius: 6px; background: rgba(0,0,0,0.7); color: #fff; font-size: 18px; display: flex; align-items: center; justify-content: center;'
)
deviceId.innerHTML = 设备ID: ${this.config.deviceId}
div.appendChild(deviceId)
document.body.append(div)
// 5秒后消失
setTimeout(() => {
document.body.removeChild(div)
}, 5000)
}
})
}``

服务器

服务端我用 node.js 简单写了个接口接收日志上传并写入本地文件中,难度不大。

js

复制代码

``const fs = require("fs");
const dayjs = require("dayjs");
const axios = require("axios");
const Koa = require("koa");
const app = new Koa();
const Router = require("koa-router");
const router = new Router();
const onerror = require("koa-onerror");
const bodyParser = require("koa-bodyparser");
const logger = require("koa-logger");
const cors = require("koa-cors");
onerror(app);
app.use(bodyParser());
app.use(logger());
app.use(cors());
const logPath = ${__dirname}/logs;
if (!fs.existsSync(logPath)) {
fs.mkdirSync(logPath);
}
const writeStreams = {};
router.post("/logger", (ctx, next) => {
const { deviceId, logs } = ctx.request.body;
const date = dayjs().format("YYYY-MM-DD");
// 新建日期文件夹
if (!fs.existsSync(${logPath}/${date})) {
fs.mkdirSync(${logPath}/${date});
}
if (!deviceId) {
ctx.body = {
code: 500,
msg: "参数 deviceId 不能为空",
};
return;
}
// 不能每次都新建写文件流,需要缓存起来
let writeStream = null;
if (writeStreams[deviceId]) {
writeStream = writeStreams[deviceId];
} else {
writeStream = fs.createWriteStream(${logPath}/${date}/${deviceId}.log, {
flags: "a",
});
writeStreams[deviceId] = writeStream;
}
// 如果上报的日志日期和服务器当前日期不一样则关闭之前的文件流,重新新建一个当前日期的文件流写入
const paths = writeStream.path.split("/");
if (paths.length > 0 && paths[paths.length - 1] !== date) {
Object.keys(writeStreams).forEach((key) => {
writeStreams[key].close();
delete writeStreams[key];
});
writeStream = fs.createWriteStream(${logPath}/${date}/${deviceId}.log, {
flags: "a",
});
writeStreams[deviceId] = writeStream;
}
// 遍历日志写入
if (Array.isArray(logs)) {
logs.forEach((log) => {
writeStream.write(log + "n");
});
} else {
writeStream.write(logs + "n");
}
ctx.body = {
code: 200,
};
});
app.use(router.routes());
app.on("error", (err, ctx) => {
console.error("server error", err, ctx);
});
app.listen(3000);
console.log("server listing on http://localhost:3000");``

效果展示

偷偷的说一句,自从前端有了日志后,BUG没解决几个,但可以挺直腰板义正言辞的把锅甩给后端了,确实是你们没有发送哦,自此再也不用去看后端日志和nginx日志了,离到点下班又近了一步😎。

image.png

总结

至此一个简单的满足特定场景的日志框架搭建好了,当然我根据公司业务场景上报了很多东西,大家也可以根据自己要求自行上报。比如监听 WebSocket 事件并上报链接成功,链接失败,接收和发送的消息等,方便后续排查问题。另外我还监听了页面路由跳转并打印进一步协助排查问题。

js

复制代码

``router.afterEach((to, from) => {
const fromPath = decodeURIComponent(from.fullPath)
const toPath = decodeURIComponent(to.fullPath)
console.log(路由跳转 from: ${fromPath} to: ${toPath})
})``

😭我的 github 密码弄丢了,等找回了把源码传到 github 上供大家参考


原网址: 访问
创建于: 2023-10-10 09:40:33
目录: default
标签: 无

请先后发表评论
  • 最新评论
  • 总共0条评论