Compare commits

...

2 Commits

Author SHA1 Message Date
5148627d2d 新增一个导出相关的函数 2025-09-26 18:27:43 +08:00
da1e982ab5 新增日志传输存储类型 2025-09-26 17:34:01 +08:00
3 changed files with 56 additions and 7 deletions

45
package/gamelog/export.go Normal file
View File

@@ -0,0 +1,45 @@
package gamelog
import (
"encoding/json"
"time"
"github.com/gogf/gf/v2/frame/g"
"github.com/gogf/gf/v2/os/gtime"
"github.com/gogf/gf/v2/util/gconv"
)
// 获取日志行
func (sdk *SDK) GetLogItem(uid, event string, property map[string]any, timezone string, customEventTime ...time.Time) string {
loc := time.Local
if _loc := getLocationMapValue(timezone); _loc != nil {
loc = _loc
}
if len(property) == 0 {
property = map[string]any{"ts": gtime.Now().Timestamp()}
}
var et *gtime.Time
if len(customEventTime) > 0 {
et = gtime.NewFromTime(customEventTime[0])
} else {
et = gtime.Now()
}
pstr, err := json.Marshal(property)
if err != nil {
g.Log().Errorf(ctx, "GetLogItem Fail ! json marshal property err: %v", err)
return ""
}
item := []any{
uid,
event,
pstr,
et.TimestampMilli(),
et.In(loc).Format(datetimeFmt),
}
itemstr, err := json.Marshal(item)
if err != nil {
g.Log().Errorf(ctx, "GetLogItem Fail ! json marshal item err: %v", err)
return ""
}
return gconv.String(itemstr)
}

View File

@@ -18,8 +18,9 @@ import (
)
type sendBody struct {
Pid string `json:"pid"`
Data [][]any `json:"data"`
Pid string `json:"pid"`
Data [][]any `json:"data"`
SaveType int `json:"save_type" dc:"0=文件存储, 1=kafka存储"`
}
// todo 游戏日志对象
@@ -41,7 +42,8 @@ type SDKConfig struct {
RetryN int // 每N次重试
ChanSize int // 信道大小, 默认1000
reportN int
reportN int
SendSaveType int // 发送存储类型, 默认不设置为0代表文件存储, 1代表走kafka可实同步日志
}
type SDK struct {
@@ -379,8 +381,9 @@ func (sdk *SDK) send(logs []GameLog) {
}
// json化
sbody := sendBody{
Pid: sdk.sdkConfig.Pid,
Data: data,
Pid: sdk.sdkConfig.Pid,
Data: data,
SaveType: sdk.sdkConfig.SendSaveType,
}
jsonBody, err := json.Marshal(sbody)
if err != nil {

View File

@@ -21,8 +21,9 @@ func TestGamelog(t *testing.T) {
FlushInterval: 5, // 上报间隔
DiskBakPath: "gamelog", // 本地磁盘备份, 用于意外情况下临时保存日志, 请确保该目录持久化(容器内要挂载). 每次启动时或每N次上报时加载到失败队列
// 可填
RetryN: 2, // 默认每10次, 上传检查一次磁盘的失败数据
ChanSize: 500, // 默认1000, 信道size
RetryN: 2, // 默认每10次, 上传检查一次磁盘的失败数据
ChanSize: 500, // 默认1000, 信道size
SendSaveType: 1, // 发送存储类型, 默认不设置为0代表文件存储, 1代表走kafka可实同步日志
})
// 随机测试事件和属性