代码优化
This commit is contained in:
parent
ffbcd7e790
commit
783c289abe
@ -55,7 +55,6 @@ func MysqlConsumer() {
|
|||||||
}
|
}
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
func AddMetaEvent(kafkaData model.KafkaData) (err error) {
|
func AddMetaEvent(kafkaData model.KafkaData) (err error) {
|
||||||
if kafkaData.ReportType == model.EventReportType {
|
if kafkaData.ReportType == model.EventReportType {
|
||||||
redisConn := db.RedisPool.Get()
|
redisConn := db.RedisPool.Get()
|
||||||
@ -81,8 +80,6 @@ func AddMetaEvent(kafkaData model.KafkaData) (err error) {
|
|||||||
return nil
|
return nil
|
||||||
}
|
}
|
||||||
|
|
||||||
|
|
||||||
|
|
||||||
func AddTableColumn(kafkaData model.KafkaData, failFunc func(data consumer_data.ReportAcceptStatusData), tableName string, ReqDataObject *parser.FastjsonMetric) (err error) {
|
func AddTableColumn(kafkaData model.KafkaData, failFunc func(data consumer_data.ReportAcceptStatusData), tableName string, ReqDataObject *parser.FastjsonMetric) (err error) {
|
||||||
|
|
||||||
dims, err := sinker.GetDims(model.GlobConfig.Comm.ClickHouse.DbName, tableName, nil, db.ClickHouseSqlx)
|
dims, err := sinker.GetDims(model.GlobConfig.Comm.ClickHouse.DbName, tableName, nil, db.ClickHouseSqlx)
|
||||||
|
@ -109,7 +109,7 @@ func main() {
|
|||||||
reportData2CKSarama := realTimeDataSarama.Clone()
|
reportData2CKSarama := realTimeDataSarama.Clone()
|
||||||
go action.MysqlConsumer()
|
go action.MysqlConsumer()
|
||||||
var json = jsoniter.ConfigCompatibleWithStandardLibrary
|
var json = jsoniter.ConfigCompatibleWithStandardLibrary
|
||||||
pp, err := parser.NewParserPool("fastjson", nil, "", "")
|
pp, err := parser.NewParserPool()
|
||||||
if err != nil {
|
if err != nil {
|
||||||
panic(err)
|
panic(err)
|
||||||
}
|
}
|
||||||
@ -274,7 +274,6 @@ func main() {
|
|||||||
Status: consumer_data.SuccessStatus,
|
Status: consumer_data.SuccessStatus,
|
||||||
}); err != nil {
|
}); err != nil {
|
||||||
logs.Logger.Error("reportAcceptStatus Add SuccessStatus err", zap.Error(err))
|
logs.Logger.Error("reportAcceptStatus Add SuccessStatus err", zap.Error(err))
|
||||||
return
|
|
||||||
}
|
}
|
||||||
|
|
||||||
//添加数据到ck用于后台统计
|
//添加数据到ck用于后台统计
|
||||||
|
@ -28,7 +28,7 @@ type ReportController struct {
|
|||||||
var pp *parser.Pool
|
var pp *parser.Pool
|
||||||
|
|
||||||
func init(){
|
func init(){
|
||||||
pp, _ = parser.NewParserPool("fastjson", nil, "", "")
|
pp, _ = parser.NewParserPool()
|
||||||
}
|
}
|
||||||
|
|
||||||
//上报接口
|
//上报接口
|
||||||
|
@ -18,10 +18,6 @@ var (
|
|||||||
ErrParseDateTime = errors.Errorf("value doesn't contain DateTime")
|
ErrParseDateTime = errors.Errorf("value doesn't contain DateTime")
|
||||||
)
|
)
|
||||||
|
|
||||||
var typeFormatMap = map[string]string{
|
|
||||||
|
|
||||||
}
|
|
||||||
|
|
||||||
// Parse is the Parser interface
|
// Parse is the Parser interface
|
||||||
type Parser interface {
|
type Parser interface {
|
||||||
Parse(bs []byte) (metric *FastjsonMetric, err error)
|
Parse(bs []byte) (metric *FastjsonMetric, err error)
|
||||||
@ -29,34 +25,18 @@ type Parser interface {
|
|||||||
|
|
||||||
// Pool may be used for pooling Parsers for similarly typed JSONs.
|
// Pool may be used for pooling Parsers for similarly typed JSONs.
|
||||||
type Pool struct {
|
type Pool struct {
|
||||||
name string
|
|
||||||
csvFormat map[string]int
|
|
||||||
delimiter string
|
|
||||||
timeZone *time.Location
|
timeZone *time.Location
|
||||||
knownLayouts sync.Map
|
|
||||||
pool sync.Pool
|
pool sync.Pool
|
||||||
}
|
}
|
||||||
|
|
||||||
// NewParserPool creates a parser pool
|
// NewParserPool creates a parser pool
|
||||||
func NewParserPool(name string, csvFormat []string, delimiter string, timezone string) (pp *Pool, err error) {
|
func NewParserPool() (pp *Pool, err error) {
|
||||||
var tz *time.Location
|
var tz = time.Local
|
||||||
if timezone == "" {
|
|
||||||
tz = time.Local
|
|
||||||
} else if tz, err = time.LoadLocation(timezone); err != nil {
|
|
||||||
err = errors.Wrapf(err, "")
|
|
||||||
return
|
|
||||||
}
|
|
||||||
pp = &Pool{
|
pp = &Pool{
|
||||||
name: name,
|
|
||||||
delimiter: delimiter,
|
|
||||||
timeZone: tz,
|
timeZone: tz,
|
||||||
}
|
}
|
||||||
if csvFormat != nil {
|
|
||||||
pp.csvFormat = make(map[string]int)
|
|
||||||
for i, title := range csvFormat {
|
|
||||||
pp.csvFormat[title] = i
|
|
||||||
}
|
|
||||||
}
|
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
|
|
||||||
@ -73,12 +53,7 @@ func ParseKafkaData(pool *Pool, data []byte) (metric *FastjsonMetric, err error)
|
|||||||
func (pp *Pool) Get() Parser {
|
func (pp *Pool) Get() Parser {
|
||||||
v := pp.pool.Get()
|
v := pp.pool.Get()
|
||||||
if v == nil {
|
if v == nil {
|
||||||
switch pp.name {
|
return &FastjsonParser{pp: pp}
|
||||||
case "fastjson":
|
|
||||||
return &FastjsonParser{pp: pp}
|
|
||||||
default:
|
|
||||||
return &FastjsonParser{pp: pp}
|
|
||||||
}
|
|
||||||
}
|
}
|
||||||
return v.(Parser)
|
return v.(Parser)
|
||||||
}
|
}
|
||||||
@ -92,28 +67,15 @@ func (pp *Pool) Put(p Parser) {
|
|||||||
}
|
}
|
||||||
|
|
||||||
func (pp *Pool) ParseDateTime(key string, val string) (t time.Time, err error) {
|
func (pp *Pool) ParseDateTime(key string, val string) (t time.Time, err error) {
|
||||||
var layout string
|
|
||||||
var lay interface{}
|
|
||||||
var ok bool
|
|
||||||
var t2 time.Time
|
var t2 time.Time
|
||||||
if val == "" {
|
if val == "" {
|
||||||
err = ErrParseDateTime
|
err = ErrParseDateTime
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
if lay, ok = pp.knownLayouts.Load(key); !ok {
|
|
||||||
t2, layout = parseInLocation(val, pp.timeZone)
|
|
||||||
if layout == "" {
|
if t2, err = time.ParseInLocation("2006-01-02 15:04:05", val, pp.timeZone); err != nil {
|
||||||
err = ErrParseDateTime
|
|
||||||
return
|
|
||||||
}
|
|
||||||
t = t2
|
|
||||||
return
|
|
||||||
}
|
|
||||||
if layout, ok = lay.(string); !ok {
|
|
||||||
err = ErrParseDateTime
|
|
||||||
return
|
|
||||||
}
|
|
||||||
if t2, err = time.ParseInLocation(layout, val, pp.timeZone); err != nil {
|
|
||||||
err = ErrParseDateTime
|
err = ErrParseDateTime
|
||||||
return
|
return
|
||||||
}
|
}
|
||||||
|
Loading…
x
Reference in New Issue
Block a user