聊一聊异构系统间数据一致性

虚幻大学 xuhss 170℃ 0评论

Python微信订餐小程序课程视频

https://blog.csdn.net/m0_56069948/article/details/122285951

Python实战量化交易理财系统

https://blog.csdn.net/m0_56069948/article/details/122285941

9dad929a500861f3ac9423f38ddf0c31 - 聊一聊异构系统间数据一致性
之前忙活过一个多方合作的项目,异构系统间维护数据一致性有时候是个头疼但必须解决的问题,今天我从背景、问题、解决思路、技术方案等几个方面浅谈一下,抛砖引玉。

背景

异构系统

近两年我司承接了某个持续性的会议项目,即每季度或月不定期举行会议。本项目目前有三个主要供应方(面向用户的A方,数据中间B方,会议数据同步C方【我司】)。
为了方便演示问题,以下流程和职责都做了裁剪。

简化流程如下:
24554736ad54bb48f35d8cb73a61852f - 聊一聊异构系统间数据一致性
简化职责如下:

  • A方职责: 用户通过官网/小程序进行报名,A方调用B方的标准接口,不存储数据
  • B方职责:作为ISP,提供标准查询、新增、修改等相关接口,几乎不提供定制。基于表单和表单数据,完成数据存储与流转。
  • C方职责:提供导入/更新/审核/注销等入口,新数据会通知到B方,B方数据新增/更新也会通知到C方。

从图例来看,B方/C方数据存储方面是冗余的。但B方只存储了核心数据,提供不了太多业务行为,C方具有业务需要的全套流程,但在此项目中作为后方支持及后续现场支持,三方形成了一种生态和谐。本篇博客主旨在讨论多方异构系统之间如何保证数据的一致性。

产品/项目

从标准Sass系统来讲,这样的多方交互,不利于系统稳定性,有诸多不可控因素。但从项目角度,这是各方考虑/斗争/谈判/费用等综合因素下友好协商的结果。
当然这是一个私有部署项目,所以会有很多坚持和妥协。

大领导提到一个说法:项目是要交付的,功能完美是产品考虑的。在功能不完善的情况下,如何去交付?

最后的兜底

哎,一言难尽。是通宵了几次核对/修复数据的,这是最后的办法了。为了苦逼不再重现,今年要对整个线动一动手术。(说好的.net 不996呢?)(拿着白菜价操着卖白粉的心)。

问题

请求无序

c1daa8170c9b5d3f798cbe33ac011214 - 聊一聊异构系统间数据一致性

  • C方 需要所有子会报名前,主会必须报名。
  • B方 各会之间的报名数据是无序到达的。

循环更新

  • B方 任意报名数据更新或新增都会推送到C方,C方收到更新也会更新B方。这里有一些措施进行了拦截中断,但仍会频繁循环更新问题。这是目前现状(为什么会出现?太赶工?)

82b2e47e208c45527e53cbeb321f7385 - 聊一聊异构系统间数据一致性

排错困难

  • 无开发环境,需盲写代码,发到测试环境进行联调测试。
  • 调用链太长,日志过多,排错时需要根据调用各服务接口来判断走到了哪步,出现了一个问题。调用链能查到一些问题,但不容批量定位问题。单个查太难。

bug

  • 高并发下,redis组件出现各种问题(timeout等)
  • token问题
  • 数据丢失
  • 更新失效
  • 数据重复
  • 队列积压
  • 接口请求时间超长
  • 其他问题...

数据很大,也很小

大部分数据能对上,偶尔几十个或断断续续产生新问题的数据需要及时人工修复。功能有缺陷,人工也是一种交付办法,但不可持续,太他妈的累了。数据不一致,也是导致通宵核对/修复数据的一大原因。如果数据全一致,就不会那么辛苦了。

解决思路

管理层

  • 明确项目是要继续做的
  • 目标产品化/更方便维护方向发展。一团队养一项目。
  • 有改进想法提出来,拉会推进
  • 缺人,招人(遥遥无期...)

技术层

  • 针对请求无序问题,引入延时队列,先处理主会、子会延迟几秒钟在处理。
  • 针对循环更新问题,记录B方数据来源,非必要情况下,不回更B方。必须终止掉。【冤冤相报何时了】
  • 针对排错困难问题,引入mysql记录新增报名的请求以及处理结果,可以更快查询处理结果。
  • 针对bug,测试根据各测试场景进行复测,按10/100/1000/3000/万级规模压测。提前发下问题。
  • 推进客户方一起做必要去重逻辑。

其他因素

无论是标准产品还是交付项目,做任何改动都要评估。

  • 多沟通,大家都是站在一条线的。有利于事情解决的方案认同度会更高。
  • 预估花多少时间,有多少资源。
  • 能挤出来的空窗期有多久,客户方/产品方对于需求的急迫性有多强。
  • 基于场景测试,把缺陷优先级先列出来,根据空窗期先修复紧急缺陷。

把紧急且影响范围广的问题解决了,风险就小了很多了。80%的问题是由20%的因素造成的。 这也正符合程序优化中的时间/空间局部性。


进程运行时,在一段时间里,程序的执行往往呈现高度的局部性,
包括时间局部性和空间局部性。
时间局部性是一旦一个指令被执行了, 则在不久的将来,它可能再被执行。
空间局部性是一旦一个指令一个存储单元被访问,那么它附近的单元也将很快被访问.

技术方案

mysql实现延迟队列

  • 优先处理主会,子会延时处理
    49a934c4cb0bee5fb6f5d641b25bd60f - 聊一聊异构系统间数据一致性
    由于隐私问题,这里只列部分字段
    ecc9dc992bc81fc4e1578725d3e4785d - 聊一聊异构系统间数据一致性
  • 数据库轮询获取未处理数据
    5c18c3f29a9073bd5d1a12760c55bbfc - 聊一聊异构系统间数据一致性
    这里如何提高消费速度,可以参考《计算机系统结构》中标量处理机的流水线的一些知识。

e5a00bfba2222d4b4066beae45bc772b - 聊一聊异构系统间数据一致性

  • 首先要无相关,即按AccountId分组,分组内的数据是无冲突/相关的,可以分批进行。记录各任务状态,最后统一提交数据库状态,然后1s后继续轮询。这种类似静态流水线。动态流水线较为复杂,这里暂不做实现。
do
{
    var groupTemps = groupDatas.Skip((pageIndex - 1) * pageSize).Take(pageSize).ToList();
    var currentRecords = new List();
    foreach (var item in groupTemps)
    {
        currentRecords.AddRange(item.ToList());
    }
    var temp = taskFunc(currentRecords);
    taskList.Add(temp);
    pageIndex++;
}
while ((pageIndex - 1) * pageSize <= groupCount);

//等待全部执行
await Task.WhenAll(taskList.ToArray());

await \_dbContext.CommitAsync();

Thread.Sleep(1);
  • 如果1s轮询觉得太浪费,后续可以根据请求发送标记位(下次轮询时间),有数据时,可以快速轮询,无数据时放宽时间。极端处理方式,当主会请求过来处理完成后,直接发起子会处理,但要考虑数据库是否能承受的住这种并发压力。
  • 如果考虑请求会重复执行,可以在执行内加redis锁。慎用for update,并发一大就over.

/// 

/// 锁定执行。
/// 

/// 
/// 
/// 
/// 
public async Task<BizResult<T>> LockExcute<T>(string key, Func>> func, int timeSpan)
{
  var db = (this._cacheClient as RedisClient).Db;

  var mutexKey = string.Format("mutex:", key);
  if (await db.StringSetAsync(mutexKey, "1", TimeSpan.FromSeconds(timeSpan), When.NotExists))
  {
      try
      {
          var item = await func.Invoke();
          return item;
      }
      catch (Exception ex)
      {
          _logger.LogError("LockExcute:Exception:" + ex.Message);
          return BizResult.BusinessFailed(-1, $"执行失败,Message:{ex.Message}");

      }
      finally
      {
          await db.KeyDeleteAsync(mutexKey);
      }
  }
  else
  {
      \_logger.LogWarning($"LockExcute:Key:{key},正在处理中,请稍候");

      return BizResult.BusinessFailed(-1, "正在处理中,请稍候");
  }
}

redis实现延迟队列

  • 由于业务中一个Account同时只能处理一个主会,如果在处理子会的时候,主会请求突然过来了,就会有问题,这里就需要加锁主会。引入了Redis延迟队列
  • 基于Redis ZSet有序集合实现。
  • 思路:当前时间戳和延时时间相加,也就是到期时间,存入Redis中,然后不断轮询,找到到期的,拿到再删除即可。
  • 目前实现缺点:不利于监控,未发起http请求处理业务,导致调用链有缺。
/// 
 /// 3.入队列
 /// 
 /// 
 /// 
 public async Task EnqueueZset(DataToModel redisModel)
 {
     redisModel.UpdateTime = redisModel.UpdateTime.AddSeconds(5);// 最后更新时间 + 5秒
     var redisDb = _redisConnectionService.GetRedisConnectionMultiplexer().GetDatabase(0);//默认DB0
     if (redisDb != null)
     {
         IsoDateTimeConverter timeFormat = new IsoDateTimeConverter();
         timeFormat.DateTimeFormat = "yyyy-MM-dd HH:mm:ss.fff";
         await redisDb.SortedSetAddAsync(ZSet_Queue, JsonConvert.SerializeObject(redisModel, Formatting.Indented, timeFormat), redisModel.UpdateTime.ToTimeStamp());//得分 --放入redis
         _logger.LogInformation($"数据排队--入队列!redisModel:{JsonConvert.SerializeObject(redisModel)}");
     }
 }

rabbmit实现延迟队列

  • 死信队列过期--》重推信队列?暂未实现。

数据更新方案

  • 核心原则:先查询对比,有变更再更新。从B方数据过来的,尽量不再更新回去。减小并发量,控制复杂度。

eb9190cecd7a576c44dd53b6d56fcd20 - 聊一聊异构系统间数据一致性

数据核对方案

  • 待补充。未实现自动化。后期可以获取双方系统数据,汇总对比。
    6f7131244ca61fc53c14ed47ded0a269 - 聊一聊异构系统间数据一致性

部署/压测/监控

Jmeter(来自于测试同学提供的脚本)

这里只做简单截图

  • 配置预定义参数
    c6bf37440b739e5581ac3eab9f14e118 - 聊一聊异构系统间数据一致性
    dc15ceb9fe8e12436ad39775851a5d18 - 聊一聊异构系统间数据一致性
  • 必要情况下配置后置处理程序
    e16d04aa985458879934909b48553059 - 聊一聊异构系统间数据一致性
    29a9c49e7d22828df165e1d349c4d53e - 聊一聊异构系统间数据一致性
  • 配置好thread group,http request后,执行调用观察接口

22d6c0e84590f7b333c493b3b3abcec2 - 聊一聊异构系统间数据一致性

008cc9f57a603a4e819eebdcbb0f737f - 聊一聊异构系统间数据一致性

  • 查询请求执行是否成功
    6c5ace6f90c40f6ec390d3e50c355266 - 聊一聊异构系统间数据一致性
  • 查看聚合报告
    55cc300107ed895a0182ba37964d25e2 - 聊一聊异构系统间数据一致性

kubernetes

  • kubectl get nodes 获取所有节点
  • kubectl get pod -A 查看所有服务,观察status和age
    2587c2b4b204d3bb2b89663160622544 - 聊一聊异构系统间数据一致性
  • kubectl logs [-f] [-p] POD [-c CONTAINER] 查看日志信息。


-c, --container="": 容器名
-f, --follow[=false]: 指定是否持续输出日志
--interactive[=true]: 如果为true,当需要时提示用户进行输入。默认为true
--limit-bytes=0: 输出日志的最大字节数。默认无限制
-p, --previous[=false]: 如果为true,输出pod中曾经运行过,但目前已终止的容器的日志
--since=0: 仅返回相对时间范围,如5s、2m或3h,之内的日志。默认返回所有日志。只能同时使用since和since-time中的一种
--since-time="": 仅返回指定时间(RFC3339格式)之后的日志。默认返回所有日志。只能同时使用since和since-time中的一种
--tail=-1: 要显示的最新的日志条数。默认为-1,显示所有的日志
--timestamps[=false]: 在日志中包含时间戳

mysql监控(来自于运维同学的反馈)

这里只截图简单信息

  • 通过云监控查看mysql状态[最大连接数/cpu/内存/慢查询/索引建议/锁]

11caa76cbd2596273aec250d4004fef9 - 聊一聊异构系统间数据一致性

e86f1f6578bc38ef4e053592d64c172a - 聊一聊异构系统间数据一致性

调用链/日志

此处暂不截图。

f094fa480d7183c216b2410bf81d61ef - 聊一聊异构系统间数据一致性

失控

  • 一期方案
    a169051372482df15b58d73a8d776ece - 聊一聊异构系统间数据一致性
  • 二期方案
    56129eeac9eeb318e88fe6218568b297 - 聊一聊异构系统间数据一致性
  • 三期方案
    19e59878729fb895b6a4a11541875644 - 聊一聊异构系统间数据一致性
    当然那是进展顺利的情况下,不顺利的情况下就变成了这样
    a36010d8e34a5cb3c650cb7150bbd4a6 - 聊一聊异构系统间数据一致性

某些时候也会听到如下言论:

  • 一定要保证xx的信誉。
  • 今晚就不要睡觉了吧?大家多坚持一下。

就如现在的疫情封控一样,做好了精准防控一片赞歌,失控了就好好居家、共渡难关。
网络和现实都会告诉你什么就是人间。

总结

以上是关于定制化需求的一些解决方案,希望对未来类似产品或项目做个参考。本篇从问题着手,分析有利于解决/消除异构系统数据一致性办法。当然数据一致性也依赖于自身系统的高可用,这里未做过多描述,以后再说。

到此结束,谢谢观看!

转载请注明:xuhss » 聊一聊异构系统间数据一致性

喜欢 (0)

您必须 登录 才能发表评论!