news 2026/4/23 14:06:08

优惠卷业务超卖问题解决方案

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
优惠卷业务超卖问题解决方案

问题背景

在在线教育业务中,因为功能的扩展刺激消费通常会有一个优惠卷的功能,当时这些优惠卷通常是限量的需要学员自助领取,在一些特定场景下会出现学员领取卷的总数量大于运营设置的卷的总数量,这就是超卖问题的现象,或许在这个创建下叫做“超领”可能更合适些。

产生原因

假设当前运营设置了10张优惠卷,前面9已经被抢完了,还是最后一张,但是此时有三个学员在相同时间下都做了领卷的操作,最终导致三个学员都领到卷了,导致领取总量大于发放总量。

解决方案

1.保证数据的原子性。添加发放总量 大于 以发放量的条件,保证多个在事务操作下数据的总量不会发生改变。

优点:代码改动量下,并且效果比较好,不会出现ABA的问题。(目前我们公司就是使用这个方案)

缺点:

  • 事务为了保证原子性,会在对这个优惠卷数据上行锁。
  • 在没有设置索引的时候可能会做全量扫描,效率上会变低。因此我们需要设置对应的有效索引防止走全表。
  • 在极端的情况下会更新失败,需要设置重试机制。当有多跟线程同时操作的时候,通过更新时回去行级锁来控制执行顺序,因为某些原因导致获取获取锁超时,最总导致更新失败。

2.悲观锁。通过synchronized对优惠卷id进行上锁,每次只有一个保证请求是串行的,执行速度比较慢,当时确实是最可靠的。

3.乐观锁。优点:保证了在请求的并行执行,在执行效率上是很高。

缺点:在请求大量的时候虽然都可以执行,但是最终只会有一个执行超过,在完成率上是比较低的。实现上通过版本号进行控制。在实现上是三者中最繁琐的。我们没有单独定义本号字段来做的,我们是使用更新时间做版本号的来实现的。

在极端情况下乐观锁会出现无法感知的超卖情况。但是对我们目前的业务场景不会造成影响。

极端的场景 (ABA):对总数不影响,导致可能会导致业务逻辑错误,保证数据的原子性就会存在这个问题。

时间线: 1. 线程A读到 version = 1, issued_count = 99 2. 线程B更新:issued_count = 100, version = 2 3. 线程C(退款)更新:issued_count = 99, version = 3 4. 线程A执行更新,version匹配成功!错误地认为数据没变
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 10:19:38

Open-AutoGLM部署性能提升300%的秘密:你不可不知的5项调优技术

第一章:Open-AutoGLM 虚拟机部署方案环境准备与系统要求 部署 Open-AutoGLM 前需确保虚拟机满足最低资源配置。推荐使用 64 位 Linux 系统,如 Ubuntu 22.04 LTS,并具备以下硬件支持: CPU:至少 8 核,建议启用…

作者头像 李华
网站建设 2026/4/23 10:18:25

保姆级教程:Claude Code接入GLM-4.6(零基础也能跟着做)

文章目录0. 先讲清楚:Claude Code 和 GLM-4.6 是什么1. 你需要准备什么1.1 你需要的软件/账号1.2 你会用到的几个“新词”解释2. 第一步:安装 Node.js(Claude Code 必备)2.1 Windows 安装(最简单方式)2.2 m…

作者头像 李华
网站建设 2026/4/23 10:18:31

伺服驱动器中DSP与FPGA高效协同架构解析

一、整体架构二、FPGA 负责的功能(硬件实时层)1. PWM 波形生成空间矢量 PWM (SVPWM)死区时间控制最小零矢量控制频率:16kHz2. 电流采样与处理// Sigma-Delta调制器处理*CurSampCtrl // ADC采样启动延时设置*CurSampCtrlSec // 第二组采…

作者头像 李华
网站建设 2026/4/23 10:33:17

【TextIn大模型加速器 + 火山引擎】基于 TextIn 与火山引擎豆包大模型的智能文档解析工作流构建与实践

目录 前言第一章:数字基座的构建——Dify 环境初始化第二章:核心解析引擎的接入——TextIn 节点编排第三章:中间件的逻辑处理——代码执行节点第四章:火山引擎的大脑驱动——模型配置与部署第五章:提示词工程与逻辑闭环…

作者头像 李华
网站建设 2026/4/22 17:05:08

Open-AutoGLM实战指南:3步搭建属于你的智能外卖下单系统

第一章:Open-AutoGLM 外卖自动下单在现代智能服务系统中,自动化下单技术正逐步改变用户与平台的交互方式。Open-AutoGLM 是一个基于大语言模型(LLM)驱动的外卖自动下单框架,能够理解自然语言指令并自主完成从菜单选择到…

作者头像 李华
网站建设 2026/4/23 11:53:11

【高可用AI服务构建】:Open-AutoGLM Docker集群部署全方案

第一章:Open-AutoGLM高可用架构概述Open-AutoGLM 是一个面向大规模语言模型推理与自动化任务调度的开源框架,其高可用架构设计旨在保障服务在复杂生产环境下的稳定性、可扩展性与容错能力。系统采用分布式微服务架构,通过多节点协同与负载均衡…

作者头像 李华