news 2026/5/14 16:46:15

04-AI产品的多巴胺开关-奖励预测误差在智能体中的应用

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
04-AI产品的多巴胺开关-奖励预测误差在智能体中的应用

AI产品的"多巴胺开关":奖励预测误差在智能体中的应用

系列一:AI Agent × GAP模型 | 第4篇(实战型)
从 Schultz 的经典发现出发,拆解如何用奖励预测误差设计让人"停不下来"的 Agent 产品。


本文你将获得

  • 🧠 奖赏预测误差(RPE)的产品化解读框架
  • 🎰 Agent产品中的5种"多巴胺开关"设计模式
  • 📊 可变奖励在Agent场景的实现方式对照表
  • ⚖️ 多巴胺设计的伦理边界指南
  • 📋 Agent多巴胺设计自查清单(15项)
  • 🔧 Agent奖励系统设计模板

引言:那个让你"爽"的瞬间

为什么你用 Cursor 写代码时,每次看到 AI 生成出正确的代码都会有一种"爽"的感觉?

为什么 Perplexity 给出一个精准答案时你会不自觉地微笑?

为什么 Midjourney 偶尔生成一张远超预期的图片时,你会兴奋地截图发给朋友?

这不是巧合——这是你的多巴胺系统在被精确调控。

在 GAP 模型的四个环节中,回报(Payoff)是决定用户是否"回来"的关键。而回报设计的底层逻辑,藏在一个神经科学的经典发现里:奖赏预测误差(Reward Prediction Error, RPE)。Wolfram Schultz 在一系列经典实验中发现,大脑的多巴胺系统追踪的不是"奖励本身",而是"奖励与预期的差值"。

这个发现不仅解释了人类为什么会"上瘾",更为我们设计 AI Agent 产品提供了一套精确的"多巴胺调控"方法论。

本文的核心论点:

最好的 Agent 产品,本质上是一个"多巴胺开关"的精密调控系统。它不是让用户持续获得奖励,而是让用户持续获得"比预期好一点"的奖励。


一、从神经科学到产品设计:RPE理论的产品化解读

1.1 Schultz的发现:大脑追踪的是"意外"而非"奖赏"

1997年,剑桥大学的 Wolfram Schultz 发表了一篇改变神经科学走向的论文。他记录了猴子大脑中多巴胺神经元的放电模式,发现了一个惊人的规律:

多巴胺神经元对"可预测的奖励"不反应,只对"意外的奖励"反应。

具体来说,当猴子看到一个信号(比如灯光),随后获得了预期的果汁时,多巴胺神经元几乎没有反应。但当信号出现后,猴子获得了比预期更多的果汁,多巴胺神经元剧烈放电。反之,如果预期的果汁没有出现,多巴胺神经元的放电会被抑制。

这就是**奖赏预测误差(Reward Prediction Error, RPE)**的核心:

误差类型条件多巴胺反应用户感受产品隐喻
正预测误差实际奖励 > 预期奖励📈 剧烈释放惊喜、兴奋、“爽”“这AI居然能做这个!”
零预测误差实际奖励 = 预期奖励➡️ 基线水平平静、满足、无感“嗯,正常”
负预测误差实际奖励 < 预期奖励📉 释放受抑失望、沮丧、“就这?”“这AI怎么这么笨”

用一条曲线来直观感受:

多巴胺释放量 ▲ │ │ ╱╲ 正预测误差(意外奖励) │ ╱ ╲ │ ╱ ╲ │───────╱──────╲────── 零预测误差(预期内奖励) │ ╱ ╲ │ ╱ ╲ │ ╱ ╲ │ ╱ ╲╲ 负预测误差(低于预期) │ ╱ ╲╲ └──────────────────────────▶ 时间 收到奖励的时刻

Schultz 的发现有一个极其重要的推论:持续的高质量输出并不会持续带来高多巴胺释放。因为用户的预期会迅速调整到新的基线——你上次给了100分,这次再给100分,多巴胺反应为零。只有给到105分,才会再次触发正预测误差。

这个推论对 Agent 产品的设计有深远影响,我们后文会详细展开。

1.2 RPE在产品中的映射:为什么"恰到好处的意外"最让人上瘾

RPE 理论在产品设计中有一个简洁的映射公式:

用户满意度 = 实际体验 - 用户预期

这个公式揭示了三种极端情况:

情况公式结果用户感受产品举例
完全可预测实际 = 预期 → 差值 = 0无聊、麻木每次都给标准答案的客服机器人
完全随机实际忽高忽低 → 预期崩溃沮丧、焦虑质量极不稳定的AI输出
恰到好处的意外实际略高于预期 → 正RPE惊喜、上瘾Cursor偶尔给出惊艳的代码方案

可预测 = 无聊,完全随机 = 沮丧,恰到好处的意外 = 上瘾。

这就是为什么最好的 Agent 产品不会每次都给出"完美"答案。它们会在"可靠"和"惊喜"之间刻意制造波动——大部分时候给出可靠的结果(维持信任基线),偶尔给出远超预期的结果(触发正预测误差)。

传统产品由于输出是确定性的(按钮点击后的效果是固定的),很难制造这种"恰到好处的意外"。但 AI Agent 天然具备这种能力——它的输出本身就是概率性的,每一次生成都带有不确定性。问题不在于AI能不能制造意外,而在于产品设计师如何精确调控这种意外的频率和幅度。

1.3 Berridge的"想要vs喜欢"分离:让用户"上瘾"但不"反感"

密歇根大学的 Kent Berridge 提出了另一个关键理论:"想要(Wanting)"和"喜欢(Liking)"在神经层面是可以分离的。

多巴胺系统驱动的是"想要"——它让你渴望获得奖励,驱使你采取行动。但"喜欢"——你对奖励的实际享受——由另一套神经递质系统(内啡肽、大麻素等)驱动。

这意味着:一个产品可以让用户疯狂地"想要"使用,但用户并不真正"喜欢"使用它的体验。社交媒体的无限下拉刷新就是典型案例——你停不下来,但刷完之后并不觉得满足,甚至感到空虚。

对 Agent 产品的启示极其重要:

维度“想要”(Wanting)“喜欢”(Liking)
神经基础多巴胺系统阿片/内啡肽系统
产品表现用户反复打开、持续使用用户使用后感到满足、愉悦
设计手段可变奖励、预期管理、稀缺性高质量输出、流畅体验、实际价值交付
风险上瘾但空虚满足但缺乏粘性

最好的 Agent 产品,需要同时激活"想要"和"喜欢"。用可变奖励驱动"想要"(让用户反复回来),用高质量的实际价值交付驱动"喜欢"(让用户用完之后真正觉得有用)。

如果只有"想要"没有"喜欢",产品会变成"数字毒品"——用户离不开,但也不喜欢。如果只有"喜欢"没有"想要",产品会变成"工具箱"——用户觉得有用,但想不起来用。


二、Agent产品中的5种"多巴胺开关"

基于 RPE 理论,我总结了 Agent 产品中5种可以系统化设计的"多巴胺开关"。每一种开关都对应一种"超出预期"的方式。

2.1 质量惊喜开关

原理:Agent 输出的质量超出用户预期。

这是最直觉的一种开关。用户让 AI 做一件事,AI 不仅做到了,而且做得比用户预想的更好。

典型案例:你让 ChatGPT 帮你写一封商务邮件。你预期它会生成一段中规中矩的模板化文字。但它不仅写了邮件,还自动调整了语气、加入了行业术语、甚至预判了收件人可能的反对意见并附上了应对策略。那一刻,你的多巴胺飙升。

设计要点:

要素说明
触发条件任务复杂度较高、用户预期较低时,更容易触发正RPE
惊喜幅度在"可靠基线"之上额外提供10%-20%的超预期内容
频率控制不能每次都惊喜(会抬高预期基线),建议20%-30%的交互中触发
风险提示如果"惊喜"内容不相关或质量不高,会变成负RPE——“画蛇添足”

2.2 速度惊喜开关

原理:Agent 完成任务的速度超出用户预期。

用户对 AI 的速度有一个隐含预期。当 AI 的响应速度远快于这个预期时,会触发正预测误差。

典型案例:你在 Cursor 中选中一段代码,按下 Cmd+K 输入修改指令。你预期它需要思考几秒钟,但它几乎瞬间就给出了精准的修改方案。那种"这么快?"的感觉,就是速度惊喜开关在起作用。

用户预期等待时间:████████████ (8秒) 实际等待时间: ████ (2秒) ↑ 正预测误差触发区

设计要点:

要素说明
触发条件用户预期等待时间较长时(复杂任务),速度惊喜效果最强
惊喜幅度实际响应时间比预期快50%以上时,正RPE效果显著
实现方式流式输出(Streaming)、缓存高频请求、后台预计算
风险提示追求速度牺牲质量时,会触发"质量负RPE",得不偿失

2.3 范围惊喜开关

原理:Agent 做了用户没想到它能做的事。

用户对 Agent 的能力有一个心理模型——“它能做A和B”。当 Agent 展示出它能做"C"时,用户的预期框架被打破,正预测误差被触发。

典型案例:你在 Perplexity 中搜索一个技术问题。你预期它会给你一个答案加几个链接。但它不仅给了答案,还自动生成了一个对比表格、画了一张流程图、并列出了三个你没想到的相关问题。你惊讶地发现:“它还能做这个?”

设计要点:

要素说明
触发条件用户对Agent能力边界认知较窄时,范围惊喜效果最强
惊喜幅度在核心任务之外,额外完成1-2个相关但"超出角色"的子任务
实现方式Agent 主动识别关联任务、自动调用额外工具、跨领域能力组合
风险提示如果"额外做的事"偏离用户意图太远,会变成负RPE——“我没让你做这个”

2.4 学习惊喜开关

原理:Agent 从用户反馈中"变聪明了",用户感知到自己在"训练"AI。

这是一种特殊的正预测误差——用户预期 AI 是静态的(每次都一样),但发现 AI 在"记住"自己的偏好并做出调整。这种"它在学习我"的感觉,会触发强烈的多巴胺释放。

典型案例:你用 AI 写作助手写了一篇文章,告诉它"我喜欢更口语化的风格"。第二天你再用它时,它自动用了更口语化的语气。你会感到一种独特的满足感——不是因为它写得好,而是因为**“它听进去了”**。

设计要点:

要素说明
触发条件用户明确给出反馈后,下次交互中Agent体现出变化
惊喜幅度变化要"可感知"但不能"突兀"——让用户意识到"它在学我"
实现方式用户偏好记忆、上下文延续、个性化模型微调
风险提示如果"学习"表现为过度迎合,用户会觉得"没有主见";如果学习太慢,用户会觉得"说了白说"

2.5 创造惊喜开关

原理:Agent 给出了用户自己都没想到的方案。

这是最高级别的正预测误差——不是"做得更好"或"做得更快",而是"想到了我没想到的东西"。这种惊喜触发的是认知层面的多巴胺释放,效果最为持久。

典型案例:你在 Cursor 中让 AI 重构一个函数。你预期它会做常规的代码整理。但它不仅重构了函数,还发现了一个你完全没注意到的潜在并发问题,并给出了一个你从未想过的设计模式。那一刻你不只是"爽",你是真的被"启发"了。

设计要点:

要素说明
触发条件任务本身有多个可行方案、用户的专业水平较高时效果最佳
惊喜幅度方案需要"合理但出乎意料"——不是瞎编,而是真的更优
实现方式Agent 进行多步推理、探索多个解空间、引入跨领域知识
风险提示如果"创造性方案"实际上是错的,会严重损害信任——“它在胡说八道”

五种开关的对比总结:

开关类型超预期维度触发频率建议多巴胺强度实现难度信任风险
质量惊喜做得更好20%-30%★★★★
速度惊喜做得更快30%-50%★★★
范围惊喜做得更多10%-20%★★★★
学习惊喜做得更懂你每次反馈后★★★★★
创造惊喜做得你想不到5%-15%★★★★★极高

三、可变奖励系统设计

3.1 Agent产品的奖励类型矩阵

Agent 产品能够交付的"奖励"不止一种。我们可以用一个 2×2 矩阵来分类:

即时(秒级~分钟级) │ ┌──────────────┼──────────────┐ │ 信息型即时 │ 情感型即时 │ │ · 正确答案 │ · "哇"的瞬间 │ │ · 代码生成 │ · 惊艳的输出 │ │ · 搜索结果 │ · 流畅的体验 │ ├──────────────┼──────────────┤ │ 信息型延迟 │ 情感型延迟 │ │ · 深度报告 │ · 成长感 │ │ · 项目完成 │ · 能力提升感 │ │ · 知识积累 │ · "它懂我了" │ └──────────────┼──────────────┘ │ 延迟(小时级~天级)
信息型情感型
即时正确答案、代码生成、搜索结果"哇"的瞬间、惊艳的输出、流畅体验
延迟深度报告、项目完成、知识积累成长感、能力提升感、“它懂我了”

关键洞察:最好的 Agent 产品不会只依赖即时奖励。它们会构建一个即时-延迟混合奖励系统——即时奖励驱动短期粘性(让你现在就"爽"),延迟奖励驱动长期留存(让你觉得"越来越离不开")。

3.2 奖励节奏设计:哪种"发放方式"最有效?

行为心理学中经典的操作条件反射理论(Skinner, 1938)告诉我们,奖励的"发放节奏"对行为塑造有决定性影响。四种经典节奏在 Agent 产品中的对应关系如下:

节奏类型规则用户行为特征Agent产品适用场景粘性强度
固定比率每N次行动给1次奖励高速使用,拿完就走不推荐——容易产生"打卡心态"★★
可变比率平均每N次行动给1次奖励,但具体哪次不确定持续使用,难以停止最适合Agent——AI输出质量天然可变★★★★★
固定间隔每隔固定时间给1次奖励使用频率随间隔波动定期报告、周报生成等场景★★★
可变间隔平均每隔N时间给1次奖励,但具体哪次不确定稳定持续使用Agent主动推送洞察、学习进化反馈★★★★

为什么可变比率最适合 Agent 产品?

因为 AI 的输出天然具有可变性——即使是同一个问题,AI 每次生成的答案也不完全相同。这意味着 Agent 产品自带可变比率奖励机制。产品设计师的任务不是"创造"可变性,而是**“调控"可变性**——确保可变性的范围在"惊喜"和"可靠"之间,而不是滑向"随机”。

3.3 预期管理:避免"多巴胺耐受"

RPE 理论有一个冷酷的推论:持续的正预测误差会导致预期基线上移,最终让曾经的"惊喜"变成"理所当然"。

这就是"多巴胺耐受"——就像咖啡因耐受一样,你需要越来越强的刺激才能获得同样的多巴胺释放。在 Agent 产品中,这表现为:

第1周:AI给出好答案 → "哇,太厉害了!" → 强烈正RPE 第2周:AI给出好答案 → "嗯,不错" → 零RPE(预期已上调) 第3周:AI给出好答案 → "怎么没有上次好?" → 负RPE(预期继续上调) 第4周:用户流失 → "这AI也就那样"

持续的高质量输出反而加速用户流失。这听起来反直觉,但它是 RPE 理论的必然推论。

预期管理的三个核心策略:

策略一:质量波动——在"优秀"和"卓越"之间制造波动

不要每次都给出100分的答案。大部分时候给80-90分(可靠但不出彩),偶尔给110分(惊喜)。这样用户的预期会稳定在85分左右,而110分的惊喜可以反复触发正RPE。

策略二:渐进式解锁——用"新能力"制造新的惊喜

当用户对当前能力产生耐受时,解锁新的能力维度。比如从"代码补全"到"代码审查"再到"架构建议"——每一次能力升级都是一次新的正预测误差来源。

策略三:情境化预期——让用户在不同场景有不同预期

同一个 Agent,在"快速问答"场景下提供即时但简略的回答(低预期、高速度惊喜),在"深度分析"场景下提供详尽但需要等待的回答(高预期、高质量惊喜)。通过场景切换,自然地重置用户预期。

┌────────────────────────────────────────────────────────────┐ │ 预期管理三策略全景 │ │ │ │ 策略一:质量波动 │ │ ┌────┐ ┌────┐ ┌────┐ ┌────┐ ┌────┐ │ │ │ 85 │ │ 90 │ │110 │ │ 88 │ │ 85 │ ← 大部分80-90 │ │ └────┘ └────┘ └────┘ └────┘ └────┘ 偶尔110 │ │ │ │ 策略二:渐进式解锁 │ │ [代码补全] ──→ [代码审查] ──→ [架构建议] ──→ [团队协作] │ │ 预期基线 新惊喜 新惊喜 新惊喜 │ │ │ │ 策略三:情境化预期 │ │ 快速问答场景:低预期 ──→ 速度惊喜 │ │ 深度分析场景:高预期 ──→ 质量惊喜 │ │ 创意探索场景:开放预期 ──→ 创造惊喜 │ └────────────────────────────────────────────────────────────┘

四、多巴胺设计的伦理边界

4.1 产品设计 vs 操控:一条模糊但必须存在的线

当你读完这篇文章,掌握了"多巴胺开关"的设计方法后,一个伦理问题不可避免地浮现:

"设计让人上瘾的产品"和"操控用户"之间的界限在哪里?

这条线确实模糊,但并非不存在。我认为关键区分在于价值对齐

维度负责任的设计操控性设计
核心目标帮助用户达成他们自己的目标最大化用户的使用时长
“喜欢"vs"想要”两者兼顾,实际价值交付优先只追求"想要",忽视"喜欢"
透明度用户知道自己在被"设计"用户不知道自己为何停不下来
退出成本用户可以随时离开且不损失价值用沉没成本、社交压力绑定用户
长期效果用户的能力和效率真正提升用户的时间被消耗但没有实质收获

检验标准:如果用户完全理解了你的设计意图,他们还会选择使用吗?

如果答案是"会",说明你的设计是价值对齐的——用户知道你在"设计"他们的行为,但他们认同这个行为对他们有益。如果答案是"不会",说明你的设计可能已经越过了伦理边界。

4.2 何时应该"关闭"多巴胺开关

并非所有场景都适合激活多巴胺系统。以下场景应该主动"关闭"或"弱化"多巴胺开关:

场景原因建议做法
涉及重大决策(医疗、法律、金融)多巴胺驱动冲动,重大决策需要理性提供冷静、客观的信息,避免惊喜式设计
儿童使用场景儿童的神经系统对多巴胺调控更敏感严格限制可变奖励,使用固定回报
用户明确表示"完成任务就走"尊重用户意图是基本伦理识别用户意图,完成任务后简洁收尾,不追加缺口
用户已出现过度使用迹象继续激活会导致成瘾行为引入使用时长提醒、冷却机制

4.3 伦理自查清单

在设计中引入多巴胺机制之前,请逐条检查:

  • 价值检验:这个设计是否帮助用户达成他们自己的目标(而非只是增加使用时长)?
  • 透明度检验:如果用户知道这个设计机制,他们还会认可吗?
  • "喜欢"检验:用户使用后是否真正获得了价值(而非只是"停不下来")?
  • 退出检验:用户能否轻松离开而不感到被"绑架"?
  • 弱势群体检验:这个设计对未成年人、成瘾倾向人群是否安全?
  • 长期效果检验:持续使用3个月后,用户的能力和生活是否真正改善了?

五、Agent多巴胺设计自查清单(15项)

以下清单可用于 Agent 产品的多巴胺设计评审,逐条自检:

回报设计(5项)

  • 1. 产品是否具备至少2种"多巴胺开关"(质量/速度/范围/学习/创造)?
  • 2. 正预测误差的触发频率是否控制在10%-30%之间(避免耐受)?
  • 3. 是否存在"可靠基线"——大部分交互中Agent的表现稳定可靠?
  • 4. 即时奖励和延迟奖励是否形成了混合体系(不只有短期爽感)?
  • 5. 奖励的"发放节奏"是否偏向可变比率(而非固定比率)?

预期管理(4项)

  • 6. 是否有机制防止用户预期基线过快上移(质量波动、渐进解锁、情境化)?
  • 7. 不同使用场景下,用户的预期是否被合理差异化?
  • 8. Agent 的"惊喜"输出是否始终与用户核心任务相关(避免画蛇添足)?
  • 9. 新用户和老用户的预期管理策略是否有所区分?

"想要"与"喜欢"平衡(3项)

  • 10. 产品是否同时激活了"想要"(粘性)和"喜欢"(实际价值)?
  • 11. 用户在一次深度使用后,是否能明确说出"我获得了什么价值"?
  • 12. 是否存在"空转"场景——用户在消耗时间但没有获得实质价值?

伦理边界(3项)

  • 13. 是否对涉及重大决策的场景关闭了多巴胺开关?
  • 14. 是否有机制识别和干预用户的过度使用行为?
  • 15. 如果用户完全理解了设计机制,他们是否还会选择使用?

六、Agent奖励系统设计模板

以下模板可直接用于 Agent 产品的奖励系统设计:

┌─────────────────────────────────────────────────────────────┐ │ Agent 奖励系统设计模板 │ ├─────────────────────────────────────────────────────────────┤ │ │ │ 产品名称:_______________ │ │ 目标用户:_______________ │ │ 核心场景:_______________ │ │ │ │ 1. 多巴胺开关配置 │ │ ┌──────────┬──────┬──────┬──────┬──────┐ │ │ │ 开关类型 │ 是否启用│ 触发频率│ 惊喜幅度│ 实现方式│ │ │ ├──────────┼──────┼──────┼──────┼──────┤ │ │ │ 质量惊喜 │ □是 □否│ ___% │ ___ │ │ │ │ │ 速度惊喜 │ □是 □否│ ___% │ ___ │ │ │ │ │ 范围惊喜 │ □是 □否│ ___% │ ___ │ │ │ │ │ 学习惊喜 │ □是 □否│ ___% │ ___ │ │ │ │ │ 创造惊喜 │ □是 □否│ ___% │ ___ │ │ │ │ └──────────┴──────┴──────┴──────┴──────┘ │ │ │ │ 2. 奖励类型矩阵 │ │ ┌──────────┬────────────────┬────────────────┐ │ │ │ │ 即时奖励 │ 延迟奖励 │ │ │ ├──────────┼────────────────┼────────────────┤ │ │ │ 信息型 │ ____________ │ ____________ │ │ │ │ 情感型 │ ____________ │ ____________ │ │ │ └──────────┴────────────────┴────────────────┘ │ │ │ │ 3. 预期管理策略 │ │ □ 质量波动:可靠基线 = ___, 惊喜峰值 = ___ │ │ □ 渐进解锁:阶段1___ → 阶段2___ → 阶段3___ │ │ □ 情境化预期:场景A___ / 场景B___ / 场景C___ │ │ │ │ 4. 伦理红线 │ │ □ 多巴胺开关关闭场景:_______________ │ │ □ 过度使用干预机制:_______________ │ │ □ 价值交付验证方式:_______________ │ │ │ └─────────────────────────────────────────────────────────────┘

结语:做"让人上瘾"的产品,但做"让人受益"的上瘾

Schultz 在猴子大脑中记录到的那些多巴胺放电,揭示了一个关于人类本性的深刻真相:我们不是在追求奖励,我们是在追求意外。

这个真相对 AI Agent 产品设计者来说,既是武器也是责任。

作为武器,它让我们有能力设计出真正让人"停不下来"的产品——不是靠强迫,不是靠欺骗,而是靠精确地理解人类的神经机制,并在每一次交互中交付"恰到好处的意外"。

作为责任,它提醒我们:多巴胺是一把双刃剑。你可以用它让用户反复回来,但如果用户回来之后只感到空虚,那你不是在设计产品,你是在制造成瘾。

最好的 Agent 产品,是多巴胺设计的"黄金平衡点"——它让用户"想要"使用,也让用户"喜欢"使用;它制造惊喜,但不制造幻觉;它让人上瘾,但这个"瘾"指向的是真正的能力提升和效率飞跃。

这就是"多巴胺开关"的终极设计原则:

让每一次"爽"的背后,都有真实的价值在支撑。


🔖系列连载中
本文属于「AI Agent × GAP模型」系列(第4篇/共6篇)

  • 上一篇:《从Chat到Act:Agent行动闭环的产品心理学拆解》
  • 下一篇:《上下文工程即缺口工程:让AI Agent精准击中用户信息缺口》
  • 关注本博客,第一时间收到更新推送

💎关注后私信回复"Agent",获取配套资料:

  • Agent多巴胺设计自查清单(15项)
  • 奖励系统设计模板

参考文献

  1. Schultz, W., Dayan, P., & Montague, P. R. (1997). A Neural Substrate of Prediction and Reward.Science, 275(5306), 1593-1599.
  2. Berridge, K. C., & Robinson, T. E. (2003). Parsing Reward.Trends in Neurosciences, 26(9), 507-513.
  3. Skinner, B. F. (1938).The Behavior of Organisms: An Experimental Analysis. Appleton-Century-Crofts.
  4. Loewenstein, G. (1994). The Psychology of Curiosity: A Review and Reinterpretation.Psychological Bulletin, 116(1), 75-98.
  5. Breiter, H. C., Aharon, I., Kahneman, D., Dale, A., & Shizgal, P. (2001). Functional Imaging of Neural Responses to Expectancy and Experience of Monetary Gains and Losses.Neuron, 30(2), 619-639.
  6. Litman, J. A. (2005). Curiosity and the Pleasures of Learning: Wanting and Liking New Information.Cognition & Emotion, 19(6), 793-814.
  7. Kang, M. J., et al. (2009). The Wandering Mind: Pupillometry of Spontaneous Thought While Reading.Psychological Science, 20(7), 830-836.
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/14 16:42:26

PNG、JPEG、WebP图片格式怎么选?从bpp(每像素位数)角度帮你算笔账

PNG、JPEG、WebP图片格式实战选择指南&#xff1a;从bpp到成本优化的深度解析 当你在电商平台上传商品大图时&#xff0c;是否遇到过"图片体积超限"的提示&#xff1f;或是发现精心设计的App界面因为图片加载慢而被用户吐槽&#xff1f;这些问题的核心往往在于图片格…

作者头像 李华
网站建设 2026/5/14 16:39:03

Visual Studio 2026/.NET10 项目热重载失效的解决方案

近期升级到了 VS 2026 版本&#xff0c;也将项目升级到了 .NET10。发现热重载挂了。原文链接&#xff1a;https://github.com/microsoft/WindowsAppSDK/issues/6006#issuecomment-3541419452 https://github.com/microsoft/WindowsAppSDK/issues/6006#issuecomment-3541419452下…

作者头像 李华
网站建设 2026/5/14 16:36:10

揭秘磁力链接转种子工具:从临时链接到永久档案的技术进化

揭秘磁力链接转种子工具&#xff1a;从临时链接到永久档案的技术进化 【免费下载链接】Magnet2Torrent This will convert a magnet link into a .torrent file 项目地址: https://gitcode.com/gh_mirrors/ma/Magnet2Torrent 在数字资源管理的世界中&#xff0c;我们发现…

作者头像 李华
网站建设 2026/5/14 16:35:08

基于多智能体协同的文档自动化框架:原理、部署与实战

1. 项目概述&#xff1a;当开源智能体遇上文档自动化最近在折腾一个挺有意思的项目&#xff0c;叫DaMaxime/openclaw-agents-docs。乍一看这个名字&#xff0c;你可能觉得它就是个普通的文档仓库&#xff0c;但如果你对“智能体”和“自动化文档”这两个领域有所涉猎&#xff0…

作者头像 李华
网站建设 2026/5/14 16:33:11

长期项目使用Taotoken聚合API在容灾与路由层面的体验

&#x1f680; 告别海外账号与网络限制&#xff01;稳定直连全球优质大模型&#xff0c;限时半价接入中。 &#x1f449; 点击领取海量免费额度 长期项目使用Taotoken聚合API在容灾与路由层面的体验 在构建一个长期运行的Python自动化项目时&#xff0c;我们选择将大模型调用统…

作者头像 李华