news 2026/4/23 12:55:56

【翻译】【SOMEIP-SD】Page62 - Page64

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【翻译】【SOMEIP-SD】Page62 - Page64

文章目录

      • 5.1.4 Service Discovery Communication Behavior
        • 5.1.4.1 Startup Behavior

5.1.4 Service Discovery Communication Behavior

[PRS_SOMEIPSD_00800]
SOME/IP-SD应尽可能减少Service Discovery message的数量,尽量将更多的entry放在一个Message中发出。

  • 属于不同服务的entry可以一起发送
  • 不同类型的entry可以一起发送
    • Offer Service Entry 和 Find Service Entry
    • Subscribe Eventgroup Ack Entry and Subscribe Eventgroup Nack entry
5.1.4.1 Startup Behavior

[PRS_SOMEIPSD_00395]
对于每个服务实例,至少考虑在以下三个阶段发送Service Discovery

  • Initial Wait Phase
  • Repetition Phase
  • Main Phase

注意:
实际的状态机设计应不止以上三个状态。例如:本地服务还处于down的状态,而非本地服务已经被感知到,则本地服务启动后无需再去查询远程服务。(本地只当前ECU内的服务)

[PRS_SOMEIPSD_00397]
对于一个客户端为链接某个服务所创建的“客户端侧服务端实例”,当与服务端已建立链接,且已被Application层请求,“客户端侧服务端实例”应进入Initial Wait Phase状态

[PRS_SOMEIPSD_00133]
对于一个客户端为链接某个服务所创建的“客户端侧服务端实例”,当与服务端已建立链接,且服务端已可用时,“客户端侧服务端实例”应进入Initial Wait Phase状态

注意:
链接已经建立但服务端尚不可用的情况是存在的。
服务端可能会依赖其他应用、传感器、执行器等资源。当服务所需的所有基础资源都已齐备查询或提供服务接口才是合适的。

[PRS_SOMEIPSD_00399]
Service Discovery在进入Initial Wait状态后,应等待INITIAL_DELAY配置的时间后才能发送Service Instance的第一个消息。

[PRS_SOMEIPSD_00400]
INITIAL_DELAY应定义延迟的最大和最小值

[PRS_SOMEIPSD_00401]
实际的延迟时间应为INITIAL_DELAY规定的最小值和最大值之间的一个随机值。

[PRS_SOMEIPSD_00804]
如果ClientService和ServerService分别引用相同的ClientServiceTimer和ServerServiceTimer,并且确保引用的ClientService和Server Service分别在同一时间点被请求和释放,则服务发现应使用相同的随机值。

[PRS_SOMEIPSD_00805]
如果ClientServices和ServerService分别引用其自己的ClientServiceTimer和ServerServiceTimer,则服务发现应为每个ClientService和ServerService使用不同的随机值。因此,如果ClientService或ServerService进入初始等待阶段,他们应在初始等待阶段使用单独计算的随机值。

[PRS_SOMEIPSD_00404]
当第一个消息被发送后,服务实例应进入Repetition Phase状态。

[PRS_SOMEIPSD_00405]
Service Discovery需要在Repetition Phase状态下等待基于REPETITIONS_BASE_DELAY规定的时间

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/16 20:40:10

Open-AutoGLM如何做到断点续训:5个核心组件揭示高可用设计秘密

第一章:Open-AutoGLM任务中断恢复机制概述在大规模语言模型训练与推理过程中,任务执行可能因硬件故障、网络波动或资源调度异常而中断。Open-AutoGLM 提供了一套健壮的任务中断恢复机制,确保长时间运行的自动化任务能够在中断后从最近保存的状…

作者头像 李华
网站建设 2026/4/18 7:17:15

智能菜谱时代来临,Open-AutoGLM为何成为行业唯一选择?

第一章:智能菜谱时代来临,Open-AutoGLM的行业破局之路随着大模型技术向垂直领域渗透,智能菜谱正从简单的食材推荐系统进化为具备认知推理能力的生活助手。Open-AutoGLM 作为开源多模态语言模型在饮食健康领域的创新实践,首次实现了…

作者头像 李华
网站建设 2026/4/18 16:03:33

Open-AutoGLM实战案例解析:一名程序员的租房信息净化之路

第一章:Open-AutoGLM实战背景与租房信息净化挑战在城市化进程加速的背景下,线上租房平台积累了海量非结构化数据,其中包含大量重复、错别字、格式混乱甚至虚假的信息。这些噪声严重制约了房源推荐系统的精准度与用户体验。Open-AutoGLM 作为一…

作者头像 李华
网站建设 2026/4/18 11:01:01

Open-AutoGLM推理延迟太高?掌握这7种优化方法让你的模型响应速度翻倍

第一章:Open-AutoGLM 推理速度优化路径在部署 Open-AutoGLM 模型时,推理速度直接影响用户体验与系统吞吐能力。为提升其性能表现,需从模型结构、计算资源调度和运行时优化三个维度综合施策。模型量化压缩 通过将浮点权重从 FP32 转换为 INT8&…

作者头像 李华
网站建设 2026/4/23 12:19:25

Open-AutoGLM推理资源不足?这4个关键技术让你逆风翻盘

第一章:Open-AutoGLM推理资源不足的挑战本质在部署和运行 Open-AutoGLM 这类大规模语言模型时,推理阶段常面临显著的资源瓶颈。其核心挑战源于模型参数量庞大、上下文依赖复杂以及实时响应需求之间的矛盾。尽管训练阶段可借助分布式计算与高性能集群完成…

作者头像 李华
网站建设 2026/4/22 19:35:29

【企业级日志分析实战】:90%工程师忽略的Open-AutoGLM异常信号

第一章:Open-AutoGLM异常信号的认知盲区在深度学习与自动化模型生成融合的前沿领域,Open-AutoGLM作为开源项目承载了大量对自动语言建模的期待。然而,在其快速迭代的过程中,开发者往往忽视了异常信号的早期识别机制,导…

作者头像 李华