news 2026/4/23 17:51:31

40_Spring AI 干货笔记之 Transformers (ONNX) 嵌入

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
40_Spring AI 干货笔记之 Transformers (ONNX) 嵌入

一、Transformers (ONNX) 嵌入

TransformersEmbeddingModel 是一个 EmbeddingModel 实现,它使用选定的 句子转换器 在本地计算 句子嵌入。

您可以使用任何 HuggingFace 嵌入模型。

它使用 预训练 的 Transformer 模型,这些模型已序列化为 开放神经网络交换(ONNX) 格式。

应用 Deep Java Library 和 Microsoft ONNX Java 运行时库来运行 ONNX 模型并在 Java 中计算嵌入。

二、先决条件

要在 Java 中运行,我们需要将分词器和 Transformer 模型序列化为 ONNX 格式。

使用 optimum-cli 序列化 - 一种快速实现此目的的方法是使用 optimum-cli 命令行工具。以下代码片段准备了一个 Python 虚拟环境,安装所需的包,并使用 optimum-cli 序列化(例如导出)指定的模型:

python3 -m venv venvsource./venv/bin/activate(venv)pipinstall--upgrade pip(venv)pipinstalloptimum onnx onnxruntime sentence-transformers(venv)optimum-cliexportonnx --model sentence-transformers/all-MiniLM-L6-v2 onnx-output-folder

该代码片段将 sentence-transformers/all-MiniLM-L6-v2 转换器导出到 onnx-output-folder 文件夹中。后者包含嵌入模型使用的 tokenizer.json 和 model.onnx 文件。

您可以选择任何 HuggingFace 转换器标识符或直接提供文件路径来替代 all-MiniLM-L6-v2。

三、自动配置

Spring AI 的自动配置和 starter 模块的工件名称发生了重大变化。更多信息请参阅 升级说明。

Spring AI 为 ONNX Transformer 嵌入模型提供了 Spring Boot 自动配置。要启用它,请将以下依赖项添加到项目的 Maven pom.xml 文件中:

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-starter-model-transformers</artifactId></dependency>

或添加到您的 Gradle build.gradle 构建文件中:

dependencies{implementation'org.springframework.ai:spring-ai-starter-model-transformers'}

请参阅 依赖管理 部分,将 Spring AI BOM 添加到您的构建文件中。请参阅 工件仓库 部分,将这些仓库添加到您的构建系统中。

要配置它,请使用 spring.ai.embedding.transformer.* 属性。

例如,将此添加到您的 application.properties 文件中,以使用 intfloat/e5-small-v2 文本嵌入模型配置客户端:

spring.ai.embedding.transformer.onnx.modelUri=https://huggingface.co/intfloat/e5-small-v2/resolve/main/model.onnx spring.ai.embedding.transformer.tokenizer.uri=https://huggingface.co/intfloat/e5-small-v2/raw/main/tokenizer.json

支持的完整属性列表如下:

3.1 嵌入属性

嵌入自动配置的启用和禁用现在通过顶级属性 spring.ai.model.embedding 前缀进行配置。

  • 要启用:spring.ai.model.embedding=transformers(默认启用)

  • 要禁用:spring.ai.model.embedding=none(或任何与 transformers 不匹配的值)

进行此更改是为了允许配置多个模型。

3.2 错误和特殊情况

如果看到类似 Caused by: ai.onnxruntime.OrtException: Supplied array is ragged,… 的错误,您还需要在 application.properties 中启用分词器填充,如下所示:

spring.ai.embedding.transformer.tokenizer.options.padding=true

如果出现类似 The generative output names don’t contain expected: last_hidden_state. Consider one of the available model outputs: token_embeddings, …​. 的错误,您需要根据您的模型将模型输出名称设置为正确的值。请考虑错误消息中列出的名称。例如:

spring.ai.embedding.transformer.onnx.modelOutputName=token_embeddings

如果出现类似 ai.onnxruntime.OrtException: Error code - ORT_FAIL - message: Deserialize tensor onnx::MatMul_10319 failed.GetFileLength for ./model.onnx_data failed:Invalid fd was supplied: -1 的错误,这意味着您的模型大于 2GB,并被序列化为两个文件:model.onnx 和 model.onnx_data。

model.onnx_data 称为外部数据,应位于与 model.onnx 相同的目录下。

目前唯一的解决方法是将大型的 model.onnx_data 复制到运行 Boot 应用程序的文件夹中。

如果出现类似 ai.onnxruntime.OrtException: Error code - ORT_EP_FAIL - message: Failed to find CUDA shared provider 的错误,这意味着您正在使用 GPU 参数
spring.ai.embedding.transformer.onnx.gpuDeviceId,但缺少 onnxruntime_gpu 依赖项。

<dependency><groupId>com.microsoft.onnxruntime</groupId><artifactId>onnxruntime_gpu</artifactId></dependency>

请根据 CUDA 版本选择适当的 onnxruntime_gpu 版本(ONNX Java 运行时)。

四、手动配置

如果不使用 Spring Boot,您可以手动配置 Onnx Transformers 嵌入模型。为此,请将 spring-ai-transformers 依赖项添加到项目的 Maven pom.xml 文件中:

<dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-transformers</artifactId></dependency>

请参阅 依赖管理 部分,将 Spring AI BOM 添加到您的构建文件中。

然后创建一个新的 TransformersEmbeddingModel 实例,并使用 setTokenizerResource(tokenizerJsonUri) 和 setModelResource(modelOnnxUri) 方法设置导出的 tokenizer.json 和 model.onnx 文件的 URI。(支持 classpath:、file: 或 https: URI 模式)。

如果未显式设置模型,TransformersEmbeddingModel 默认使用 sentence-transformers/all-MiniLM-L6-v2:

以下代码片段说明了如何手动使用 TransformersEmbeddingModel:

TransformersEmbeddingModelembeddingModel=newTransformersEmbeddingModel();// (可选)默认为 classpath:/onnx/all-MiniLM-L6-v2/tokenizer.jsonembeddingModel.setTokenizerResource("classpath:/onnx/all-MiniLM-L6-v2/tokenizer.json");// (可选)默认为 classpath:/onnx/all-MiniLM-L6-v2/model.onnxembeddingModel.setModelResource("classpath:/onnx/all-MiniLM-L6-v2/model.onnx");// (可选)默认为 ${java.io.tmpdir}/spring-ai-onnx-model// 默认只缓存 http/https 资源。embeddingModel.setResourceCacheDirectory("/tmp/onnx-zoo");// (可选)如果看到类似 "ai.onnxruntime.OrtException: Supplied array is ragged, ..." 的错误,请设置分词器填充embeddingModel.setTokenizerOptions(Map.of("padding","true"));embeddingModel.afterPropertiesSet();List<List<Double>>embeddings=this.embeddingModel.embed(List.of("Hello world","World is big"));

如果手动创建 TransformersEmbeddingModel 实例,则必须在设置属性之后、使用客户端之前调用 afterPropertiesSet() 方法。

第一次 embed() 调用会下载大型 ONNX 模型并将其缓存在本地文件系统中。因此,第一次调用可能比平时花费更长的时间。使用 #setResourceCacheDirectory() 方法设置存储 ONNX 模型的本地文件夹。默认缓存文件夹是 ${java.io.tmpdir}/spring-ai-onnx-model。

将 TransformersEmbeddingModel 创建为 Bean 更为方便(且推荐)。这样您就不必手动调用 afterPropertiesSet()。

@BeanpublicEmbeddingModelembeddingModel(){returnnewTransformersEmbeddingModel();}
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 13:28:58

(20)回顾反射机制

分析方法四要素 我们先来看一下&#xff0c;不使用反射机制调用一个方法需要几个要素的参与。 有一个这样的类&#xff1a; package com.powernode.reflect;/*** author 动力节点* version 1.0* className SystemService* since 1.0**/ public class SystemService {public voi…

作者头像 李华
网站建设 2026/4/23 13:30:15

18、Linux 网络工具使用指南

Linux 网络工具使用指南 1. 网络信息查看与路由表 在 Linux 系统中,我们可以通过一些命令来查看网络接口的详细信息。例如,使用以下命令可以查看网络接口的配置: inet addr:192.168.1.2 Bcast:192.168.1.255 Mask:255.255.255.0 inet6 addr: fe80::21d:9ff:fe9b:9967/64…

作者头像 李华
网站建设 2026/4/23 13:30:04

Quill编辑器如何实现毫秒级多人实时协作:核心技术深度揭秘

Quill编辑器如何实现毫秒级多人实时协作&#xff1a;核心技术深度揭秘 【免费下载链接】quill Quill 是一个为兼容性和可扩展性而构建的现代所见即所得编辑器。 项目地址: https://gitcode.com/GitHub_Trending/qu/quill 你是否曾好奇&#xff0c;当多人在线同时编辑同一…

作者头像 李华
网站建设 2026/4/17 6:00:50

数据流图教程

软件工程 — 数据流图的画法-腾讯云开发者社区-腾讯云https://cloud.tencent.com/developer/article/2039273

作者头像 李华
网站建设 2026/4/23 12:54:06

14、并发与底层机制:SML/NJ 深入解析

并发与底层机制:SML/NJ 深入解析 1. 并发中的信号量 在并发编程中,信号量是一种重要的同步机制。这里介绍了使用同步变量(M - 变量)实现信号量的替代方法,这种实现更接近 Java 等语言的传统实现,多个线程作为对等体合作以保证临界区的安全,与依赖中央管理线程的实现形…

作者头像 李华
网站建设 2026/4/23 14:24:55

19、《Swerve服务器详细设计解析》

《Swerve服务器详细设计解析》 在软件开发领域,服务器的设计与实现是一个复杂且关键的任务。本文将深入探讨Swerve服务器的详细设计,包括其模块依赖、构建过程、各层功能以及关键代码实现。 模块依赖与代码遵循方式 在Swerve服务器的设计中,顶层三层模块之间的主要依赖关…

作者头像 李华