news 2026/4/23 17:52:27

前端跑模型?WebGPU + Transformer.js 实战:在浏览器里直接运行 Whisper 语音识别,无需后端服务器

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
前端跑模型?WebGPU + Transformer.js 实战:在浏览器里直接运行 Whisper 语音识别,无需后端服务器

😲 前言:为什么 WebAI 是下一个风口?

传统的 AI 应用架构是Client-Server模式。哪怕只是识别一句“你好”,音频也要飞越千山万水传到服务器。
WebAI (WebAssembly + WebGPU)将计算移到了Edge (边缘端)

优势极其残暴:

  1. 零服务器成本:白嫖用户的显卡算力,老板看了直呼内行。
  2. 绝对隐私:数据根本不出浏览器,特别适合医疗、金融等敏感场景。
  3. 零延迟:没有网络 RTT,本地推理,即刻响应。

🏗️ 一、 核心技术栈:浏览器里的“Hugging Face”

我们要用到的神器是Transformer.js
它是 Hugging Face 的 JavaScript 移植版,旨在让 Python 的transformers库在 Node.js 和浏览器中无缝运行。配合 ONNX Runtime 和 WebGPU,它能跑出接近原生的速度。

架构对比图 (Mermaid):

WebAI 前端模式

浏览器沙盒

MediaStream API

调用

加速

直接输出文本

Transformer.js 引擎

用户麦克风

浏览器 (Chrome/Edge)

WebAssembly / WebGPU

Whisper ONNX 模型 (本地缓存)

传统后端 AI 模式

上传音频 (慢/费流量)

下载文本

用户麦克风

后端 Python 服务 (GPU集群)


🛠️ 二、 实战开发:3 步搞定

我们将使用Vite + React(或者纯原生 JS) 来搭建。

1. 安装依赖
npminstall@xenova/transformers

注:@xenova/transformers是目前最流行的维护版本。

2. 关键点:使用 Web Worker (必看!)

在主线程跑 AI 模型会阻塞 UI 渲染,导致页面“卡死”。必须把推理逻辑放在Web Worker中。

**文件:worker.js**

import{pipeline}from'@xenova/transformers';// 单例模式,防止重复加载模型classMyPipeline{statictask='automatic-speech-recognition';staticmodel='Xenova/whisper-tiny';// 使用 tiny 模型,体积小(约40MB)staticinstance=null;staticasyncgetInstance(progress_callback=null){if(self.instance===null){// 加载 pipelineself.instance=awaitpipeline(self.task,self.model,{progress_callback,// 如果浏览器支持 WebGPU,这里可以开启加速// device: 'webgpu',// dtype: 'fp32', // 或 'q8' 量化版});}returnself.instance;}}// 监听主线程消息self.addEventListener('message',async(event)=>{const{audio}=event.data;// 1. 获取模型实例lettranscriber=awaitMyPipeline.getInstance((data)=>{// 回传加载进度self.postMessage({status:'loading',data});});// 2. 开始识别self.postMessage({status:'start'});// Whisper 接受浮点数数组作为音频输入letoutput=awaittranscriber(audio,{top_k:0,do_sample:false,language:'chinese',// 强制中文,也可 autochunk_length_s:30,stride_length_s:5,});// 3. 回传结果self.postMessage({status:'complete',output});});
3. 主界面逻辑 (React 示例)

在主线程,我们需要处理录音,并将音频数据转换为模型能接受的格式(Float32Array)。

**文件:App.jsx**

import { useEffect, useRef, useState } from 'react'; function App() { const [result, setResult] = useState(''); const [status, setStatus] = useState('准备就绪'); const worker = useRef(null); useEffect(() => { // 初始化 Worker worker.current = new Worker(new URL('./worker.js', import.meta.url), { type: 'module', }); worker.current.onmessage = (event) => { const { status, data, output } = event.data; if (status === 'loading') { setStatus(`模型加载中... ${data.file} ${Math.round(data.progress)}%`); } else if (status === 'complete') { setStatus('识别完成'); setResult(output.text); } }; }, []); const startRecord = async () => { setStatus('正在录音...'); const stream = await navigator.mediaDevices.getUserMedia({ audio: true }); const mediaRecorder = new MediaRecorder(stream); const audioChunks = []; mediaRecorder.ondataavailable = (e) => audioChunks.push(e.data); mediaRecorder.onstop = async () => { const audioBlob = new Blob(audioChunks); const arrayBuffer = await audioBlob.arrayBuffer(); const audioContext = new AudioContext(); const audioBuffer = await audioContext.decodeAudioData(arrayBuffer); // 获取左声道数据 (Whisper 只需单声道) const audioData = audioBuffer.getChannelData(0); setStatus('正在推理...'); // 发送给 Worker worker.current.postMessage({ audio: audioData }); }; mediaRecorder.start(); setTimeout(() => mediaRecorder.stop(), 3000); // 录制 3 秒测试 }; return ( <div> <h1>WebAI 语音识别</h1> <p>状态: {status}</p> <button onClick={startRecord}>🎤 点击录音 3 秒</button> <div style={{ marginTop: 20, padding: 10, border: '1px solid #ccc' }}> {result || '等待识别结果...'} </div> </div> ); } export default App;

🚀 三、 性能实测与坑点

当你点击“录音”后,神奇的事情发生了:

  1. 第一次运行时,浏览器会从 Hugging Face 下载whisper-tiny量化模型(约 40MB),保存在 Cache Storage 中。
  2. 后续运行时,无需下载。
  3. 在 M1 MacBook Air 上,识别 3 秒语音仅需200ms左右。
  4. 在带有独显的 Windows PC 上开启 WebGPU 后,速度更是起飞。

⚠️ 避坑指南:

  1. SharedArrayBuffer 问题:ONNX Runtime 多线程需要开启 HTTP 响应头Cross-Origin-Opener-Policy: same-originCross-Origin-Embedder-Policy: require-corp。如果报错,请在 Vite 配置里加上这两个 Header。
  2. 模型大小:推荐使用quantized(量化) 版本的模型,精度损失很小,但体积和内存占用减少一半。
  3. 兼容性:WebGPU 目前在 Chrome/Edge 113+ 上支持最好,Safari 还在追赶中(可回退到 WebAssembly 模式)。

🎯 总结

前端开发的边界正在无限扩张。
昨天我们还在切图、调 CSS,今天我们已经可以在浏览器里跑神经网络了。
WebAI 不是要取代后端 AI,而是通过“混合计算”,把小模型、实时性要求高的任务利用前端算力消化掉,从而为企业实现巨大的“降本增效”。

Next Step:
既然能跑 Whisper,那能不能跑 LLM?
答案是肯定的。去搜一下WebLLM项目,试着把 Llama-3 塞进浏览器,做一个完全离线的 ChatGPT 吧!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 15:51:55

Dev-C++ 安装教程

下载 官网地址如下 https://github.com/Embarcadero/Dev-Cpp/releases 文件名带 No_Compiler 的版本没有内置编译器&#xff0c;不推荐 我把下载好的安装包放网盘了 『来自123云盘用户小雪HuaHua的分享』Embarcadero_Dev-Cpp_6.3_TDM-GCC_9.2_Setup.exe 链接&#xff1a;h…

作者头像 李华
网站建设 2026/4/23 15:53:20

anaconda配置pytorch环境缓慢?国内镜像加速不如直接用镜像

告别conda慢速安装&#xff1a;用PyTorch-CUDA镜像实现秒级环境部署 在深度学习项目启动阶段&#xff0c;你是否经历过这样的场景&#xff1f; 打开终端&#xff0c;输入一行 conda install pytorch torchvision cudatoolkit11.8 -c pytorch&#xff0c;然后泡杯咖啡、刷会儿手…

作者头像 李华
网站建设 2026/4/23 14:12:51

PyTorch-v2.8 + CUDA 12:高性能GPU计算的终极解决方案

PyTorch v2.8 CUDA 12&#xff1a;构建现代AI系统的高效实践 在深度学习模型日益复杂、训练数据量爆炸式增长的今天&#xff0c;如何快速搭建一个稳定、高性能且易于维护的GPU计算环境&#xff0c;已成为算法工程师和研究人员面临的核心挑战之一。传统方式中&#xff0c;手动配…

作者头像 李华
网站建设 2026/4/23 12:50:50

力扣hot100:有效的括号

题目描述&#xff1a;解题思路&#xff1a;栈先入后出特点恰好与本题括号排序特点一致&#xff0c;即若遇到左括号入栈&#xff0c;遇到右括号时将对应栈顶左括号出栈&#xff0c;则遍历完所有括号后 stack 仍然为空&#xff1b; 建立哈希表 dic 构建左右括号对应关系&#xff…

作者头像 李华
网站建设 2026/4/23 14:44:34

机器学习所需技能

摘要&#xff1a;机器学习作为快速发展领域&#xff0c;需要综合掌握编程&#xff08;Python/R/Java&#xff09;、统计学与数学&#xff08;代数/概率/优化&#xff09;、数据结构等核心技术&#xff0c;同时具备数据预处理、可视化及各类算法&#xff08;神经网络/NLP等&…

作者头像 李华
网站建设 2026/4/23 12:59:05

PyTorch分布式训练教程:基于CUDA-v2.8多卡并行实战

PyTorch分布式训练实战&#xff1a;基于CUDA-v2.8的多卡并行深度指南 在大模型时代&#xff0c;单张GPU已经难以支撑日益增长的训练需求。从BERT到LLaMA&#xff0c;参数量级的跃迁迫使开发者必须掌握分布式训练这一核心技术。而现实中&#xff0c;许多团队仍困于环境配置、版…

作者头像 李华