news 2026/5/10 0:39:07

openpi0.5 自定义数据集的训练参数配置

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
openpi0.5 自定义数据集的训练参数配置

自定义aloha数据 代码训练参数配置

TrainConfig(# 这里在pi0模型的基础上,微调叠毛巾模型name="pi0_aloha_towel2",# 采用pi0的结构,如果是采用pi0.5,则这行改成model=pi0_config.Pi0Config(pi05=True),model=pi0_config.Pi0Config(),# 自定义数据集的位置data=LeRobotAlohaDataConfig(# 将自定义数据集放在本地的xxxx/.che/huggingface/repo_id目录下repo_id="aloha_fold_towel_lerobot",assets=AssetsConfig(assets_dir="/yonghu/openpi/assets",# 归一化文件的存放位置asset_id="pi0_aloha_towel2/aloha_fold_towel_lerobot",),default_prompt="fold the towel",repack_transforms=_transforms.Group(inputs=[_transforms.RepackTransform({"images":{"cam_high":"observation.images.cam_high","cam_left_wrist":"observation.images.cam_left_wrist","cam_right_wrist":"observation.images.cam_right_wrist",},"state":"observation.state","actions":"action",})]),),weight_loader=weight_loaders.CheckpointWeightLoader("gs://openpi-assets/checkpoints/pi0_aloha_towel/params"),num_train_steps=20_000,batch_size=64,),
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/23 8:19:26

Linux,安装 ARM 交叉编译器

为什么安装ARM交叉编译器 ? 1、架构不同: Linux PC (Intel/AMD) 通常是 x86/x86_64 架构。 如树莓派、手机、路由器、IoT设备…是 ARM 架构。 不同架构的 CPU 指令集不同,直接编译的程序无法跨架构运行 2、交叉编译的作用: 交…

作者头像 李华
网站建设 2026/5/3 20:03:11

开源绘画大模型简单了解

根据 c 站的分类来看 SD 系列:SD 1.5,SD 1.5 LCM等 SD 开头的,相对来说最久远不过插件丰富 SDXL (高清进阶),包括SDXL 1.0,Pony,Playground V2等 现在性能上最强:Flux.1 D(对应 dev …

作者头像 李华
网站建设 2026/5/9 3:59:50

30岁转行AI大模型:从传统行业到AI算法工程师的蜕变之路_30岁转行AI大模型,刚好赶上风口!

本文分享了一位30岁从业者从传统制造业成功转型为AI大模型算法工程师的真实经历。作者详细介绍了从Python基础学习到专攻大模型的技术路径,以及项目实践和面试经验。文章强调30岁转行AI大模型不仅来得及,而且正值风口,鼓励转行者不要被年龄限…

作者头像 李华
网站建设 2026/5/2 14:29:55

DeepSeek Engram技术解析:大模型条件记忆与稀疏计算的完美结合

DeepSeek发布的Engram技术通过条件记忆作为MoE模型的补充稀疏性维度,实现了O(1)复杂度的知识检索。该技术采用词表压缩、哈希方法、多头查表等创新机制,平衡了神经网络计算与静态记忆资源配比。实验表明,在同等参数量和计算量条件下&#xff…

作者头像 李华
网站建设 2026/4/23 11:18:38

AIGC检测率太高?这款小众工具比话让我从80%降到8%

AIGC检测率太高?这款小众工具比话让我从80%降到8% TL;DR 论文AIGC检测率飙到80%?别慌,我发现了一款小众但超好用的工具——比话降AI。用它处理之后,我的AIGC率直接从80%降到了8%,效果惊艳。比话用的是自研Pallas引擎…

作者头像 李华
网站建设 2026/5/9 5:21:10

北大DeepSeek新突破:Engram模块让大模型推理能力提升5.0+

DeepSeek与北大合作提出Engram模块,将大模型的"计算"与"记忆"分离。传统模型用多层网络"重建"静态知识效率低下,而Engram通过N-gram哈希实现O(1)时间复杂度的知识检索。实验显示,相同参数下,Engram…

作者头像 李华