章
目
录
今天要给大家介绍的LHM(Large Animatable Human Reconstruction Model),是阿里通义aigc3d团队开发的开源项目,能实现从单张图片生成支持动作的3D人体模型,在多个领域都有广泛应用。
一、LHM项目亮点
LHM的厉害之处在于运用AI技术,短短几秒就能把2D图像变成3D模型。这一过程不仅速度快,还支持实时预览,生成模型后可以直接查看效果,还能随意调整姿势。在技术实现上,LHM采用3D Gaussian Splatting技术来展现人体,搭配多模态变换器架构,这样能很好地保留衣服纹理和几何细节,让生成的3D模型更加逼真。项目在2025年3月13日首次发布,还贴心地提供了预训练模型和代码。
二、LHM功能
- 快速生成3D人体模型:只要给LHM一张图片,它就能在几秒内完成3D人体模型的生成。
- 实时渲染查看:生成的模型支持实时渲染,生成后能马上查看,方便又高效。
- 动作调整与动态视频生成:可以对生成的人体模型调整姿势,还能生成动态视频,增加模型的生动性。
- 输出通用格式方便编辑:能输出如OBJ格式的3D网格文件,这种文件兼容性强,方便用其他3D软件进行后续编辑。
- 自带预训练模型:项目里包含LHM-0.5B和LHM-1B等预训练模型,用户不用自己去训练模型,节省了大量时间和精力。
- 本地可视化操作:集成了Gradio界面,通过这个界面,用户可以在本地进行可视化操作,操作起来更加直观。
- 视频动作提取与应用:提供了视频处理管道,能从视频里提取动作,然后应用到模型上,进一步丰富模型的动作表现。
三、LHM安装教程
(一)准备运行环境
LHM对运行环境有一定要求。系统需要Python 3.10,CUDA要支持11.8或12.1版本。显卡方面,推荐使用NVIDIA的A100或4090等型号,并且显存至少16GB。
检查Python版本:
python --version
检查CUDA版本:
nvcc --version
(二)克隆项目仓库
在终端输入以下命令,就能把LHM的代码下载到本地:
git clone https://github.com/aigc3d/LHM.git
cd LHM
(三)安装依赖项
根据自己的CUDA版本运行对应的脚本:
CUDA 11.8:
sh ./install_cu118.sh
CUDA 12.1:
sh ./install_cu121.sh
要是脚本安装失败,也可以手动安装依赖:
pip install -r requirements.txt
(四)下载模型
模型一般会自动下载,如果想手动下载,可以用下面的命令:
LHM-0.5B模型:
wget https://virutalbuy-public.oss-cn-hangzhou.aliyuncs.com/share/aigc3d/data/for_lingteng/LHM/LHM-0.5B.tar
tar -xvf LHM-0.5B.tar
LHM-1B模型:
wget https://virutalbuy-public.oss-cn-hangzhou.aliyuncs.com/share/aigc3d/data/for_lingteng/LHM/LHM-1B.tar
tar -xvf LHM-1B.tar
下载完成后,把解压后的文件放到项目根目录。
(五)验证安装是否成功
运行下面的测试命令,检查环境是否正常:
python app.py
如果安装成功,会启动Gradio界面。
四、LHM操作指南
(一)生成3D模型
- 准备图片素材:找一张包含人体全身的清晰图片,保存到本地,比如
<path_to_image>/person.jpg
。 - 运行推理脚本:在终端输入:
bash ./inference.sh ./configs/inference/human-lrm-1B.yaml LHM-1B <path_to_image>/ ./output/
这里的<path_to_image>
是图片的路径,./output/
是输出文件夹,生成的结果会保存在这个文件夹里。
3. 查看生成结果:生成完成后,在<output>
文件夹里会有3D模型文件和渲染视频。可以用Blender等3D软件打开网格文件查看模型,也可以直接播放视频。
(二)给模型添加动作
- 准备动作序列文件:项目自带了示例动作文件,在
<LHM根目录>/train_data/motion_video/mimo1/smplx_params
路径下。当然,也可以用自己的SMPL-X参数文件。 - 运行动作脚本:输入以下命令:
bash ./inference.sh ./configs/inference/human-lrm-1B.yaml LHM-1B <path_to_image>/ <path_to_motion>/smplx_params
其中<path_to_motion>
是动作文件的路径。
3. 预览动作视频:输出文件夹里会生成添加动作后的视频,直接播放就能看到效果。
(三)使用Gradio界面操作
- 启动界面:在终端运行:
python app.py
之后浏览器会自动打开http://0.0.0.0:7860
。
2. 上传图片:在打开的界面里上传一张人体图片,然后点击“提交”。
3. 获取结果:稍等几秒,界面上就会显示渲染图片和动作视频,可以直接下载查看。
(四)导出3D网格文件
- 运行导出脚本:在终端输入:
bash ./inference_mesh.sh ./configs/inference/human-lrm-1B.yaml LHM-1B
- 找到导出文件:输出文件夹里会出现OBJ格式的网格文件,用Blender或Maya等3D软件就能对其进行编辑。
五、使用LHM的注意事项
- 图片质量影响效果:使用的图片要清晰,背景尽量简单,这样生成的3D模型效果会更好。
- 动作质量决定呈现效果:添加动作时,最终的动作效果取决于输入动作的质量。
- 显存不足的应对方法:如果电脑的显存不够,可以试试LHM-0.5B模型,它相对更节省显存。
以上就是阿里通义开源的LHM项目使用详解 单张图片秒变可动3D人体模型的全部内容,希望对你有帮助!