机器视觉 增强现实分享 http://blog.sciencenet.cn/u/wanglin193

博文

写了十多年的科学网博客文章,截图展示一下

已有 675 次阅读 2025-9-2 08:26 |个人分类:备忘|系统分类:科研笔记

科学网博客2023年之前的博文都无法对外展示,而2021年之后我就没有再更新过,所以打开我的博客主页,空空荡荡。今天更新一篇,把写了十多年的旧文章目录截图放在这里展示一下。

其中有最近几年一直关注并作为谋生手段之一的人体三维重建。比如人体SMPL模型的形状和姿态参数的定义:

2018年开始对三维网格处理感兴趣,比如网格参数化,变形等。涉及到简单的微分几何原理:

2017年开始接触视觉SLAM算法,当时主要用在AR眼镜产品中。基于关键帧的全局优化方法和基于卡尔曼滤波的方法,本质上都是求解非线性最小二乘优化问题。区别在于后者只有forward pass,利用边缘化求解后面图像帧的参数,并无回代过程更新之前图像帧的姿态参数和空间三维点。而基于关键帧全局优化的ORB SLAM方法则要用一个专门的线程进行历史上所有关键帧和地图的优化。实际上,SLAM作为经典的机器视觉应用,关键问题还是要解决图像帧间特征点的数据关联问题,有些场景啥特征都不好使,从角点的光流跟踪到各种算子的匹配。如果有谁说“SLAM算法很成熟了”这种话千万别信。前几年尝试过基于全景相机的SLAM,因为视角足够大,特征点跟踪的鲁棒性极大提高。

更早是关于人脸特征点提取Face Alignment,提取人脸上68个特征点。不是像AAM通过局部微分进行梯度下降,而是直接通过特征残差估计向量变化,称为监督梯度下降SDM方法。具体实现用HOG特征回归136维矢量变化,放在我的GitHub上https://github.com/wanglin193/SupervisedDescentMethod 。当年很时髦的方法,过不了两年就被某某net取代了。

另外还有360°全景图处理,那时候还是VR/AR应用刚起步阶段。以及2012年开始接触到的RGBD深度相机 Kinect等的相关算法,从那时起一直都是谋生的基本技能。

十多年前机器视觉的热点是增强现实,如何把虚拟物体叠加在实时拍摄的图像中。最简单的手段是,估计平面上物体(比如一个AR Marker)的六个自由度姿态参数Pose(Marker detection或LK方法估计8参数透射变换参数),然后用这个Pose参数矩阵[R|T]和相机参数K一起把虚拟物体P渲染到图像上,p=K*[R|T]*P。而现在市面上的AR眼镜中使用的姿态估计方法通常依赖实时的SLAM算法。

最早的博文发表在2010年前后,关于集成多分类器进行人脸检测。

“三个臭皮匠顶个诸葛亮”的前提是这三位是独立进行思考的。具体来说就是在用Naive Bayes做二分类训练的时候,每次选择下一个特征的时候,对分类错误的样本增加权重,就像增加了错误样本个数一样。这样通过计算统计直方图选择出来的下一个“好的弱特征”和之前选出的特征可以达到最大程度的不相关。

基本就是这些,像是某种个人简历,有机会重新更新下再发出来。



https://blog.sciencenet.cn/blog-465130-1500042.html


收藏 IP: 114.92.49.*| 热度|

2 王涛 xtn

该博文允许注册用户评论 请点击登录 评论 (1 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-12-5 23:50

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部