关于视觉3d目标检测学习像素深度的一点理解

在真实世界的一个物体,可以通过相机矩阵将其投影到像素坐标系上

但是,在像素坐标系上的像素,由于相机的原理,导致它的深度信息已经没有了,所以原理上是没法得到其真实深度的(即3d位置)

那么现在的深度学习方法又为什么能预测出物体的深度呢?
个人理解:
大概的过程就是:

  1. 通过图像可以预测物体的种类
  2. 通过物体的种类以及其他一些特征可以预测物体的尺寸
  3. 根据成像原理,真实物体通过小孔成像原理,投射到像素平面,真实物体的两个点+相机中心+图像上两个点构成两个相似三角形,知道了物体的尺寸,根据相似三角形原理,物体实际尺寸和像素尺寸的比例,是与真实深度和相机焦距的比例一致的,因此物体尺寸有了,就可以预测出深度距离了
    如果真实物体的尺寸预测不准的话,大概率深度预测也不会准

最近更新

  1. docker php8.1+nginx base 镜像 dockerfile 配置

    2024-01-25 10:18:03       94 阅读
  2. Could not load dynamic library ‘cudart64_100.dll‘

    2024-01-25 10:18:03       101 阅读
  3. 在Django里面运行非项目文件

    2024-01-25 10:18:03       82 阅读
  4. Python语言-面向对象

    2024-01-25 10:18:03       91 阅读

热门阅读

  1. 【RL】(task4)DDPG算法、TD3算法

    2024-01-25 10:18:03       50 阅读
  2. [笔记]事务简介-springboot

    2024-01-25 10:18:03       50 阅读
  3. 07 FreeRTOS - 常用调试函数(三) vTaskList()

    2024-01-25 10:18:03       44 阅读
  4. WPF中StatusBar控件显示状态栏信息

    2024-01-25 10:18:03       49 阅读
  5. 正则表达式元字符-详细说明

    2024-01-25 10:18:03       46 阅读
  6. QT基础篇(16)QT5单元测试框架

    2024-01-25 10:18:03       52 阅读
  7. Leetcode 第 110 场双周赛题解

    2024-01-25 10:18:03       55 阅读