TP-GMM

Task-parameterized Gaussian mixture model (TP-GMM)

对于一组示教数据 ξ ∈ R D × N \bm{ξ} ∈R^{D×N} ξRD×N,从不同的坐标系去观测它
X t ( j ) = A t , j − 1 ( ξ t − b t , j ) X^{(j)}_t=\bm{A}^{-1}_{t,j}(\bm{ξ}_t-\bm{b}_{t,j}) Xt(j)=At,j1(ξtbt,j)
上标 j j j 代表坐标系,下标 t t t 代表 示教轨迹数据 ( d a t a p o i n t s ) (datapoints) (datapoints)的索引, A A A b b b 代表坐标系 j j j的姿态描述和位置描述
TP-GMM 形式为有 K K K c o m p o n e n t component component 其形式为
{ π i , { μ i j , Σ i ( j ) } j = 1 P } i = 1 K \{ {\pi_i,\{μ_i^{j},Σ^{(j)}_i}\}^P_{j=1}\}^K_{i=1} { πi,{ μij,Σi(j)}j=1P}i=1K
可以看出均值 μ {μ} μ Σ Σ Σ 方差 的维度为 K × P K×P K×P

直接拿不同坐标系数据去训练, 扩张维度, 是不是太生猛一点了

训练完后需要去掉坐标系维度,得到最终的 TP-GMM。论文的做法是,对于每个 c o m p o n e n t component component 存在 P P P 个分布,将这 P P P 个高斯分布相乘,最终得到的结果是:
在这里插入图片描述

得到最终 T P − G M M TP-GMM TPGMM 后进行高斯混合回归,对于任务空间中的轨迹数据,上标 I 对应于时间输入维度,O 对应于描述任务空间中路径(位置和方向)的输出维度。n 代表迭代次数, ξ n I ξ_n^I ξnI ξ n o ξ_n^o ξno 代表输入和输出。训练出的TP-GMM模型是输入输出的联合分布,将 TP-GMM 的均值和方差拆成输入输出两部分在这里插入图片描述
GMR依赖该联合分布 P ( ξ n I , ξ n o ) P(ξ_n^I, ξ_n^o ) P(ξnI,ξno) 估计条件概率 P ( ξ n I ∣ ξ n o ) P(ξ_n^I | ξ_n^o ) P(ξnIξno) ,最终的分布为 N ( ξ ^ n O , Σ ^ n O ) N (\hat ξ^O_n, \hatΣ^O_n) N(ξ^nO,Σ^nO)

在这里插入图片描述

相关推荐

  1. <span style='color:red;'>TP</span>-<span style='color:red;'>GMM</span>

    TP-GMM

    2024-01-05 12:28:05      30 阅读
  2. GPM合并资料整理-GEM部分

    2024-01-05 12:28:05       33 阅读
  3. GO——GPM

    2024-01-05 12:28:05       34 阅读
  4. 10.<span style='color:red;'>GLM</span>

    10.GLM

    2024-01-05 12:28:05      7 阅读

最近更新

  1. TCP协议是安全的吗?

    2024-01-05 12:28:05       18 阅读
  2. 阿里云服务器执行yum,一直下载docker-ce-stable失败

    2024-01-05 12:28:05       19 阅读
  3. 【Python教程】压缩PDF文件大小

    2024-01-05 12:28:05       19 阅读
  4. 通过文章id递归查询所有评论(xml)

    2024-01-05 12:28:05       20 阅读

热门阅读

  1. 面试算法92:翻转字符

    2024-01-05 12:28:05       32 阅读
  2. Go语言断言和类型查询

    2024-01-05 12:28:05       38 阅读
  3. 16.Linux Bash Shell通过`read`命令读取用户输入

    2024-01-05 12:28:05       43 阅读
  4. python 堆栈

    2024-01-05 12:28:05       27 阅读