2021年2月16日 星期二

Deep Closest Point: Learning Representations for Point Cloud Registration (DCP),找出點雲之間的幾何變換關係

本文要介紹的 DCP 跟前文一樣,目的是利用深度學習的方法找到兩個點雲之間的平移旋轉關係。

前文的連結

DCP 與這些方法略有不同,在於其先利用 DGCNN 取出特徵向量以後,藉由一系列的變換來對齊兩個點雲的位置,再用 SVD 解 ICP 問題的方法求出旋轉矩陣及平移向量。

 

模型結構

DCP

  • 輸入為 X 與 Y 兩組點雲,維度為 \(B \times N \times 3\),代表三維空間中的 N 個點
  • 各自利用 DGCNN 取出特徵向量,維度為 \(B \times N \times k\)
  • 利用 Transformer 來產生將 self attention 考慮進去的特徵向量,維度依然是 \(B \times N \times k\)
  • Pointer 的目的是將兩個點雲對齊。在前文用 SVD 來解 ICP 問題時,有一個假設是兩個點雲中的每個點是對齊的,也就是說在 X 中的第 i 個點與 Y 的第 i 個點距離最近。本文的做法是將 X 與 Y 生成的特徵向量相乘後成為一個 \(B \times N \times N\) 的矩陣,並且利用 softmax 來 normalize,使得此矩陣成為將 N 個點線性組合的權重。本文稱這種方法為 soft map。因此這 \(B \times N \times N\) 的矩陣就是用來重新組合 X 中所有的點,讓其對齊點雲 Y。
  • 最後用前文介紹的 SVD 方法解出對應的旋轉矩陣與平移向量。

 

實驗內容

  1. 本文的實驗結果較 PointNetLK 好得多,作者也有實驗是否要利用 Transformer 來產生特徵向量,結果顯示大部分狀況之下 Transformer 都能讓結果更好。
  2. 本文比較了用 Pointnet 以及 DGCNN 來產生特徵向量,實驗結果顯示 DGCNN 比較好。
  3. 本文也比較了在最後一步使用 SVD 及 MLP 來產生結果,實驗結果顯示 SVD 比 MLP 好。

 

參考資料

[1] Deep Closest Point: Learning Representations for Point Cloud Registration

[2] 论文笔记:Deep Closest Point: Learning Representations for Point Cloud Registration

沒有留言:

張貼留言