「FLAG: Flow-based Avatar Generation from Sparse Observations」技術,將可透過虛擬實境頭戴裝置所擷取頭部及手部動作方向,以及所處位置等資訊,自動模擬合適的下半身對應動作,例如在虛擬實境場景中處於移動狀態,就會模擬雙腳走路或奔跑動作,而若使用者上半身出現在較低位置,系統則會模擬下半身蹲下等動作。
過去在虛擬實境中的個人形象表現,礙於運算效能與實際需求,多半僅以上半身型態呈現,但在微軟混合實境與人工智慧實驗室 (Mixed Reality & AI Lab)研究團隊所提出技術,將能透過上半身擷取資訊模擬下半身自然動作,讓使用者在虛擬實境中出現的身形可以更加完整。
此項名為「FLAG: Flow-based Avatar Generation from Sparse Observations」的技術,將可透過虛擬實境頭戴裝置所擷取頭部及手部動作方向,以及所處位置等資訊,自動模擬合適的下半身對應動作,例如在虛擬實境場景中處於移動狀態,就會模擬雙腳走路或奔跑動作,而若使用者上半身出現在較低位置,系統則會模擬下半身蹲下等動作。
微軟在此項技術透過大量數據學習與人工智慧分析,另外也透過全身掃描方式蒐集資訊,讓系統能即時配合使用者上半身動作,即時模擬呈現自然的下半身動作,並且降低出現錯誤肢體動作情況。
這樣一來,即可讓使用者在虛擬實境中的個人形象能以完整全身呈現,預期可以應用在視訊會議、虛擬實境內互動,或是需要以全身形象呈現的虛擬實境內容需求,而非僅以上半身型態出現。
但這樣的技術依然會有侷限,例如要單獨呈現腳部肢體的話,可能會礙於數據量不足而難以重現,除非使用者在腳上額外配置感測元件紀錄完整數據。