• <nav id="ggggg"><code id="ggggg"></code></nav>
    <sup id="ggggg"><code id="ggggg"></code></sup>
    <sup id="ggggg"></sup><noscript id="ggggg"></noscript><tfoot id="ggggg"><dd id="ggggg"></dd></tfoot>
  • 精品熟女视频专区,欧美三级片在线观看,亚洲图片在线,亚洲男人天堂网,亚洲精品午夜精品,日韩乱码一区,国产熟女在线看,精品国产乱子伦一区二区三区,精品一

    新方法顯著提升三維形貌重建精度

    來源:科技日報
    2025-07-03 08:26 
    分享
    分享到
    分享到微信

    記者6月26日從山西大學獲悉,該校大數據科學與產業(yè)研究院教授錢宇華帶領的演化數據智能團隊在通用三維形貌重建領域取得重要科學發(fā)現,相關論文日前發(fā)表于國際人工智能領域頂級期刊《IEEE模式分析與機器智能匯刊》。

    論文第一作者、山西大學大數據科學與產業(yè)研究院副教授閆濤介紹,團隊首次從理論上證明了三維形貌重建多視圖融合類方法的一種泛化誤差界。一般認為,多視圖融合性能依賴于多視圖互補性,而團隊此次研究發(fā)現,跨尺度多視圖融合類任務性能依賴于多視圖一致性,多視圖之間的一致性越大,重建泛化誤差界越小。

    隨著智能制造、虛擬現實等技術的發(fā)展,宏觀/微觀跨尺度三維形貌重建面臨三大挑戰(zhàn):一是成像特征差異大,宏觀場景與微觀場景難以統一建模;二是現有深度學習方法泛化能力不足,難以適應復雜實際場景;三是傳統方法在序列圖像關聯特征提取方面存在缺陷,時空信息利用不充分制約了精度提升。

    針對上述挑戰(zhàn),本研究創(chuàng)新性地提出了序列關聯引導的通用三維形貌重建框架SAS,揭示了多視圖一致性對提升重建精度的關鍵作用,理論上獲得了一種緊的泛化誤差界,為宏觀/微觀跨尺度重建提供了理論保障。在方法方面,該研究通過構建序列關聯機制,實現了宏觀場景語義信息與微觀場景細節(jié)特征的有機融合,突破了傳統方法在跨尺度重建中的局限性。同時,該研究還顯著提升了宏觀場景的重建質量,更將三維重建精度推進至亞微米級光學成像極限,為精密制造、生物醫(yī)學等領域的微觀測量提供了新技術手段。

    研究在多個宏觀與微觀數據場景中進行了實驗驗證,結果表明SAS框架不僅優(yōu)于先進的模型設計類聚焦形貌恢復(SFF)方法,而且在泛化性方面優(yōu)于主流的深度學習類SFF方法,特別是在開放世界的宏觀/微觀場景中表現出卓越適應性。(記者韓榮)

    (責編:郝孟佳、李昉)

    分享讓更多人看到

     

    【責任編輯:張瑨瑄】
    中國日報網版權說明:凡注明來源為“中國日報網:XXX(署名)”,除與中國日報網簽署內容授權協議的網站外,其他任何網站或單位未經允許禁止轉載、使用,違者必究。如需使用,請與010-84883777聯系;凡本網注明“來源:XXX(非中國日報網)”的作品,均轉載自其它媒體,目的在于傳播更多信息,其他媒體如需轉載,請與稿件來源方聯系,如產生任何問題與本網無關。
    版權保護:本網登載的內容(包括文字、圖片、多媒體資訊等)版權屬中國日報網(中報國際文化傳媒(北京)有限公司)獨家所有使用。 未經中國日報網事先協議授權,禁止轉載使用。給中國日報網提意見:rx@chinadaily.com.cn