<strong id="r5ve8"></strong>
    1. <xmp id="r5ve8"></xmp>

        027-87860098

        基于卷積神經(jīng)網(wǎng)絡(luò)和轉(zhuǎn)移學(xué)習(xí)的高通量大豆種子表型研究

        2022/9/1
        有效的大豆種子表型需要大量準(zhǔn)確的形態(tài)參數(shù)。傳統(tǒng)的人工獲取大豆種子形態(tài)表型信息容易出錯,耗時長,不適合大規(guī)模采集。大豆種子個體分割是獲得種子長、寬等表型性狀的前提。然而,用于獲得高通量大豆種子表型的基于圖像的傳統(tǒng)方法并不可靠且不實用?;谏疃葘W(xué)習(xí)的算法雖然可以實現(xiàn)精確的訓(xùn)練和較強(qiáng)的泛化能力,但需要大量的地面真實數(shù)據(jù),這往往是算法的局限性。

        在三種光照條件下拍攝了大豆種子圖像。a是白天的室外場景;b是白天有熒光燈的室內(nèi)場景;c是夜間有熒光燈的室內(nèi)場景

        本文提出了一種新的基于區(qū)域隨機(jī)化的合成圖像生成和增強(qiáng)方法。利用該方法自動合成大量標(biāo)記圖像數(shù)據(jù)集,訓(xùn)練實例分割網(wǎng)絡(luò),用于高通量大豆種子分割。它可以顯著降低人工標(biāo)注的成本,方便訓(xùn)練數(shù)據(jù)集的準(zhǔn)備。卷積神經(jīng)網(wǎng)絡(luò)完全可以通過我們的合成圖像數(shù)據(jù)集來訓(xùn)練,以獲得良好的性能。在訓(xùn)練Mask R-CNN的過程中,本文作者提出了一種轉(zhuǎn)移學(xué)習(xí)方法,通過微調(diào)預(yù)先訓(xùn)練好的模型權(quán)值,可以顯著降低計算量。通過對不同分辨率的合成測試數(shù)據(jù)集和真實大豆種子測試數(shù)據(jù)集的分析,驗證了該方法的可靠性和泛化能力。

        實驗結(jié)果表明,該方法實現(xiàn)了大豆種子個體的有效分割和種子形態(tài)參數(shù)的有效計算,可用于高通量對象實例分割和高通量種子表型分析。

        來源:Plant Methods.High-throughput soybean seeds phenotyping with convolutional neural networks and transfer learning.Si Yang,Lihua Zheng,Peng He,Tingting Wu,Shi Sun&Minjuan Wang
        原文鏈接:https://plantmethods.biomedcentral.com/articles/10.1186/s13007-021-00749-y
        大片精品一区二区三区_亚洲香蕉网久久综合影院小说_欧美精品欧美一级在线观看_免费人成视网站在线不卡
        <strong id="r5ve8"></strong>
        1. <xmp id="r5ve8"></xmp>