久热久草在线_一一高清视频在线观看_在线观看91av_久草免费在线观看视频_国产精品午夜无码A体验区_国产一级高清

English | 中文版 | 手機版 企業登錄 | 個人登錄 | 郵件訂閱
當前位置 > 首頁 > 技術文章 > 研究進展:利用深度學習擴展雙光子成像視場

研究進展:利用深度學習擴展雙光子成像視場

瀏覽次數:611 發布日期:2024-9-23  來源:本站 僅供參考,謝絕轉載,否則責任自負

在生物醫學研究領域,雙光子成像技術因其高成像分辨率、大深度和強三維層析能力等優點,成為獲取關鍵高分辨三維信息的重要手段。然而,傳統雙光子顯微鏡成像視場有限,通常在1mm以內,極大地限制了其在更廣泛生物醫學研究中的應用。

為拓展雙光子顯微鏡的成像視場,研究人員嘗試了多種方法。例如,通過設計特殊的掃描中繼系統來減小大角度掃描引起的離軸像差,或自制高通量物鏡來實現更大的成像視場。但這些方法往往實現難度大、成本高,難以在生物醫學研究領域廣泛推廣。

近年來,一種通過自適應光學技術增加成像物鏡可用視場的方法被提出。然而,該方法需要在光學系統中增加相位補償器件,這增加了成像系統的光路復雜性與硬件成本。

在此背景下,來自曲阜師范大學、香港理工大學的李遲件團隊提出了一種利用深度學習替代自適應光學相位補償從而擴展雙光子成像視場的新方法。

深度學習帶來的新突破
商用物鏡通常有一個廠商標定的成像視場,在該范圍內,物鏡像差可忽略,成像質量好;超過該視場后,物鏡像差急劇增大,成像質量嚴重劣化。

研究團隊之前通過自適應光學方法使擴展視場的成像質量與信噪比接近于標定視場區域,成功拓展了大視場物鏡的可用視場。而本文所提方法通過采集擴展視場自適應光學校正前后的數據并使用改進網絡框架進行訓練,無需使用自適應光學相位補償裝置進行像差校正便可得到近似無像差的圖像。

該方法具有以下優勢:

  • 無需復雜光學元件:無須使用復雜的自適應光學元件進行像差校正。

  • 降低成本與提高便捷性:利用深度學習替代硬件自適應光學補償,不僅降低了系統成本,還實現了無須硬件自適應光學補償的大視場成像,提高了系統的便捷性。


實驗過程
在實驗中,研究團隊使用了大視場雙光子顯微系統,包括鈦藍寶石激光器、擴束器、中繼鏡、檢流計、掃描振鏡、物鏡、二向分光鏡、收集透鏡和光電倍增管等。采用間接波前檢測中的模式法實現像差測量和校正,將整個視場區域分為3×3個子區域進行分區校正,使用Zernike多項式的第5-15項進行像差計算,重復測量三次后取平均以保證測量準確度。

為提高神經網絡的可靠性,研究團隊對數據準備進行了兩方面改進:

  • 提高信噪比:對每組校正前后的圖像各采集3張,并通過平均圖像的灰度值來提高圖像的信噪比。

  • 匹配三維位置:將自適應光學技術校正前的圖像作為參照,對校正后的圖像進行X和Y方向的配準,將配準后的有效數據尺寸裁剪為1000pixel×1000pixel。


研究團隊采用的基于U-Net改進的nBRAnet網絡,具有U型對稱結構,保留了多個跳躍連接結構。同時,引入殘差結構以緩解反向傳播造成的梯度爆炸和梯度消失,提高網絡的精準度和精度;引入輕量級的空間注意力機制以增強網絡性能;移除了所有卷積塊中的BN層以增強網絡輸出的圖像質量。

在網絡訓練設置方面,研究團隊在Windows環境下進行,采用 PyTorch(Python3.7)編寫代碼,使用MATLAB代碼處理圖片,在桌面工作站上進行。數據集由熒光小球和離體生物樣品經自適應光學校正前后的顯微圖像構成,網絡模型輸入圖像和輸出圖像的尺寸均為1000pixel×1000pixel,分別取數據集的95%和5%用作訓練集和測試集,利用網絡輸出與標簽之間的均方誤差作為損失函數來訓練模型,同時利用反向傳播算法Adam來優化網絡,初始學習速率為1×10-4。

實驗結果
熒光小球實驗:無論是在像差較小的標定視場區域,還是在具有較大離軸像差的擴展視場區域,研究團隊所提網絡均能較好地校正畸變的圖像,證明了深度學習技術可以替代硬件自適應光學像差校正技術擴展成像視場并實現畸變圖像的校正。

生物樣品實驗:研究團隊改進的網絡框架可將Thy1-GFP樣品擴展視場區域的分辨率和信噪比恢復至接近硬件自適應光學校正之后的結果,可有效擴展物鏡的可用視場,使分辨率和熒光強度近似地恢復到硬件自適應光學校正后無像差時的水平。

與超深超分辨率模型(VDSR)、傳統的U-Net模型相比,研究團隊的nBRAnet網絡框架具有明顯優勢,VDSR的實驗結果中含有大量噪聲,U-Net的實驗結果中丟失了一些細節信息,而研究團隊的網絡框架具有較高的PSNR值。

總結與展望
研究團隊提供了一種有效擴展雙光子顯微鏡成像視場的新思路、新途徑,利用深度學習來擴展商業物鏡的可用視場。經網絡恢復后的擴展區域圖像,無論是分辨率還是熒光強度,均能恢復到接近硬件自適應光學校正后無像差時的水平。該方法簡化了操作,降低了系統的復雜度和成本,提高了成像分辨率及其拓展的通用性,具有較高的實用價值。

希望研究成果能為生物醫學研究帶來新的突破,為跨區域腦成像或全腦成像提供一種經濟實用的方案。未來,我們將繼續深入研究,不斷完善這一技術,為推動生物醫學研究的發展貢獻更多力量。

聲明:本文僅用作學術目的。文章來源于:李遲件, 姚靖, 高玉峰, 賴溥祥, 何悅之, 齊蘇敏, 鄭煒. 利用深度學習擴展雙光子成像視場[J]. 中國激光, 2023, 50(9): 0907107. Chijian Li, Jing Yao, Yufeng Gao, Puxiang Lai, Yuezhi He, Sumin Qi, Wei Zheng. Extending Field‑of‑View of Two‑Photon Microscopy Using Deep Learning[J]. Chinese Journal of Lasers, 2023, 50(9): 0907107.

發布者:羅輯技術(武漢)有限公司
聯系電話:13260667811
E-mail:logiscience@163.com

用戶名: 密碼: 匿名 快速注冊 忘記密碼
評論只代表網友觀點,不代表本站觀點。 請輸入驗證碼: 8795
Copyright(C) 1998-2025 生物器材網 電話:021-64166852;13621656896 E-mail:info@bio-equip.com
主站蜘蛛池模板: 国内国内在线自偷第68页 | 少妇无码一区二区三区 | 久久91精品国产91久久跳舞 | 国产精品色视频xxx 97国产精华最好的产品亚洲 | 亚洲免费网| 成人免费毛片网站 | aAA大片免费看最大的在线观看 | 日本国产乱弄免费视频 | 国产一级大片 | 亚洲成av人片在线观看无 | 91精品无码专区一区二区 | 91亚洲精品第一 | 国产精品无码一二区免费播放 | 国产综合精品五月丁香好久久 | 美女诱惑视频 | 99久久综合精品免费 | 国产一区二区三区四区成男人 | 国产精品久久一区 | 国产在线一在线二 | 成人做爽爽爽爽免费国产软件 | 久久精品视频在线免费观看 | 99国内精品久久久久久久黑人 | 久久久久亚洲精品国产 | 狠狠色丁香久久婷婷综合蜜芽五月 | 9999精品免费视频 | 97久久偷偷做嫩草影院免费看 | 视频一区中文字幕 | 超级无码视频在线观看 | 不卡中文字幕 | 91在线一区二区三区 | 国产色啪午夜免费福利 | 久久国产精品亚洲人一区二区三区 | 成人在线免费观看视频网站 | 99精品欧美一区二区三区视频 | 亚洲精品中文字幕日本久久久 | 免费的又色又爽又黄的片 | 亚洲免费视频一区二区 | 中文字幕av一区二区三区四区 | 最新国产精品综合在线啪 | 99在线视频精品 | 一本久道中文无码字幕av |