Parallel UNet Architecture with Late Fusion Residual Network for Segmentation of Brain Tissues
- Author(s)
- 프라자파티 루케스
- Issued Date
- 2022
- Keyword
- 조직 세그멘테이션, 병렬 UNet, 잔류 네트워크, 뇌 MRI, Tissue segmentation, parallel UNet, residual network, brain MRI
- Abstract
- 신경퇴행성 만성질환, 알츠하이머 병 특정 뇌 질환에 대한 확실한 진단은 뇌의 해부학적 변화를 분석함으로써 가능하다. 뇌 해부학의 변화를 평가하기 위해 세분화의 정확도가 중요하다. 최근 연구에서 UNet 기반의 설계는 생물학적 영상 분할에서 딥러닝 아키텍처를 대체할 정도로 성능이 능가하는 것으로 나타난다. 그러나 의료영상의 해상도가 낮고 데이터가 부족하여 분할 정확도를 높이는 것이 어렵다. 본 논문에서는 잔류 네트워크를 사용하여 3개의 병렬 UNet을 결합하는 고유 아키텍처를 제안한다. 이 디자인은 세 가지 면에서 기본 접근 방식을 개선한다. 먼저 단일 이미지가 아닌 연속 3장의 이미지를 입력으로 활용한다. 결과적으로 제안된 모델은 3장의 이미지 사이에서 자유롭게 학습할 수 있다. 또한 3개의 고유한 UNet을 사용하여 개별적으로 압축 및 압축해제를 통해 모델의 이미지의 특성을 결합하는 것을 방지한다. 마지막으로 UNet의 출력은 잔류 네트워크 설계에 따라 스킵 연결에 의해 출력에 해당하는 이미지의 특성이 증대되는 방식으로 병합된다. 뇌 조직 분할을 위해 제안된 방법은 공개적으로 사용 가능한 데이터 셋에서 테스트 된다. 제안된 모델은 실험데이터에 따라 뇌척수액(CSF)의 경우 94.9%, 회백질(GM)의 경우 95.8%, 백질(WM)의 경우 95.93%의 분할 정확도를 달성했다. 이는 제안된 방법이 자동으로 안정적이며 정확한 방식으로 뇌 MRI 영상을 분할할 수 있음을 보여준다. 제안된 방법은 다양한 변형된 UNet뿐만 아니라 기존의 단일 UNet보다 성능이 높다.|A reliable diagnosis of particular brain illnesses can be made by analyzing changes in brain anatomy. For assessing changes in brain anatomy, segmentation accuracy is critical. UNet-based designs have been shown to outperform alternative deep learning architectures in biological picture segmentation in recent research. However, due to the poor resolution of medical pictures and a lack of data, enhancing segmentation accuracy is difficult. In this paper, a unique architecture is offered that uses a residual network to join three parallel UNets. In three ways, this design improves on the basic approaches. To begin, three successive photos are utilized as input instead of a single image. As a result, the proposed model is free to learn from nearby photos as well. The photos are also compressed and decompressed separately using three distinct UNets, preventing the model from combining the images' characteristics. Finally, the outputs of the UNets are merged in such a way that the characteristics of the picture corresponding to the output are augmented by a skip connection, as per the residual network design. For brain tissue segmentation, the suggested approach was tested on publicly available datasets. The proposed model achieves segmentation accuracies of 94.9% for cerebrospinal fluid (CSF), 95.8% for gray matter (GM), and 95.93% for white matter (WM), according to the experimental data. This demonstrates that the suggested method can automatically segment brain MRI images in a reliable and exact manner. The suggested design outperformed a single traditional UNet as well as various UNet variations.
- Alternative Title
- 뇌 조직 세그멘테이션을 위한 Late Fusion Residual Network을 갖는 병렬 UNet 구조
- Alternative Author(s)
- Prajapati Rukesh
- Affiliation
- 조선대학교 일반대학원
- Department
- 일반대학원 정보통신공학과
- Advisor
- Young-Sik Kim
- Awarded Date
- 2022-08
- Table Of Contents
- List of figures 3
List of tables 4
초록 5
Abstract 7
1. Introduction 9
1.1. A Brief Review of MRI 10
1.2. MRI for Brain Disorders Diagnosis 10
1.3. Overview and Motivation 11
1.4. Objectives 13
1.5. Thesis Layout 14
2. Related Works 15
2.1. Medical Image Segmentation 15
2.2. Parallel UNet Architecture 16
2.3. Late Fusion Approach 17
3. Proposed Method 18
3.1. Proposed Architecture 19
3.2. Parallel UNets 20
3.3. Proposed Fusion Using Residual Network 21
3.4. Loss Function 23
4. Experimental Analysis 28
4.1. Datasets 28
4.2. OASIS Dataset 28
4.3. Evaluation Matrics 29
4.4. Experimental Setup 30
4.5. Results and Discussions 31
5. Conclusion 42
References 44
Acknowledgment 50
- Degree
- Master
- Publisher
- 조선대학교 대학원
- Citation
- 프라자파티 루케스. (2022). Parallel UNet Architecture with Late Fusion Residual Network for Segmentation of Brain Tissues.
- Type
- Dissertation
- URI
- https://oak.chosun.ac.kr/handle/2020.oak/17462
http://chosun.dcollection.net/common/orgView/200000624108
-
Appears in Collections:
- General Graduate School > 3. Theses(Master)
- Authorize & License
-
- AuthorizeOpen
- Embargo2022-08-26
- Files in This Item:
-
Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.