Please use this identifier to cite or link to this item:
https://dspace.ctu.edu.vn/jspui/handle/123456789/81921
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Trần, Nguyễn Dương Chi | - |
dc.contributor.author | Lê, Quốc Thịnh | - |
dc.date.accessioned | 2022-09-22T01:15:39Z | - |
dc.date.available | 2022-09-22T01:15:39Z | - |
dc.date.issued | 2022 | - |
dc.identifier.other | B1709570 | - |
dc.identifier.uri | https://dspace.ctu.edu.vn/jspui/handle/123456789/81921 | - |
dc.description | 49 Tr | vi_VN |
dc.description.abstract | Đề tài “Ứng dụng học sâu để chẩn đoán u não trên ảnh MRI” được thực hiện với mục đích tạo ra một ứng dụng có khả năng xác định vị trí khối u não (nếu có) trên ảnh MRI, giúp nâng cao tốc độ và độ chính xác trong chẩn đoán u não. Trong hệ thống này, kiến trúc U-net được sử dụng để tiến hành phân đoạn các hình ảnh MRI não. Bộ dữ liệu được lấy từ Cơ quan Lưu trữ Hình ảnh Ung thư Quốc gia Hoa Kỳ (TCIA) và mặt nạ phân đoạn bất thường FLAIR được kiểm chứng bởi bác sĩ X quang và được hội đồng chứng nhận tại Đại học Duke phê duyệt. Bộ dữ liệu bao gồm 110 thư mục với 7858 hình ảnh, trong đó 3929 hình ảnh MRI, 3929 hình ảnh mặt nạ. Thư viện ImageDataGenerator do keras cung cấp được sử dụng để tăng số lượng hình ảnh trong tập huấn luyện nhằm cải thiện độ chính xác của hệ thống. Kết quả kiểm tra trên 550 hình ảnh cho thấy chỉ số recall 77.28%, precision 85.64%, f1-score 79.28% và iou-score 74.03%. | vi_VN |
dc.language.iso | vi | vi_VN |
dc.publisher | Trường Đại Học Cần Thơ | vi_VN |
dc.subject | KHOA HỌC MÁY TÍNH | vi_VN |
dc.title | ỨNG DỤNG HỌC SÂU ĐỂ CHẨN ĐOÁN U NÃO TRÊN ẢNH MRI | vi_VN |
dc.title.alternative | USING DEEP LEARNING TO DETECT BRAIN TUMOR FROM MRI IMAGES | vi_VN |
dc.type | Thesis | vi_VN |
Appears in Collections: | Trường Công nghệ Thông tin & Truyền thông |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
_file_ Restricted Access | 2.17 MB | Adobe PDF | ||
Your IP: 18.220.94.189 |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.