Please use this identifier to cite or link to this item:
https://dspace.ctu.edu.vn/jspui/handle/123456789/85069
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Trần, Nguyễn Dương Chi | - |
dc.contributor.author | Nguyễn, Ngọc Lam Tường | - |
dc.date.accessioned | 2023-02-01T01:15:56Z | - |
dc.date.available | 2023-02-01T01:15:56Z | - |
dc.date.issued | 2022 | - |
dc.identifier.other | B1709578 | - |
dc.identifier.uri | https://dspace.ctu.edu.vn/jspui/handle/123456789/85069 | - |
dc.description | 41 Tr | vi_VN |
dc.description.abstract | Trong luận văn này, ứng dụng các phương pháp học sâu được giới thiệu để xây dựng mô hình chẩn đoán bệnh nhân COVID-19 qua ảnh CT phổi. Một bộ dữ liệu đường gồm 2794 ảnh CT phổi sẽ được thu thập từ 2 bộ dữ liệu COVID-CT-Dataset: A CT Scan Dataset about COVID-19 [18] và SARS-COV-2 CT-Scan Dataset [28] [29] được dùng để huấn luyện các mô hình phân loại hình ảnh CT phổi mắc bệnh COVID-19. Mô hình phân loại ảnh CT phổi đươc huấn luyện trên ba mô hình là VGG16, DensNET, ResNET. Kết quả thực nghiệm được thực hiện trên 500 ảnh với trung bình precision, recall và F1-score của mô hình ResNET là 93%, 99% và 96%; cao hơn hai mô hình còn lại là VGG16 là 65%, 96% và 77% và mô hình DenseNET là 90%, 99% và 94%. Từ các kết quả kiểm thử mô hình cho thấy mô hình ResNET phù hợp để ứng dụng vào việc hỗ trợ chẩn đoán hình ảnh CT phổi trong lĩnh vực y tế. | vi_VN |
dc.language.iso | vi | vi_VN |
dc.publisher | Trường Đại Học Cần Thơ | vi_VN |
dc.subject | KHOA HỌC MÁY TÍNH | vi_VN |
dc.title | ỨNG DỤNG HỌC SÂU ĐỂ CHẨN ĐOÁN BỆNH NHÂN COVID-19 QUA ẢNH CT PHỔI | vi_VN |
dc.title.alternative | APPLYING DEEP LEARNING TO DETECT COVID-19 PATIENTS BASED ON CT IMAGES | vi_VN |
dc.type | Thesis | vi_VN |
Appears in Collections: | Trường Công nghệ Thông tin & Truyền thông |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
_file_ Restricted Access | 6.44 MB | Adobe PDF | ||
Your IP: 3.128.78.107 |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.