Please use this identifier to cite or link to this item: https://dspace.ctu.edu.vn/jspui/handle/123456789/85000
Full metadata record
DC FieldValueLanguage
dc.contributor.advisorPhạm, Thế Phi-
dc.contributor.authorThạch, Thị Sô Phia-
dc.date.accessioned2023-01-30T09:30:34Z-
dc.date.available2023-01-30T09:30:34Z-
dc.date.issued2022-
dc.identifier.otherB1809166-
dc.identifier.urihttps://dspace.ctu.edu.vn/jspui/handle/123456789/85000-
dc.description42 Trvi_VN
dc.description.abstractBài luận văn này trình bày kết quả nghiên cứu về việc xây dựng hệ thống“Theo dõi đối tượng bằng mô hình học sâu”. Phần trọng tâm của hệ thống này là trình theo dõi đối tượng. Hoạt động dựa trên sự kết hợp giữa việc sử dụng trình phát hiện đối tượng được huấn luyện trước để phát hiện đối tượng xuất hiện trong video, tính hộp giới hạn của từng đối tượng được phát hiện và chuyển tọa độ của hộp giới hạn tới trình theo dõi đối tượng. Từ đó Dlib có thể bắt đầu theo dõi đối tượngbằngcách sử dụng một danh sách các đối tượng theo dõi đơn giản, sau đó cậpnhật tuầntự từng trình theo dõi, chỉ sử dụng một lõi duy nhất trong bộ xử lý. Cũngtrongbàiluận văn này, em sẽ đề cập đến vấn đề tối ưu hóa tốc độ thông lườngFPS(chỉ sốkhung hình trên giây xuất hiện trong video) để tăng chất lượng hình ảnh bằng cách phân phối trình theo dõi đối tượng trên nhiều tiến trình. Hệ thống sẽ theodõi liêntục chuyển động của đối tượng có trong video, đồng thời tính chỉ số thông lượngFPS cho thấy chất lượng hình ảnh. Kết quả thực nghiệm cho thấy hệ thống đáp ứng được các chức năng đề xuất và có chỉ số FPS cao trung bình ~21 FPS.vi_VN
dc.language.isovivi_VN
dc.publisherTrường Đại Học Cần Thơvi_VN
dc.subjectCÔNG NGHỆ THÔNG TINvi_VN
dc.titleTHEO DÕI ĐỐI TƯỢNG BẰNG MÔ HÌNH HỌC SÂUvi_VN
dc.title.alternativeOBJECT TRACKINGUSING DEEP LEARNINGMODELSvi_VN
dc.typeThesisvi_VN
Appears in Collections:Trường Công nghệ Thông tin & Truyền thông

Files in This Item:
File Description SizeFormat 
_file_
  Restricted Access
1.13 MBAdobe PDF
Your IP: 18.118.93.175


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.