Vui lòng dùng định danh này để trích dẫn hoặc liên kết đến tài liệu này:
https://dspace.ctu.edu.vn/jspui/handle/123456789/94764Toàn bộ biểu ghi siêu dữ liệu
| Trường DC | Giá trị | Ngôn ngữ |
|---|---|---|
| dc.contributor.advisor | Lâm, Nhựt Khang | - |
| dc.contributor.author | Nguyễn, Khánh Vinh | - |
| dc.date.accessioned | 2024-01-12T00:26:21Z | - |
| dc.date.available | 2024-01-12T00:26:21Z | - |
| dc.date.issued | 2023 | - |
| dc.identifier.issn | B1910726 | - |
| dc.identifier.uri | https://dspace.ctu.edu.vn/jspui/handle/123456789/94764 | - |
| dc.description | 37 Tr | vi_VN |
| dc.description.abstract | Automatic text summarization is a pivotal facet of Natural Language Processing (NLP) and Artificial Intelligence (AI), seeking to distill essential information while preserving the core meaning of the original text. In this study, the Bart model, a stateof-the-art transformer-based architecture designed for sequence-to-sequence tasks, was harnessed to explore its efficacy in conjunction with the CNN Dailymail dataset – a widely adopted benchmark for text summarization, comprising news articles paired with human-generated summaries. The experiments yielded compelling results, showcasing the Bart model's commendable performance. Through fine-tuning on the CNN Dailymail dataset, the model demonstrated a remarkable ability to generate coherent and informative summaries. Notably, it successfully captured salient details while maintaining contextual coherence, underscoring its efficacy in real-world summarization scenarios. This research contributes to advancing automatic text summarization by highlighting the successful integration of the Bart model with a highquality dataset, emphasizing the importance of robust models and datasets for training effective summarization systems in an era dominated by information overload. | vi_VN |
| dc.language.iso | en | vi_VN |
| dc.publisher | Trường Đại Học Cần Thơ | vi_VN |
| dc.subject | CÔNG NGHỆ THÔNG TIN - CHẤT LƯỢNG CAO | vi_VN |
| dc.title | TEXT SUMMARIZATION USING BART WITH DEEP ATTENTION | vi_VN |
| dc.title.alternative | TÓM TẮT VĂN BẢN SỬ DỤNG MÔ HÌNH BART VỚI DEEP ATTENTION | vi_VN |
| dc.type | Thesis | vi_VN |
| Bộ sưu tập: | Trường Công nghệ Thông tin & Truyền thông | |
Các tập tin trong tài liệu này:
| Tập tin | Mô tả | Kích thước | Định dạng | |
|---|---|---|---|---|
| _file_ Giới hạn truy cập | 1.05 MB | Adobe PDF | ||
| Your IP: 216.73.217.104 |
Khi sử dụng các tài liệu trong Thư viện số phải tuân thủ Luật bản quyền.