Vui lòng dùng định danh này để trích dẫn hoặc liên kết đến tài liệu này:
https://dspace.ctu.edu.vn/jspui/handle/123456789/94021
Nhan đề: | TÓM TẮT TÓM LƯỢC VĂN BẢN SỬ DỤNG MÔ HÌNH TRANSFORMER VỚI DEEP ATTENTION |
Nhan đề khác: | ABSTRACTIVE TEXT SUMMARIZATION USING DEEP ATTENTION TRANSFORMER |
Tác giả: | Lâm, Nhựt Khang Nguyễn, Thế Bảo phúc |
Từ khoá: | CÔNG NGHỆ THÔNG TIN |
Năm xuất bản: | 2023 |
Nhà xuất bản: | Trường Đại Học Cần Thơ |
Tóm tắt: | Luận văn này đề xuất sử dụng mô hình Transformer với deep attention cho bài toán tóm tắt tóm lược văn bản. Chúng tôi đã thực nghiệm mô hình trên tập dữ liệu CNN/Daily mail và Inshort news. Chúng tôi nhận thấy rằng mô hình đã cho kết quả tốt hơn so với mô hình Transformer truyền thống. Cụ thể điểm số ROUGE-1, ROUGE-2, ROUGE-L của mô hình trên tập dữ liệu CNN/Daily mail lần lượt là : 40.92, 10.67, 14.11. Còn với tập dữ liệu Inshort news lần lượt là: 58.59, 14.90, 30.93. |
Mô tả: | 40 Tr |
Định danh: | https://dspace.ctu.edu.vn/jspui/handle/123456789/94021 |
Bộ sưu tập: | Trường Công nghệ Thông tin & Truyền thông |
Các tập tin trong tài liệu này:
Tập tin | Mô tả | Kích thước | Định dạng | |
---|---|---|---|---|
_file_ Giới hạn truy cập | 1.24 MB | Adobe PDF | ||
Your IP: 18.117.91.170 |
Khi sử dụng các tài liệu trong Thư viện số phải tuân thủ Luật bản quyền.