Kinh doanh - Marketing
Kinh tế quản lý
Biểu mẫu - Văn bản
Tài chính - Ngân hàng
Công nghệ thông tin
Tiếng anh ngoại ngữ
Kĩ thuật công nghệ
Khoa học tự nhiên
Khoa học xã hội
Văn hóa nghệ thuật
Sức khỏe - Y tế
Văn bản luật
Nông Lâm Ngư
Kỹ năng mềm
Luận văn - Báo cáo
Giải trí - Thư giãn
Tài liệu phổ thông
Văn mẫu
Giới thiệu
Đăng ký
Đăng nhập
Tìm
Danh mục
Kinh doanh - Marketing
Kinh tế quản lý
Biểu mẫu - Văn bản
Tài chính - Ngân hàng
Công nghệ thông tin
Tiếng anh ngoại ngữ
Kĩ thuật công nghệ
Khoa học tự nhiên
Khoa học xã hội
Văn hóa nghệ thuật
Y tế sức khỏe
Văn bản luật
Nông lâm ngư
Kĩ năng mềm
Luận văn - Báo cáo
Giải trí - Thư giãn
Tài liệu phổ thông
Văn mẫu
Thông tin
Điều khoản sử dụng
Quy định bảo mật
Quy chế hoạt động
Chính sách bản quyền
Giới thiệu
Đăng ký
Đăng nhập
0
Trang chủ
Luận Văn - Báo Cáo
Báo cáo khoa học
Báo cáo khoa học: "Learning Accurate, Compact, and Interpretable Tree Annotation"
Đang chuẩn bị liên kết để tải về tài liệu:
Báo cáo khoa học: "Learning Accurate, Compact, and Interpretable Tree Annotation"
Trân Châu
61
8
pdf
Đang chuẩn bị nút TẢI XUỐNG, xin hãy chờ
Tải xuống
We present an automatic approach to tree annotation in which basic nonterminal symbols are alternately split and merged to maximize the likelihood of a training treebank. Starting with a simple Xbar grammar, we learn a new grammar whose nonterminals are subsymbols of the original nonterminals. | Learning Accurate Compact and Interpretable Tree Annotation Slav Petrov Leon Barrett Romain Thibaux Dan Klein Computer Science Division EECS Department University of California at Berkeley Berkeley CA 94720 petrov lbarrett thibaux klein @eecs.berkeley.edu Abstract We present an automatic approach to tree annotation in which basic nonterminal symbols are alternately split and merged to maximize the likelihood of a training treebank. Starting with a simple X-bar grammar we learn a new grammar whose nonterminals are subsymbols of the original nonterminals. In contrast with previous work we are able to split various terminals to different degrees as appropriate to the actual complexity in the data. Our grammars automatically learn the kinds of linguistic distinctions exhibited in previous work on manual tree annotation. On the other hand our grammars are much more compact and substantially more accurate than previous work on automatic annotation. Despite its simplicity our best grammar achieves an Fl of 90.2 on the Penn Treebank higher than fully lexicalized systems. 1 Introduction Probabilistic context-free grammars PCFGs underlie most high-performance parsers in one way or another Collins 1999 Charniak 2000 Charniak and Johnson 2005 . However as demonstrated in Charniak 1996 and Klein and Manning 2003 a PCFG which simply takes the empirical rules and probabilities off of a treebank does not perform well. This naive grammar is a poor one because its context-freedom assumptions are too strong in some places e.g. it assumes that subject and object NPs share the same distribution and too weak in others e.g. it assumes that long rewrites are not decomposable into smaller steps . Therefore a variety of techniques have been developed to both enrich and generalize the naive grammar ranging from simple tree annotation and symbol splitting Johnson 1998 Klein and Manning 2003 to full lexicalization and intricate smoothing Collins 1999 Charniak 2000 . In this paper we .
TÀI LIỆU LIÊN QUAN
Báo cáo khoa học: "Learning Condensed Feature Representations from Large Unsupervised Data Sets for Supervised Learning"
Báo cáo khoa học: "Learning Better Data Representation using Inference-Driven Metric Learning"
Báo cáo khoa học: "A Combination of Active Learning and Semi-supervised Learning Starting with Positive and Unlabeled Examples for Word Sense Disambiguation: An Empirical Study on Japanese Web Search Query"
B.A Thesis: English major students’ difficulties and expectations in learning written translation at Dong Thap university
Báo cáo đề tài nghiên cứu khoa học cấp trường: Áp dụng mô hình học tập Blended Learning trong giảng dạy học phần Basic IELTS 1 cho sinh viên theo chương trình đào tạo chất lượng cao năm thứ nhất trường Đại học Thương mại
Báo cáo đề tài nghiên cứu khoa học cấp trường: Nâng cao động lực học tiếng Anh cho sinh viên thông qua phương pháp học theo dự án (project-based learning)
Báo cáo đề tài nghiên cứu khoa học cấp trường: Nghiên cứu một số thuật toán học máy (machine learning) ứng dụng cho bài toán xác định các chủ đề quan tâm của khách hàng trực tuyến
Báo cáo khoa học: "Applications of GPC Rules and Character Structures in Games for Learning Chinese Characters"
Báo cáo khoa học: "Learning and Translating by Machines"
Báo cáo khoa học: "Discriminative Learning for Joint Template Filling"
crossorigin="anonymous">
Đã phát hiện trình chặn quảng cáo AdBlock
Trang web này phụ thuộc vào doanh thu từ số lần hiển thị quảng cáo để tồn tại. Vui lòng tắt trình chặn quảng cáo của bạn hoặc tạm dừng tính năng chặn quảng cáo cho trang web này.