tailieunhanh - Bài giảng Khai phá dữ liệu (Data mining): Support vector machine - Trịnh Tấn Đạt

Bài giảng Khai phá dữ liệu (Data mining): Support vector machine, chương này trình bày những nội dung về: ôn tập Đại số tuyến tính; bộ phân loại và biên độ phân loại; SVM tuyến tính - bài toán tối ưu hóa; phân loại ký quỹ cứng và mềm; SVM phi tuyến tính; . Mời các bạn cùng tham khảo chi tiết nội dung bài giảng! | Trịnh Tấn Đạt Khoa CNTT Đại Học Sài Gòn Email trinhtandat@ Website https site ttdat88 Contents Introduction Review of Linear Algebra Classifiers amp Classifier Margin Linear SVMs Optimization Problem Hard Vs Soft Margin Classification Non-linear SVMs Introduction Competitive with other classification methods Relatively easy to learn Kernel methods give an opportunity to extend the idea to Regression Density estimation Kernel PCA Etc. 3 Advantages of SVMs - 1 A principled approach to classification regression and novelty detection Good generalization capabilities Hypothesis has an explicit dependence on data via support vectors hence can readily interpret model 4 Advantages of SVMs - 2 Learning involves optimization of a convex function no local minima as in neural nets Only a few parameters are required to tune the learning machine unlike lots of weights and learning parameters hidden layers hidden units etc as in neural nets 5 Prerequsites Vectors matrices dot products Equation of a straight line in vector notation Familiarity with Perceptron is useful Mathematical programming will be useful Vector spaces will be an added benefit The more comfortable you are with Linear Algebra the easier this material will be 6 What is a Vector Think of a vector as a directed line segment in N-dimensions has length and a direction v b Basic idea convert geometry in higher dimensions into algebra c Once you define a nice basis along each dimension x- y- z-axis y Vector becomes a 1 x N matrix v a b c T v Geometry starts to become linear algebra on vectors like v x 7 Vector Addition A B v w x1 x 2 y1 y 2 x1 y1 x 2 y 2 A B A A B C use the head-to-tail method to B combine vectors C B A 8 Scalar Product av a v a x1 x 2 ax1 ax 2 av v Change only the length scaling but keep direction fixed. Sneak peek matrix operation Av can change length direction and also dimensionality 9 Vectors Magnitude Length and Phase direction v x x x T 1 2 n n v x2 Magnitude or 2-norm

TỪ KHÓA LIÊN QUAN
TÀI LIỆU MỚI ĐĂNG
8    179    0    08-05-2024
11    151    1    08-05-2024
6    89    0    08-05-2024
28    114    0    08-05-2024
6    101    0    08-05-2024
15    107    0    08-05-2024
crossorigin="anonymous">
Đã phát hiện trình chặn quảng cáo AdBlock
Trang web này phụ thuộc vào doanh thu từ số lần hiển thị quảng cáo để tồn tại. Vui lòng tắt trình chặn quảng cáo của bạn hoặc tạm dừng tính năng chặn quảng cáo cho trang web này.