Фрагмент для ознакомления
2
Введение
Метод опорных векторов (support vector machine, SVM) является од-ним из методов интеллектуального анализа данных для решения задачи классификации. Его основная идея заключается в переводе исходных век-торов в пространство более высокой размерности c применением метода ядра для обеспечения линейной разделимости классов и в поиске разделя-ющей гиперплоскости с максимальным зазором между гиперплоскостью и опорными векторами в этом пространстве.
Несмотря на высокую точность работы, метод имеет и недостатки - отсутствие общего подхода к автоматическому выбору ядра, а также вы-сокую вычислительную сложность.
Вышеизложенное обусловило актуальность выбранной темы.
Целью данной работы является изучение метода опорных векторов SVM (Support Vector Machine, а также проблемы линейной неразделимо-сти.
В соответствии с поставленной целью необходимо решить ряд задач, таких как:
рассмотреть метод опорных векторов SVM (Support Vector Machine);
раскрыть проблему линейной неразделимости.
Объектом исследования является метод опорных векторов, предме-том – проблема линейной неразделимости.
1 Метод опорных векторов SVM (Support Vector Machine)
Метод опорных векторов(SVM - support vector machine) — набор схожих алгоритмов обучения с учителем, использующихся для задач клас-сификации и регрессионного анализа. Принадлежит семейству линейных классификаторов и может также рассматриваться как специальный случай регуляризации по Тихонову.
SVM используется как для линейно разделяемых данных, так и для нелинейных разделяемых данных.
Для нелинейных данных используются функции ядра.
Давайте узнаем о SVC (классификатор опорных векторов) в линей-ных разделяемых данных, который используется для задач классификации в этой статье.
Рассмотрим линейно разделяемые данные.
1. Одномерное пространство.
Предположим, у нас есть два класса, красный и зеленый, и если мы можем найти границу, которая разделяет два класса, это называется ли-нейно разделяемыми данными.
Здесь мы могли бы выделить одну точку, которая действует как гра-ница между двумя классами. Точки данных ниже конкретной точки отно-сятся к красному классу, а выше этой конкретной точки относятся к зеле-ному классу.
2. Двумерное пространство (см. рис. 1
Фрагмент для ознакомления
3
Список использованных источников
1. Башмаков А.И., Башмаков И.А. Интеллектуальные информацион-ные технологии. M.: Изд-во МГТУ им. Н.Э. Баумана, 2005. 304 с.
2. Вьюгин В.В. Математические основы теории машинного обучения и прогнозирования. М., 2013. 390 с.
3. Statnikov A., Aliferis C.F., Hardin D.P., Guyon I. A Gentle Introduc-tion to Support Vector Machines in Biomedicine: Vol. 1: Theory and Methods. 2011, 200 p. DOI: 10.1142/7922.
4. Rojo-Alvarez J.L., Martinez-Ramon M., Munoz-Mari J., Camps-Valls G. Support vector machine and kernel classification algorithms. In: Digital Signal Processing with Kernel Methods. 2018, pp. 433-502. DOI: 10.1002/9781118705810.ch10.
5. Pisner D.A., Schnyer D.M. Machine Learning. Methods and Applica-tions to Brain Disorders. 2020, pp. 101-121. DOI: 10.1016/B978-0-12-815739-8.00006-7.
6. Nefedov A. Support Vector Machines: A Simple Tutorial. 2016, 35 p. URL: https://svmtutorial.online (дата обращения: 20.01.2020).
7. Alam S., Kang M., Pyun J.Y., Kwon G.R. Performance of classifica-tion based on PCA, linear SVM, and Multi-kernel SVM. Proc. 8th ICUFN, IEEE 2016, pp. 987-989. DOI: 10.1109/ICUFN.2016.7536945.
8. Xiangdong H., Shaoqing W. Prediction of bottom-hole flow pressure in coalbed gas wells based on GA optimization SVM. Proc. 3rd IAEAC, IEEE, 2018, pp. 138-141. DOI: 10.1109/IAEAC.2018.8577488.
9. Баттерворс Д., Хьюитт Г. Теплопередача в двухфазном потоке; [пер. с англ.]. М.: Энергия, 1980. 328 с.
10. Киселев П.Т. Гидравлика: основы механики жидкости. М.: Энер-гия, 1980. 360 с.