Задача двоичной классификации: регрессия ядра по методу наименьших квадратов (потеря в квадрате) против SVM (потеря шарнира) - DataScientist
0 голосов
/ 02 января

В двоичной классификации функция решения, в порядке r для подгонки обучающих данных, просто должна получить значения, имеющие ту же полярность, что и требуемые значения, чем r, чем точное получение точных требуемых значений.

Таким образом, регрессия ядра в наименьшем квадрате настроена на получение точных значений, если у нас ненулевая регуляризация, она может потерять некоторую пригодность (с точки зрения получения точных значений). Этот метод идеально подходит для любых данных. Что удивительно, так это то, что он лучше r, чем o r не так хорош, как SVM, для задач двоичной классификации. SVM использует потерю шарнира, но недостатком является то, что эта потеря шарнира не классифицирует любые данные обучения идеально, заставляя нас смотреть на r различные ядра, чтобы увидеть, если кто-то из них
классифицирует данные обучения идеально.

Вопрос: Мой вопрос: есть ли что-то среднее между этими двумя крайними случаями? Я ценю вас r комментарии o r Если бы вы могли указать на любые работы / документы по этому вопросу.

Ссылка: Белкин М., Ниёги П. и Синдхвани В., 2006. Коллектор регуляризация: геометрия c каркас для r обучения на помеченных и немаркированных примерах. Журнал исследований машинного обучения, 7 (ноябрь), с.2399-2434.

...