Редактирование:
О бритве Оккама
Перейти к навигации
Перейти к поиску
Внимание:
Вы не вошли в систему. Ваш IP-адрес будет общедоступен, если вы запишете какие-либо изменения. Если вы
войдёте
или
создадите учётную запись
, её имя будет использоваться вместо IP-адреса, наряду с другими преимуществами.
Анти-спам проверка.
Не
заполняйте это!
Распространенная современная интерпретация "бритвы Оккама" для широкого круга задач не работает даже в математике: "In machine learning, this is [Occam’s razor] often taken to mean that, given two classifiers with the same training error, the simpler of the two will likely have the lowest test error. Purported proofs of this claim appear regularly in the literature, but in fact there are many counter examples to it, and the “no free lunch” theorems imply it cannot be true. We saw one counter-example in the previous section: model ensembles. The generalization error of a boosted ensemble continues to improve by adding classifiers even after the training error has reached zero."<ref>Domingos P. A few useful things to know about machine learning // Communications of the ACM. Vol. 55 (10). 2012. n. 11.</ref> Т. е. большая простота классификатора не предполагает непременно большую точность: распространенная современная интерпретация "бритвы Оккама" для широкого круга задач не работает даже в математике. == Сноски ==
Описание изменений:
Отменить
Справка по редактированию
(в новом окне)
Навигация
Персональные инструменты
Вы не представились системе
Обсуждение
Вклад
Создать учётную запись
Войти
Пространства имён
Статья
Обсуждение
русский
Просмотры
Читать
Править
История
Ещё
Навигация
Заглавная страница
Свежие правки
vk
Πανάριον
Инструменты
Ссылки сюда
Связанные правки
Служебные страницы
Сведения о странице