Результаты (
русский) 3:
[копия]Скопировано!
где NN (XT) и WJ обозначают индекс комплекса k-nearest
соседи XT и установленное значение j - ой ближайшего
сосед, соответственно.в k-nn регрессии, два конкретных пользователей,
параметры должны быть объявлены до предсказание: число
из ближайших соседей (k) и вес метод распределения.
энн [21] является одним из наиболее широко используемых разрозненные
во многих областях, поскольку применение алгоритмов регрессии
на свою способность накапливать нелинейных отношения между
входных и выходных переменных [40 - 42].а трехслойные feed-forward
нейронная сеть используется в наших экспериментов.в энн, цель -
выразили как сочетание материалов ценностей, приведение в действие функции,
и веса следующим образом:
формула wherewq (2), wqp
(1)andg (·) theweight связаны из QTH
скрытого узла в выходной узел, вес, связанных с pth
входной узел в QTH скрытого узла, и активизация
функцию, соответственно.подготовка энн эквивалентно поиска оптимального веса, чтобы свести к минимуму: цель функция потерь, как
показано в. (11):
с формула нет четкого решения для энн, комбинаторной
алгоритмов оптимизации, такие как градиентный спуск
алгоритм [43], метод ньютона [44], и levenberg.
марквардт алгоритм [45] используются для оптимизации веса.
вопреки энн, которая основана на эмпирических риск
минимизации (мвк), свр [46] на основе структурных рисков
минимизации (уир) принцип.свр подходит к ј уравнение регрессии: втб ю B с ограничениями, в том числе:подготовка случаях максимально возможное в ε - трубку, как
формула следующим образом:
переводится, пожалуйста, подождите..
