where NN(xt) and wj denote the index set of the k-nearestneighbors of  перевод - where NN(xt) and wj denote the index set of the k-nearestneighbors of  русский как сказать

where NN(xt) and wj denote the inde

where NN(xt) and wj denote the index set of the k-nearest
neighbors of xt and the assigned weight to the jth nearest
neighbor, respectively. In the k-NN regression, two user-specific
parameters must be declared prior to the prediction: the number
of nearest neighbors (k) and weight allocation method.
ANN [21] is one of the most widely used nonparametric
regression algorithms in many application domains owing
to its ability to capture nonlinear relationships between the
input and output variables [40–42]. A three-layer feed-forward
neural network is used in our experiments. In ANN, the target is
expressed as a combination of input values, activation functions,
and weights as follows:
формула
wherewq
(2),wqp
(1), andg(⋅) are theweight connected fromthe qth
hidden node to the output node, the weight connected from the
pth input node to the qth hidden node, and the activation
function, respectively. Training ANN is equivalent to finding the
optimal weights that minimize the objective loss function, as
shown in Eq. (11):
формула
Since there exists no explicit solution for ANN, combinatorial
optimization algorithms such as the gradient descent
algorithm [43], Newton's method [44], and Levenberg–
Marquardt algorithm [45] are used to optimize the weights.
Contrary to ANN, which is based on the empirical risk
minimization (ERM), SVR [46] is based on the structural risk
minimization (SRM) principle. SVR fits the regression
equation by ј wTb ю b with the constraints of including
training instances as many as possible in the ε -tube as
follows:
формула


1605/5000
Источник: Определить язык
Цель: русский
Результаты (русский) 1: [копия]
Скопировано!
где NN(xt) и wj обозначают индекс набор k ближайшиесоседи xt и заданный вес до ближайшего jthсосед, соответственно. В k-NN регрессии, два пользователяпараметры должны быть объявлены до прогнозирования: числоиз ближайших соседей (k) и метода распределения веса.Энн [21] является одним из наиболее широко используемых непараметрическойалгоритмы регрессии во многих областях применения, благодаряего способность захватить нелинейных связей междувходные и выходные переменные [40 – 42]. -Трехслойный корма впередНейронная сеть используется в наших экспериментах. В Энн целью являетсявыраженный в виде сочетания входных значений, активации функции,и веса следующим образом:ФОРМУЛАwherewq(2), wqp(1), andg(⋅) являются ноши, связанные с qthскрытый узел к узлу вывода, вес связаны сВходной узел PTH qth скрытый узел и активациифункция, соответственно. Обучение Энн эквивалентно Поископтимальных весов, уменьшающие цель потери функции, какпоказано в уравнение (11):ФОРМУЛАПоскольку не существует явного решения для Энн, комбинаторныеалгоритмы оптимизации таких градиентного спускаалгоритм [43], Ньютона метод [44] и Левенберг –Марквардт алгоритм [45] используются для оптимизации веса.Вопреки Энн, которая основана на эмпирического рискаМинимизация (ERM), СВР [46] на основе структурных рисковпринцип минимизации (SRM). SVR вписывается регрессииуравнение уровня wTb ю b с ограничениями, в том числеобучение как можно больше в ε экземпляры-трубка какследующим образом: ФОРМУЛА
переводится, пожалуйста, подождите..
Результаты (русский) 2:[копия]
Скопировано!
где NN (х) и WJ обозначать множество индексов К-ближайших
соседей XT и назначенного весом до -го ближайшего
соседа, соответственно. В регрессии к-НН, два пользовательских конкретных
параметров должны быть объявлены до прогнозирования:
число. Ближайших соседей (К) и метода распределения веса
ИНС [21] является одним из наиболее широко используемых непараметрических
алгоритмов регрессии в много применение домены вследствие
своей способности захватить нелинейных отношений между
входными и выходными переменными [40-42]. Трехслойный опережающее
нейронная сеть используется в наших экспериментах. В ИНС, цель
выражается в виде комбинации входных значений, функций активации,
и весов следующим образом:
Формула
wherewq
(2), wqp
(1), AndG (⋅) являются theweight связано FROMTHE QTH
скрытого узла к выходному узлу, на Вес соединены с
входным PTH узла к узлу Q-го скрытого, и активации
функции, соответственно. Обучение ИНС эквивалентно нахождению
оптимальных весов, которые минимизируют целевую функцию потерь, а
показано в уравнении. (11):
формула
С не существует явное решение для ИНС, комбинаторные
алгоритмы оптимизации, такие как градиентный спуск
алгоритма [43], метод Ньютона [44], и Levenberg-
алгоритм Марквардт [45] используются для оптимизации веса.
Вопреки ИНС, которая основана на эмпирических риск
минимизации (ERM), СВР [46] основан на структурно риск
минимизации (SRM) принципу. СВР подходит регрессии
уравнение по ј WTB ю б с ограничениями в том числе
экземпляры учебных как можно больше в ε -tube, как
следующим образом:
Формула


переводится, пожалуйста, подождите..
Результаты (русский) 3:[копия]
Скопировано!
где NN (XT) и WJ обозначают индекс комплекса k-nearest
соседи XT и установленное значение j - ой ближайшего
сосед, соответственно.в k-nn регрессии, два конкретных пользователей,
параметры должны быть объявлены до предсказание: число
из ближайших соседей (k) и вес метод распределения.
энн [21] является одним из наиболее широко используемых разрозненные
во многих областях, поскольку применение алгоритмов регрессии
на свою способность накапливать нелинейных отношения между
входных и выходных переменных [40 - 42].а трехслойные feed-forward
нейронная сеть используется в наших экспериментов.в энн, цель -
выразили как сочетание материалов ценностей, приведение в действие функции,
и веса следующим образом:


формула wherewq (2), wqp
(1)andg (·) theweight связаны из QTH
скрытого узла в выходной узел, вес, связанных с pth
входной узел в QTH скрытого узла, и активизация
функцию, соответственно.подготовка энн эквивалентно поиска оптимального веса, чтобы свести к минимуму: цель функция потерь, как
показано в. (11):

с формула нет четкого решения для энн, комбинаторной
алгоритмов оптимизации, такие как градиентный спуск
алгоритм [43], метод ньютона [44], и levenberg.
марквардт алгоритм [45] используются для оптимизации веса.
вопреки энн, которая основана на эмпирических риск
минимизации (мвк), свр [46] на основе структурных рисков
минимизации (уир) принцип.свр подходит к ј уравнение регрессии: втб ю B с ограничениями, в том числе:подготовка случаях максимально возможное в ε - трубку, как




формула следующим образом:
переводится, пожалуйста, подождите..
 
Другие языки
Поддержка инструмент перевода: Клингонский (pIqaD), Определить язык, азербайджанский, албанский, амхарский, английский, арабский, армянский, африкаанс, баскский, белорусский, бенгальский, бирманский, болгарский, боснийский, валлийский, венгерский, вьетнамский, гавайский, галисийский, греческий, грузинский, гуджарати, датский, зулу, иврит, игбо, идиш, индонезийский, ирландский, исландский, испанский, итальянский, йоруба, казахский, каннада, каталанский, киргизский, китайский, китайский традиционный, корейский, корсиканский, креольский (Гаити), курманджи, кхмерский, кхоса, лаосский, латинский, латышский, литовский, люксембургский, македонский, малагасийский, малайский, малаялам, мальтийский, маори, маратхи, монгольский, немецкий, непальский, нидерландский, норвежский, ория, панджаби, персидский, польский, португальский, пушту, руанда, румынский, русский, самоанский, себуанский, сербский, сесото, сингальский, синдхи, словацкий, словенский, сомалийский, суахили, суданский, таджикский, тайский, тамильский, татарский, телугу, турецкий, туркменский, узбекский, уйгурский, украинский, урду, филиппинский, финский, французский, фризский, хауса, хинди, хмонг, хорватский, чева, чешский, шведский, шона, шотландский (гэльский), эсперанто, эстонский, яванский, японский, Язык перевода.

Copyright ©2025 I Love Translation. All reserved.

E-mail: ilovetranslation@live.com