C in the Eq. (12) controls the trade-off between the flatnessand the e перевод - C in the Eq. (12) controls the trade-off between the flatnessand the e русский как сказать

C in the Eq. (12) controls the trad

C in the Eq. (12) controls the trade-off between the flatness
and the error of the training samples outside the ε-tube.
Lagrangian formulation is derived by eliminating the constraints
using slack variables as follows:
min
w
1
2
kwk2 þ C
Xn
i¼1
ζi þ ζ
i
 

Xn
i¼1
αi ε þ ζi−yi þ wTxi þ b
 

Xn
i¼1
ηiζi−
Xn
i¼1
α
i ε þ ζi þ yi−wTxi−b
 

Xn
i¼1
ηiζ
i ;
s:t: αi;α
i ; ζi; ζ
i ≥0:
ð13Þ
By taking the derivatives of the primal variables, the optimal
conditions for the above Lagrangian are obtained; in turn,
Wolfe's dual problem is derived by replacing the conditions in
the primal problem:
max −1
2
Xn
i; j¼1
αi−α
i
 
αi−α
i
 xTi
xj−ε
Xn
i¼1
αi þ α
i
 þ Xn
i¼1
yi αi−α
i
 
s:t:
Xn
i¼1
αi−α
i
 ¼ 0; 0≤αi;α
i ≤1:
ð14Þ
SVR enables nonlinear fitting using a mapping function ϕ(x)
that transforms data froma lowdimensional input space to a high
dimensional feature space. Since only inner products between
input vectors are required during optimization, a kernel trick K(xi,
xj) = ϕ(xi)·ϕ(xj) is employed to compute the inner product in
the feature space without an explicit mapping function.
CART [47] is another approach to nonlinear regression in
that the entire input space is recursively partitioned into
small chunks until the members can be fit by a simple model.
Beginning with all instances in a single parent node, the
splitting criterion, which maximizes the information gain
usually measured by the decrease in the sum of squared
errors between before and after the splitting, is determined.
Then, the training instances are assigned to one of the child
nodes in accordance with their variable status and the
splitting criterion. Again, each child node becomes a new
parent node and the same partitioning procedure is recursively
conducted until the full tree is constructed, i.e., there is
no more information gain after splitting.
Another key procedure of training CART is pruning. Since
the full tree constructed by CART divides the input space into
such a large number of tiny segments, it is usually exposed to
an over-fitting risk; it would degrade the generalization

0/5000
Источник: -
Цель: -
Результаты (русский) 1: [копия]
Скопировано!
C в уравнение (12) управляет компромисс между плоскостностии ошибка подготовки образцов вне ε-Тюбе.Лагранжиан формулировка получается путем устранения ограниченийИспользование слабину переменных следующим образом:минw12kwk2 þ CXni¼1Ζi þ ζя −Xni¼1Αi ε þ ζi−yi þ wTxi þ b −Xni¼1Ηiζi−Xni¼1Αя ε þ ζi þ yi−wTxi−b −Xni¼1Ηiζя;Санкт: αi; αя; Ζi; Ζя ≥0:ð13ÞВзяв производные изначальная переменных, оптимальныйполучены условия для выше Лагранжа; в свою очередь,Вулф двойственная задача является производным, заменив условия визначальная проблема:Макс −12Xnя; j¼1Αi−αя Αi−αяxTiXJ−εXni¼1Þ αi αяþ Xni¼1Йи αi−αя Санкт:Xni¼1Αi−αя ¼ 0; 0≤αi; αя ≤1:ð14ÞSVR позволяет нелинейного монтажа с помощью ϕ(x) функции сопоставлениячто преобразует данные ФРОМА lowdimensional входного пространства для высокойразмерные пространстве. Поскольку только внутренней продукции междуво время оптимизации, ядра трюк K (xi, требуются входные векторыXJ) = ϕ(xi)·ϕ(xj) используется для вычисления внутренней продукта вособенность пространство без явного сопоставления функции.Корзина [47] — еще один подход к нелинейной регрессии вчто все пространство ввода является рекурсивно, разделенныхмелкие куски до тех пор, пока члены может быть установлен с помощью простой модели.Начиная со всеми экземплярами в один родительский узел,колки критерий, который максимизирует прироста информацииобычно измеряется уменьшение суммы квадратовошибки между до и после разделения, определяется.Затем подготовки экземпляров назначаются для одного ребенкаузлы в соответствии с их переменных состояния иразделение критерий. Опять же каждый дочерний узел становится новойродительский узел и та же процедура перегородки — рекурсивнопроводится до тех пор, пока полное дерево строится, то есть, естьполучить больше информации, после разделения.Другой ключевой процедурой подготовки корзину обрезки. Начиная сполное дерево, построенных на телеге делит пространство ввода втакое большое количество крошечных сегментов, он обычно подвергаетсяболее уместным риска; Он будет деградировать обобщения.
переводится, пожалуйста, подождите..
Результаты (русский) 2:[копия]
Скопировано!
С в уравнении. (12) управляет компромисс между плоскостью
и погрешности обучающих выборок за пределами е-трубки.
Лагранжева формулировка получена путем устранения ограничений
с помощью слабину переменных следующим образом:
мин
W
1
2
kwk2 þ С
Хп
i¼1
ζi þ ζ ? я? ? - Хп i¼1 щ е þ ζi Йи þ þ wTxi б? ? - Х i¼1 ηiζi- Х i¼1? Α я ε þ þ ζi Yi-wTxi-б? ? - Х i¼1 ηiζ? Я; s: T: щ; альфа? Я; ζi; ? ζ я ≥0: ð13Þ Беря производные первичных переменных, оптимальные условия для выше лагранжиана получены; в свою очередь, двойственная задача Вулфа происходит путем замены условия в прямой задачи: макс -1 2 Xn я; j¼1 щ-альфа? я? ? Щ-α? Я? ? XTi XJ-ε Х i¼1 щ þ α? я? ? й Х i¼1 ух щ-α? я? ? S: т: Х i¼1 щ-альфа? Я? ? ¼ 0; 0≤αi; альфа? Я ≤1: ð14Þ СВР позволяет нелинейную установку, используя функцию отображения ф (х), который преобразует данные froma lowdimensional входное пространство с высокой размерной художественного пространства. Так как только внутренние продукты между входными векторами требуется во время оптимизации, трюк ядро К (XI, XJ) = φ (XI) · φ (х) используется для вычисления скалярного произведения в художественном пространстве без явной функции отображения. КОРЗИНУ [ 47] другой подход к нелинейной регрессии в том, что весь входной пространство рекурсивно разбивается на мелкие куски, пока члены не могут быть подходят по простой модели. Начиная с всех случаях в одном родительском узле, критерий расщепления, которая максимизирует усиление информационной обычно измеряется уменьшением суммы квадратов ошибок между до и после расщепления, определяется. Затем экземпляры подготовки относятся к одной из дочерних узлов в соответствии с их переменной состояния и критерий расщепления. Опять же, каждый дочерний узел становится новым родительским узлом, и та же самая процедура разделения рекурсивно проводили до полного дерево не строится, т.е. нет нет больше информации усиления после разделения. Другой ключевой Методика подготовки корзина обрезки. Так полное дерево, построенные на телеге делит входное пространство в таком большом количестве маленьких сегментов, как правило, подвергается в течение риска облегающие; было бы ухудшить обобщение

















































































переводится, пожалуйста, подождите..
Результаты (русский) 3:[копия]
Скопировано!
с. (12) контролирует компромисс между плоскость
и ошибки в подготовке проб за пределами ε - трубку.
лагранжа формулировка является путем снятия ограничений
с использованием послабление переменных следующим образом:



1 мин. kwk2 2


я 4 х в с 1 ζ я. в ζ 



я   - х
я ¼ 1
α я ε в ζ я - и в wtxi в б
 


я 4 - х 1
излучения, я ζ я -

я 4 х 1
α 
я ε в ζ я в и - - wtxi - б
 


я 4 - х 1
излучения, я ζ 
I;
S: T: α я; α 
я, ζ я; ζ 
я ≥ 0:
р 13 ю
, принимая производных от первичных переменных, оптимального
условия выше лагранжа получены; в свою очередь,
вулф двойной проблемой является путем замены условий в
изначальная проблема:
макс - 1: 2. х
I; J ¼ 1
α я −α 
я
 
α я −α 
я
  xti


я xj −ε х 4 1
α я в α 
я
  в х
я ¼ 1
и α я −α 

 я 
s: T:

я 4 х 1
α я −α 
я
  ¼ 0; 0 ≤α я; α 
я ≤ 1: 14 - ю

свр позволяет установку с использованием карт / функцию 57,3 (x)
, преобразующий данные со lowdimensional входного пространства большой
размерных особенность пространства.с тех пор, как только внутренняя продукции между
вклада вектора в оптимизации, ядро - к (XI,
xj) = o (XI) ·ϕ (xj) используется для расчета внутреннего продукта в
особенность пространство без явного карт функции.
тележка [47] - это другой подход к нелинейной регрессии в
что весь вклад пространство будет разделена на небольшие кусочки. до тех пор, пока члены могут служить простым модели.
начиная с все случаи, мать - одиночка узел,
гонораров критерий, который позволяет максимально полезной информацией,
обычно измеряется уменьшение сумма в квадрате
ошибки между до и после разделения,определяется.
тогда, подготовки случаи относятся к одной из детской
узлов в соответствии с переменной положения и
гонораров критерий.опять же, каждому ребенку узел становится новой
головной узел и же разметку процедура рекурсивно
проводится до полного дерево формируется, например, есть
нет больше никакой информации получить после разделения.
еще одним ключевым процедуры подготовки корзину подрезать.поскольку
полное дерево построены тележку делит вклад космической в
такого большого количества маленьких групп, обычно подвергаются
из - за установку риска; она будет ухудшать обобщение

переводится, пожалуйста, подождите..
 
Другие языки
Поддержка инструмент перевода: Клингонский (pIqaD), Определить язык, азербайджанский, албанский, амхарский, английский, арабский, армянский, африкаанс, баскский, белорусский, бенгальский, бирманский, болгарский, боснийский, валлийский, венгерский, вьетнамский, гавайский, галисийский, греческий, грузинский, гуджарати, датский, зулу, иврит, игбо, идиш, индонезийский, ирландский, исландский, испанский, итальянский, йоруба, казахский, каннада, каталанский, киргизский, китайский, китайский традиционный, корейский, корсиканский, креольский (Гаити), курманджи, кхмерский, кхоса, лаосский, латинский, латышский, литовский, люксембургский, македонский, малагасийский, малайский, малаялам, мальтийский, маори, маратхи, монгольский, немецкий, непальский, нидерландский, норвежский, ория, панджаби, персидский, польский, португальский, пушту, руанда, румынский, русский, самоанский, себуанский, сербский, сесото, сингальский, синдхи, словацкий, словенский, сомалийский, суахили, суданский, таджикский, тайский, тамильский, татарский, телугу, турецкий, туркменский, узбекский, уйгурский, украинский, урду, филиппинский, финский, французский, фризский, хауса, хинди, хмонг, хорватский, чева, чешский, шведский, шона, шотландский (гэльский), эсперанто, эстонский, яванский, японский, Язык перевода.

Copyright ©2025 I Love Translation. All reserved.

E-mail: