generalization is guaranteed only when a sufficient number oftraining  перевод - generalization is guaranteed only when a sufficient number oftraining  русский как сказать

generalization is guaranteed only w

generalization is guaranteed only when a sufficient number of
training instances are provided. This requirement is not likely
to be met by having 80 products only, and therefore, ANN and
CART result in lower prediction accuracies.
Turning to the comparison of prediction performance
between the statistical and machine learning-based algorithms
and the conventional analogical method, the former are superior
to the latter with only a few exceptions, namely CART for p and
ANN for q. Setting these exceptions aside, the analogical method
is at least 47% worse than the others at predicting p and at least
8.7% worse at predicting q. Compared with the best single
algorithm, theMAE of the analogicalmethod is almost twice that
of MLR for both p and q. In other words, in the best-case scenario,
the new prediction methodology proposed in this study has a
twice as strong predictive power compared with the conventional
analogical method.
Fig. 5 shows the distribution and box plot of the residuals
( y−by ) produced by each single prediction model. A good
prediction model should meet the following two qualifications:
(1) the average of the residuals should be as close to
zero as possible and (2) the dispersion of the residuals should
be as narrow as possible. Given these conditions, we find that
the conventional analogical method is the poorest model
because not only does it have the widest residual dispersion
but also its average is below zero for both p and q. As
previously noted, ANN and CART are inferior to the other
statistical and machine learning-based models since their
dispersions are almost as wide as that of the analogical
method. This confirms that MLR produces the most desirable
outcomes in that its prediction residuals are most narrowly
distributed with an average value close to zero. However, the
box plot implies that k-NN, SVR, and GPR seem better than
MLR at predicting q, because their inter-quantile ranges are
smaller than that of MLR. However, their MAEs and RMSEs
are spoiled by a few products, for which they fail to make
proper predictions, in contrast to MLR.
4.3. Forecasting performances: ensemble model
Of the 57 possible combinations of regression algorithms for
constructing ensemble models, the union of MLR and GPR was
found to be most accurate. Table 4 compares the prediction
performances of the best ensemble model with those of the
analogical method and MLR. Constructing an ensemble model
resulted in the prediction errors deceasing greatly for both p and
q; almost 90% of the MAE and RMSE of the analogical method
disappeared in both cases. Compared with the best single model
(i.e., MLR), the ensemble prediction model still provided a
surprising improvement; over 75% of prediction errors were
reduced for both p and q regardless of the performance
measures.
Fig. 6 depicts the estimated Bass model parameters
(target, x-axis) and prediction outcomes (y-axis) derived by
the three models: the analogical method, the best single
model (i.e., MLR), and the best ensemble model (i.e., MLR and
GPR). The straight line in the figures represents the ideal
cases where predicted outcomes equal to their actual targets.
Thus, the closer the points approach the line, the better is the
prediction model. In this respect, the analogical method is the
0/5000
Источник: -
Цель: -
Результаты (русский) 1: [копия]
Скопировано!
обобщение гарантирована только тогда, когда достаточное количествообучение экземпляры предоставляются. Это требование не является скорее всеговыполнить, имея 80 только продуктов и, следовательно, Энн иТЕЛЕГА результат в нижней точности прогноза.Переходя к сравнение предсказание производительностимежду статистической и машина на основе обучения алгоритмови метод обычных аналогичных, бывшего начальникак последнему лишь за некоторыми исключениями, а именно корзину для p иЭнн на q. отмене этих исключений, аналогичного методаЭто по крайней мере 47% хуже, чем другие предсказания p и по крайней мере8,7% хуже предсказания q. по сравнению с лучший синглалгоритм, theMAE analogicalmethod-это почти в два разаиз MLR p и q. Другими словами в оптимальный сценарий,Новая методология прогнозирования, предложенные в этом исследовании имеетдважды как сильную прогностической силой по сравнению с обычнымианалогичный метод.Рис. 5 показывает распределение и блочная диаграмма остатков(y−by), подготовленные каждой модели одно предсказание. Хорошиймодель прогнозирования должна удовлетворять двум специальностям:(1) в среднем остатки должны быть как можно ближе кноль как можно скорее и (2) следует дисперсия остатковбыть как можно более узким. Учитывая эти условия, мы находим, чтообычные аналогичного метода является беднейшим модельпотому что не только она максимально Остаточная дисперсияно и его среднем ниже нуля для p и q. какранее отмечалось, Энн и корзину плохоньки к другойстатистические и машина модели, на основе обучения, начиная с ихдисперсии почти так же велик, как и аналогичныеметод. Это подтверждает, что MLR производит наиболее желательнымрезультаты в том, что его предсказание остатков являются наиболее узкораспространяется с средним значением близка к нулю. Однакоблочная диаграмма подразумевает, что k-NN, SVR и ППГ кажется лучше, чемMLR предсказания q, потому что их Интер квантиль диапазоныменьше, чем у MLR. Однако их Мэйс и RMSEsиспорчена несколько продуктов, для которых они не в состоянии сделатьправильного предсказания, в отличие от MLR.4.3. Прогнозирование выступления: ансамбль модельИз 57 возможных комбинаций регрессии алгоритмовПостроение моделей ансамбль, был союз MLR и GPRоказалась наиболее точным. Таблица 4 сравнивает прогнозвыступления лучших ансамбль модели с деятельностьюаналогичный метод и MLR. Построение модели ансамбльпривело к ошибки предсказания, скончавшегося значительно для обоих p иq; почти 90% от Мэй и RMSE аналогичного методав обоих случаях исчез. По сравнению с лучшими единой модели(то есть, MLR), ансамбль модель прогнозирования по-прежнему предусмотреноудивительно улучшение; более 75% предсказания ошибок былиснижена на p и q независимо от производительностимеры.Рис 6 изображает оценкам басовая модель параметров(цель, ось x) и прогнозирование результатов (ось y) получаемыетри модели: аналогичный метод, лучший синглмодель (то есть, MLR) и лучший ансамбль модель (то есть, MLR иППГ). Прямая линия в цифрах представляет идеалслучаи, где прогнозируемые результаты равны их фактической цели.Таким образом, чем ближе точки подхода линии, тем лучшемодель прогнозирования. В этой связи, является метод аналогическое
переводится, пожалуйста, подождите..
Результаты (русский) 2:[копия]
Скопировано!
обобщение гарантируется только при достаточное количество
экземпляров учебных предоставляются. Это требование скорее всего, не
должны быть выполнены при наличии 80 продуктов только, и поэтому, ИНС и
результат в корзину в нижней предсказания точности.
Обращаясь к сравнению производительности прогнозирования
между статистической и машинного обучения на основе алгоритмов
и обычной аналоговой метода, бывший превосходят
в последний с несколькими исключениями, а именно тележка для р и
ИНС для д. Установка этих исключений в сторону, аналогичные
метод, по крайней мере 47% хуже, чем другие в прогнозировании р и по крайней мере
8,7% хуже, предсказывать д. По сравнению с лучшими одного
алгоритма, theMAE из analogicalmethod почти в два раза, что
из MLR и для р и д. Другими словами, в лучшем случае,
новая методика прогнозирования, предложенный в этом исследовании имеет
в два раза сильнее предсказательную способность по сравнению с обычными
аналогичным способом.
Рис. 5 показано распределение и коробки участок остатков
(Y-BY), производимых каждой отдельной модели прогнозирования. Хороший
модель прогнозирования должны отвечать следующим двум требованиям:
(1) среднее остатков должно быть как можно ближе к
нулю, насколько это возможно, и (2) дисперсия остатков должны
быть как можно более узким. Учитывая эти условия, мы находим, что
обычный метод аналогичный является беднейшей
модель, потому что она не только имеет широкий остаточной
дисперсии, но и его средняя находится ниже нуля и для р и д. Как
отмечалось ранее, ИНС и КОРЗИНУ уступают другим
статистических и машинных моделей обучения на основе, так как их
дисперсии по ширине почти как у аналогичного
метода. Это подтверждает, что МЛР производит наиболее желательных
результатов в том, что его остатки предсказания наиболее узком
распределены со средним значением, близкой к нулю. Тем не менее,
коробка участок означает, что К-НН, СВР и GPR показаться лучше, чем
MLR при предсказании д, потому что их взаимосвязанных квантиль диапазоны
меньше, чем у MLR. Тем не менее, их МАЕ и RMSEs
избалованы несколько продуктов, для которых они не в состоянии сделать
правильные предсказания, в отличие от модели ЛР.
4.3. Прогнозирование выступления: ансамбля модель
Из 57 возможных комбинаций алгоритмов регрессии для
построения модели ансамбля, союз РСКЛ и GPR был
найден, чтобы быть наиболее точным. Таблица 4 сравнивает предсказание
выступления лучших ансамбля модели с теми из
аналогичного метода и MLR. Построение ансамбль модель
привела к ошибкам прогнозирования deceasing сильно как для р и
д; почти 90% МАЭ и СКО аналогичным способом
исчезли в обоих случаях. По сравнению с лучшим одной модели
(т.е., MLR), ансамбль модель прогнозирования все еще ​​предоставил
удивительное улучшение; более 75% ошибок прогнозирования были
снижается и для р и д, независимо от производительности
мер.
рис. 6 изображает оцениваемых параметров Бас модели
(цель, ось х) и результаты прогнозирования (Y-ось), получаемые
из трех моделей: аналогическое метод, лучший сингл
модель (т.е., СЛР), и лучшая модель ансамбль (т.е. СЛР и
ГПР). Прямая линия в цифрах представляет идеальные
случаи, когда предсказанные результаты, равные их фактической цели.
Таким образом, чем ближе точки приближаются к линии, тем лучше
модель прогнозирования. В этом отношении, аналогичные метод является
переводится, пожалуйста, подождите..
Результаты (русский) 3:[копия]
Скопировано!
обобщение гарантирована только в том случае, если достаточное количество
подготовки случаях предоставляются.это требование не может быть встретился с. 80 продуктов только и, следовательно, энн и
тележка, приведет к снижению прогноза - ский.
переходя к сравнению прогнозирования показателей
между статистическими и для обучения на основе алгоритмов
и обычных аналогичный методбывшая превосходят
к последнему, но с некоторыми исключениями, а именно тележку для P и
энн по - установление этих исключений, аналогичный метод
является, по меньшей мере, 47% хуже на прогнозирование P и, по крайней мере,
8,7% хуже на прогнозирование - по сравнению с наилучшим способом
алгоритм, themae из в analogicalmethod почти в два раза, что
из mlr как P и - иными словами,в лучшем случае,
новый прогноз методологии, предложенной в это исследование имеет
в два раза сильно интеллектуального власти по сравнению с обычными
аналогичный метод.
рис. 5 показано распределение и поле участок остатки
(Y -), подготовленных каждой модель прогнозирования.хороший
модель прогнозирования должны отвечать следующим двум требованиям:
(1) в среднем остатки должны быть как можно ближе к
0 и 2) дисперсия остатки должны
как можно более узкий.в этих условиях мы считаем, что
обычных аналогичный метод беднейших модель
не только потому, что не было максимально остаточного распыления
, но и составляет в среднем ниже нуля как P и - как
отмечалось ранее,энн и повозки, хуже других
статистических и машинного обучения моделей, основывающихся на, поскольку их
эмульсий почти максимально, что из аналогичных
метод.это подтверждает, что mlr производит наиболее желательным
результатов в том, что его предсказания остатки наиболее узко
распространен при средней стоимости, близки к нулю.тем не менее,
поле участок предполагает, что k-nn, свр и ппг, кажется, лучше.mlr на прогнозирование Q, потому что их в квантиль составляют
меньше, чем mlr.однако их мас и rmses
не избалована несколько продуктов, на которые они не делают
надлежащих прогнозов, в отличие от mlr.
4.3.прогнозирование спектакли: ансамбль модель
из 57 возможных комбинаций регрессии алгоритмы
строительство ансамбля моделей, союз mlr и ппг был
признано наиболее точной.таблица 4 сравнивает прогнозирования
выступления лучших ансамбль модель с тем
аналогичный метод и mlr.строительство ансамбля модель
в результате ошибки значительно сокращается как прогноз P и
Q, почти 90% от мэй и rmse на аналогичный метод
исчез в обоих случаях.по сравнению с лучшим единой модели
(например, mlr),ансамбль модель прогнозирования по - прежнему является
удивительно улучшения; более 75% прогноза, ошибки были
сокращение как p и q независимо от результатов
меры.
рис. 6 показывает, по оценкам, басс параметров модели
(Target, оси) и прогнозирования результатов (ординат) путем
три модели: аналогичный метод наилучшим способом
модели (например, mlr) и лучший ансамбль модели (т.е.mlr и
ппг).прямая линия в цифры, является идеальным
случаях предсказать результаты, равной их фактических показателей.
таким образом, ближе к линии пунктов, тем лучше: модель прогнозирования.в этой связи, аналогичный метод
переводится, пожалуйста, подождите..
 
Другие языки
Поддержка инструмент перевода: Клингонский (pIqaD), Определить язык, азербайджанский, албанский, амхарский, английский, арабский, армянский, африкаанс, баскский, белорусский, бенгальский, бирманский, болгарский, боснийский, валлийский, венгерский, вьетнамский, гавайский, галисийский, греческий, грузинский, гуджарати, датский, зулу, иврит, игбо, идиш, индонезийский, ирландский, исландский, испанский, итальянский, йоруба, казахский, каннада, каталанский, киргизский, китайский, китайский традиционный, корейский, корсиканский, креольский (Гаити), курманджи, кхмерский, кхоса, лаосский, латинский, латышский, литовский, люксембургский, македонский, малагасийский, малайский, малаялам, мальтийский, маори, маратхи, монгольский, немецкий, непальский, нидерландский, норвежский, ория, панджаби, персидский, польский, португальский, пушту, руанда, румынский, русский, самоанский, себуанский, сербский, сесото, сингальский, синдхи, словацкий, словенский, сомалийский, суахили, суданский, таджикский, тайский, тамильский, татарский, телугу, турецкий, туркменский, узбекский, уйгурский, украинский, урду, филиппинский, финский, французский, фризский, хауса, хинди, хмонг, хорватский, чева, чешский, шведский, шона, шотландский (гэльский), эсперанто, эстонский, яванский, японский, Язык перевода.

Copyright ©2024 I Love Translation. All reserved.

E-mail: