Перевод "регрессия" на английский язык:


  Словарь Русский-Английский

регрессия - перевод : регрессия - перевод : регрессия - перевод :

  Примеры (Внешние источники, не пересмотренные)

Так линейная регрессия и логистическая регрессия это различные алгоритмы или нет?
So are linear regression and logistic regression different algorithms or not?
А. Множественная линейная регрессия
Multiple linear regression
И термин логистическая функция породил имя логистическая регрессия.
And the term logistic function, that's what give rise to the name logistic progression.
Итак, это были линейная регрессия с градиентным спуском.
So that's linear regression with gradient descent.
И регрессия означает, что нашей целью является прогнозирование непрерывной величины на выходе.
And by regression, that means that our goal is to predict a continuous valued output.
И, только дадим этому другое название, это также называется многомерная (множественная) линейная регрессия.
And, just to give this another name, this is also called multivariate linear regression.
Таким образом, каждая из этих проблем должна рассматриваться как проблема классификации, или как регрессия?
So, for each of these problems, should they be treated as a classification problem, or as a regression problem?
Но даже если вы его не поймёте, всё равно нормальное уравнение и линейная регрессия будут работать нормально.
But even if you don't understand it, the normal equation and linear regression, you should really get that to work okay.
Авторы продемонстрировали, что такой подход в некоторых случаях более точный, чем линейная регрессия и требует в 2 раза меньше памяти.
It was shown to be much more accurate than linear regression in some instances, and it takes half the storage or less.
И другое имя для этой можели одномерная линейная регрессия, где одномерная это всего лишь более ученое слово для функции одной переменной.
And univariate is just a fancy way of saying one variable. So, that's linear regression.
Так вот, это линейная регрессия. В следующем видео мы начнем разговор о том, как же именно мы будем реализовывать эту модель.
In the next video we'll start to talk about just how we go about implementing this model.
Итак, вот алгоритм градиентного спуска и вы можете использовать его для минимизирования, для попыток минимизирования ункции J. Не только если J определена как линейная регрессия.
So, that's the gradient descent algorithm, and you can use it to minimize, to try to minimize any cost function J. Not the cost function J to be defined for
Итак, вот градиентный спуск или регрессия, которая повторяется до сходимости, тета 0 и тета 1 обновляются, как знаете, она же минус альфа умножить на производную.
So here's gradient descent, or the regression, which is going to repeat until convergence, theta 0 and theta one get updated as, you know, the same minus alpha times the derivative term.
150 00 05 14,580 amp gt 00 05 16,104 Это очень 151 00 05 16,104 amp gt 00 05 18,761 плохо, то что нам дает линейная регрессия, так?
And this seems a pretty bad thing for linear regression to have done, right?
И термин регрессия указывает на то, что мы пытаемся предсказать непрерывные значения атрибутов. Вот еще один пример контролируемого обучения, я с друзьями по правде работали над этим ранее.
So maybe prices are actually discrete values, but usually we think of the price of a house as a real number, as a scalar value, as a continuous value number and the term regression refers to the fact that we're trying to predict the sort of continuous values attribute.
В частности я также хочу рассказать вам о том, как полиномиальная регрессия позволяет вам использовать механику линейной регрессии, чтобы подходить (делать похожие приближения) для очень сложных, даже нелинейных функций.
And in particular I also want to tell you about polynomial regression allows you to use the machinery of linear regression to fit very complicated, even very non linear functions.
Она носит название линейной регрессии, или в данном конкретном случае эта линейная регрессия одной переменной, где переменной является X, так как мы предсказываем все цены с помощью одной переменной X.
This model is called linear regression or this, for example, is actually linear regression with one variable, with the variable being x. Predicting all the prices as functions of one variable X. And another name for this model is univariate linear regression.
Линейная регрессия будет иметь большое количество параметров и для некоторых других алгоритмов, которые мы увидим в этом курсе, потому что для них метод нормального уравнения (наименьших квадратов) не применяется и не работает.
The linear regression will have a large number of features and for some of the other algorithms that we'll see in this course, because, for them, the normal equation method just doesn't apply and doesn't work.
Значение этой разницы стало очевидным тогда, когда регрессия была использована для расчета критического уровня при 5 процентном сокращении биомассы для биотипа NC S по отношению к тому же показателю для биотипа NC R.
The importance of this difference became apparent when the regression was used to calculate the critical level for a 5 reduction in the biomass of the NC S biotype relative to that of the NC R biotype.
После разбивки данных по биотипам множественная линейная регрессия в отношении наилучших подмножеств позволила получить соотношения между пятью входными факторами и значением gs, которые составили 22,4 and 25,7 по показателю вариации для NC R и NC S, соответственно.
After splitting the data by biotype, best subsets multiple linear regression provided relationships between five input factors and gs that accounted for 22.4 and 25.7 of the variation for NC R and NC S respectively.
223 00 07 46,709 amp gt 00 07 48,447 Логистическая регрессия в действительности 224 00 07 48,447 amp gt 00 07 50,373 является алгоритмом классификации, который мы 225 00 07 50,380 amp gt 00 07 52,183 применяем, если 226 00 07 52,183 amp gt 00 07 55,810 метка Y является дискретной переменной, принимающей значения 0 или 1.
Logistic Regression is actually a classification algorithm that we apply to settings where the label Y is discreet valued. The 1001.
112 00 03 55,662 amp gt 00 03 57,770 В этом конкретном примере, похоже 113 00 03 57,770 amp gt 00 03 59,800 линейная регрессия 114 00 03 59,800 amp gt 00 04 02,193 дает достаточно разумные результаты даже для 115 00 04 02,193 amp gt 00 04 04,156 задачи классификации, в решении 116 00 04 04,156 amp gt 00 04 05,522 которой мы заинтересованы.
In this particular example, it looks like linear regression is actually doing something reasonable even though this is a classification task we're interested in.

 

Похожие Запросы : регрессия опухоли - простая регрессия - статистическая регрессия - прямолинейная регрессия - хребет регрессия - пошаговая регрессия - квадратичная регрессия - линейная регрессия - частичная регрессия - возрастная регрессия - регрессия люкс - регрессия терапия