Перевод "логит регрессии" на английский язык:


  Словарь Русский-Английский

логит регрессии - перевод :
ключевые слова : Reassert Hypnotic Grams Manifest Variety

  Примеры (Внешние источники, не пересмотренные)

Проверка регрессии в kate
Regression tester for kate
Проверка регрессии в khtml
Regression tester for khtml
Вот наш алгоритм линейной регрессии.
So, here's our linear regression algorithm.
Давайте начнем говорить о логистической регрессии.
Let's start talking about logistic regression.
Мы также говорили о проблеме регрессии.
We also talked about the regression problem.
Теперь эта целевая функция будет нормально работать и для линейной регрессии, но здесь мы заинтересованы в логистической регрессии.
Well the cost for this is, that is 1 2 times the square difference between what are predicted and the actual value that we observe for Y. Now, this cost function worked fine for linear regression, but here we're interested in logistic regression.
Графический интерфейс для поиска регрессии в khtml
GUI for the khtml regression tester
Вот наша целевая функция для логистической регрессии.
Here's our cost function for logistic regression.
Так что теперь вы знаете представление гипотезы для логистической регрессии и мы видим математическую формулу, определяющую гипотезу для логистической регрессии.
So you now know what the hypothesis representation is for logistic regression and we're seeing what the mathematical formula is defining the hypothesis for logistic regression.
Это был наш критерий выбора для линейной регрессии.
Right? This was our objective function for the linear regression.
В этом видео мы поговорили о полиномиальной регрессии.
In this video, we talked about polynomial regression.
Нечто подобное можно применить и к логистической регрессии.
A similar thing can apply to logistic regression as well.
Он представил однопараметрическую версию логит системы таблиц дожития Брасса и проиллюстрировал модель с использованием данных по Дании и Швеции.
He presented a one parameter version of the Brass logit life table system, and illustrated the model using Danish and Swedish data.
Наклон линии регрессии соответствовал скорости осаждения 2,3 мм с 1.
The slope of the regression line corresponded to a deposition velocity of 2.3 mm s 1.
Теперь вы знаете о линейной регрессии и градиентном спуске.
You now know about linear regression and gradient descent.
Теперь вы знаете о линейной регрессии с многими переменными.
You now know about linear regression with multiple variables.
Для исследования линейной регрессии, рассмотрим коэффициенты b и a.
For linear regression, we compute the quotation B and A, and I give you the formulas
Величина r2 для результирующей линейной регрессии составила 0,55 (график III).
The r2 for the resulting linear regression was 0.55 (fig.
Это даст нам наш первый обучающийся алгоритм, алгоритм линейной регрессии.
learning algorithm, that'll give us our linear regression algorithm.
Для логистической регрессии, я изменю это немного и сделаю гипотезу
logistic regression, I'm going to modify this a little bit, and make the hypothesis
И это будет моя конечная целевая функция для линейной регрессии.
So this is going to be my overall objective function for linear regression.
Вот целевая функция, которую мы будем использовать для логистической регрессии.
Here's a cost function that we're going to use for logistic regression.
На этом слайде мы видели переоценку в случае линейной регрессии.
On this slide, we looked at over fitting for the case of linear regression.
Сегодня мы поговорим о классификации и ее отличии от регрессии.
Today we'll talk about classification versus regression.
В этот раз я хотел бы задать вопрос о линейной регрессии.
Thrun In this question I quiz you about linear regression.
Идея масштабирования параметров также применяется к градиентному спуску для логистической регрессии.
The idea of feature scaling also applies to gradient descent for logistic regression.
Вот задача обучения с учителем, состоящая в определении модели логистической регрессии.
Here's to supervised learning problem of fitting a logistic regression model.
Вот пример логистической регрессии с двумя параметрами х1 и x 2.
Here is a logistic regression example with two features X1 and x2.
Так что теперь вы знаете, как реализовать градиентный спуск для логистической регрессии.
So now you know how to implement gradient descents for logistic aggression.
Мы говорили о классификации и регрессии и других методах обучения с учителем.
We talked about classification and regression and different methods to do supervised learning.
Кроме того, сплошные регрессии являются весьма обманчивыми и могут привести к ошибочным выводам.
Besides, cross section regressions are fairly treacherous and can lead to misleading conclusions.
И мы также выясним, как применять градиентный спуск для определения параметров логистической регрессии.
And we'll also figure out how to apply gradient descent to fit the parameters of logistic regression.
И надеюсь, вы можете выяснить, как применить этот метод для логистической регрессии самостоятельно.
And hopefully you can figure out how to apply that technique to logistic regression yourself.
В этом видео мы начнем разговаривать о новой версии ленейной регрессии, более мощной.
in this video we will start to talk about a new version of linear regression that's more powerful.
Чтобы ввести ещё новую терминологию скажу, что эта проблема также называется проблема регрессии . И под проблемой регрессии я имею в виду, что мы пытаемся предсказать непрерывное выходное значение. А именно цену.
To define with a bit more terminology this is also called a regression problem and by regression problem I mean we're trying to predict a continuous value output.
В этот же период времени проводились измерения показателя линейной регрессии крутизны склона отдельных участков.
For the same period, slopes of plotwise linear regressions were tested for significance.
Наилучшее соответствие на основе множественной линейной регрессии было установлено с использованием следующих двух уравнений
The best fit using multiple linear regression was established using the following two equations
Используя механику многомерной линейной регрессии, мы можем сделать эту довольно простую модификацию нашему алгоритму.
Using the machinery of multivariant linear regression, we can do this with a pretty simple modification to our algorithm.
Мы можем таким образом написать всю нашу целевую функцию для логистической регрессии вот так.
We can, therefore, write all of our cost function for logistic regression as follows.
Мы видели, как масштабирование параметров может помочь градиентному спуску сходиться быстрее для линейной регрессии.
We saw how feature scaling can help gradient descents converge faster for linear regression.
В линейной регрессии у нас имеется набор учебных данных как вот этот представленный здесь.
Remember our notation M was the number of training examples.
В линейной регрессии у нас есть тренировочный набор, вроде того как я нарисовал здесь.
In linear regression we have a training set, like maybe the one I've plotted here.
В этом видео мы поговорим о том, как подбирать параметры тета для логистической регрессии.
In this video we'll talk about how to fit the parameters theta for logistic regression.
Когда мы ранее разрабатывали модель линейной регрессии, мы использовали следующую функцию затрат (целевую функцию).
Back when we were developing the linear regression model, we use the following cost function.
К этому моменту вы уже видели пару разных алгоритмов обучения линейную и логистическую регрессии.
By now, you've seen a couple different learning algorithms, linear regression and logistic regression.

 

Похожие Запросы : упорядоченный логит регрессии - логит модель - вложенная логит - упорядоченный логит - логит оценки - уравнение регрессии - складочный регрессии - пробит регрессии - коэффициент регрессии - криволинейной регрессии - кривая регрессии - регрессии Кокса - застой регрессии - выход регрессии