Size: a a a

Machine learning

2021 January 07

К

Клим in Machine learning
Как и тенсорфлоу
источник

К

Клим in Machine learning
Легче линукс поставить и в нем разобраться
источник

RS

Renat Shakirov in Machine learning
Да, но работает же)
источник

RS

Renat Shakirov in Machine learning
Ну сейчас уже докер более менее запускается
источник

ES

Elena Slesarenko in Machine learning
источник

ES

Elena Slesarenko in Machine learning
Спасибо огромное! Работа зачтена.
источник

DB

Dmitry Brazhenko in Machine learning
Привет!
Помогите , пожалуйста, с заданием C5W4. Оно слегка взрывает мозг

Выберите верные утверждения про подходы к построению моделей ранжирования

1. В поточечном подходе предлагается предсказывать непосредственно оценки релевантности документов без учёта порядка
2. В поточечном подходе непосредственно предсказывается оценка релевантности документа  
3. Один из вариантов списочного подхода — добавление в формулу для градиентного шага множителя, отражающего изменение метрики качества ранжирования при перестановке двух объектов
4. В попарном подходе строится верхняя оценка на количество дефектных пар
5. В попарном подходе непосредственно оптимизируется количество пар объектов, неправильно отсортированных алгоритмом
6. В списочном подходе учитывается конкретная метрика качества ранжирования

3 – верен, потому что такой прием просто описан в лекции
1 – по идее тоже, потому что мы замеряем поточечно, потомчечно и прогнозируем
2 – не пойму чем отличается от 1. Что значит "непосредственно"
6 – что значит "конкретная"
5 – По идее, верно, потому что мы минимизируем число инверсий.
источник

DM

Dmitrii Mikhailov in Machine learning
Dmitry Brazhenko
Привет!
Помогите , пожалуйста, с заданием C5W4. Оно слегка взрывает мозг

Выберите верные утверждения про подходы к построению моделей ранжирования

1. В поточечном подходе предлагается предсказывать непосредственно оценки релевантности документов без учёта порядка
2. В поточечном подходе непосредственно предсказывается оценка релевантности документа  
3. Один из вариантов списочного подхода — добавление в формулу для градиентного шага множителя, отражающего изменение метрики качества ранжирования при перестановке двух объектов
4. В попарном подходе строится верхняя оценка на количество дефектных пар
5. В попарном подходе непосредственно оптимизируется количество пар объектов, неправильно отсортированных алгоритмом
6. В списочном подходе учитывается конкретная метрика качества ранжирования

3 – верен, потому что такой прием просто описан в лекции
1 – по идее тоже, потому что мы замеряем поточечно, потомчечно и прогнозируем
2 – не пойму чем отличается от 1. Что значит "непосредственно"
6 – что значит "конкретная"
5 – По идее, верно, потому что мы минимизируем число инверсий.
5 неверно, непосредственно оптимизировать не можем, используем верхнюю оценку
источник

DB

Dmitry Brazhenko in Machine learning
Dmitrii Mikhailov
5 неверно, непосредственно оптимизировать не можем, используем верхнюю оценку
а, понял, спасибо.
но вообще в этом задании очень сомнительные формулировки(
источник

🐙

🐙 in Machine learning
Dmitry Brazhenko
а, понял, спасибо.
но вообще в этом задании очень сомнительные формулировки(
Это правда. Не забудьте прочитать форумы на курсере, там есть полезные советы. По сути там же указали и верный способ правильно сдать этот вопрос - сравнивать варианты бок о бок с текстом лекции. Многие формулировки кажутся верными, но они отличаются от озвученного преподавателем, пусть и незначительно.
источник

AD

Aleksandr Darmeiko in Machine learning
Может кто дата сет финального проекта по такси выложить в дроп бокс или яндекс диск? у меня скорость скачки 10кбс((
источник
2021 January 08

VS

Vidana Santyeva in Machine learning
прошла первый курс специализации, но он не отображается в пройденных и получаю напоминания о сдаче заданий. это нормально? (хотя уже нарисован сертификат красивый)
источник

VS

Vidana Santyeva in Machine learning
нет в пройденных
источник

VS

Vidana Santyeva in Machine learning
источник

R

Runtime Еггор in Machine learning
Да, пока "сессия" курса не закончится, так и будет
источник

SI

Stanislav Ivanov in Machine learning
@Mirileen снова нашествие
источник

MM

Mira Mironova in Machine learning
Stanislav Ivanov
@Mirileen снова нашествие
🙏🏻
источник

SD

Sergey Djuja in Machine learning
Мне тоже кажется что тест "ЦПТ и доверительные интервалы" сформулирован некоректно.

Еще раз условие:

---
регистрирует количество выпадающих осадков с 1885 года. Среднее годовое количество осадков за период с 1885 по 2015 включительно составляет 1197.69 мм, выборочная дисперсия — 116182.2.
---

Чтобы решитьзадачу нужно предположить, что данная дисперсия хоть и называется выборочной, но относится не к периоду 131 год, а к большому пеиоду наблюдения, например за 10 000 лет - главная случайная величина, по отношению к которой 131 это выборка.


Хотя с точки зрения русского языка, через запятую - вроде бы относится к периоду 131 год.

Далее нужно предположить, что среднее за 131 год примерно равно среднему за 10 000 лет.

Это легко, тк по ЦПТ так и должно быть.

Я правильно изложил, или я туплю?
источник

АГ

Артём Глазунов... in Machine learning
Sergey Djuja
Мне тоже кажется что тест "ЦПТ и доверительные интервалы" сформулирован некоректно.

Еще раз условие:

---
регистрирует количество выпадающих осадков с 1885 года. Среднее годовое количество осадков за период с 1885 по 2015 включительно составляет 1197.69 мм, выборочная дисперсия — 116182.2.
---

Чтобы решитьзадачу нужно предположить, что данная дисперсия хоть и называется выборочной, но относится не к периоду 131 год, а к большому пеиоду наблюдения, например за 10 000 лет - главная случайная величина, по отношению к которой 131 это выборка.


Хотя с точки зрения русского языка, через запятую - вроде бы относится к периоду 131 год.

Далее нужно предположить, что среднее за 131 год примерно равно среднему за 10 000 лет.

Это легко, тк по ЦПТ так и должно быть.

Я правильно изложил, или я туплю?
Выборочные характеристики касаются только выборки, т.е. 131 год. Они могут быть равны, а могут и не быть равны истинным значениям. Для этого мы и ищем дов интервалы, чтобы истинные оценить интервально, т.е. используя только имеющуюся у нас информацию. Другой вопрос, насколько точен подход при неизвестной дисперсии. Тут уже допущения, что выборка достаточная большая, чтобы выборочная дисперсия была близка к истинной, но это совсем не строго, нам ведь нужно в конечно итоге устаявшееся значение (в зависимости от размера выборки) дисперсии выборочного среднего. Чуть глубже: Обратите внимание на формулу для стандартизованной статистики ( при n->inf распределение сходится  к N(0,1), есть в вики). В числителе сумма норм распределений минус константа, в знаменателе корень из выборочной дисперсии (распределена по хи квадрат), т.е. такая стандартизованная статистика распределена по Стьюденту с n( размер выборки) степенями свободы. Припоминаю, что уже при 30 степенях свободы распределение Стьюдента очень похоже на нормальное, так что 131 явно должно хватить для достаточно точных результатов. Здесь я не претендую на математическую строгость, чисто интуитивно))
источник

m

mrSakur in Machine learning
Добрый день. Попрошу проверить https://www.coursera.org/learn/mathematics-and-python/peer/4vN1n/tsientral-naia-priediel-naia-tieoriema-svoimi-rukami/review/zsUZllGhEeuRagoo-B_hcQ . 1 курс , Центральная предельная теорема
источник