Size: a a a

Machine learning

2021 January 08

SD

Sergey Djuja in Machine learning
Артём Глазунов
Выборочные характеристики касаются только выборки, т.е. 131 год. Они могут быть равны, а могут и не быть равны истинным значениям. Для этого мы и ищем дов интервалы, чтобы истинные оценить интервально, т.е. используя только имеющуюся у нас информацию. Другой вопрос, насколько точен подход при неизвестной дисперсии. Тут уже допущения, что выборка достаточная большая, чтобы выборочная дисперсия была близка к истинной, но это совсем не строго, нам ведь нужно в конечно итоге устаявшееся значение (в зависимости от размера выборки) дисперсии выборочного среднего. Чуть глубже: Обратите внимание на формулу для стандартизованной статистики ( при n->inf распределение сходится  к N(0,1), есть в вики). В числителе сумма норм распределений минус константа, в знаменателе корень из выборочной дисперсии (распределена по хи квадрат), т.е. такая стандартизованная статистика распределена по Стьюденту с n( размер выборки) степенями свободы. Припоминаю, что уже при 30 степенях свободы распределение Стьюдента очень похоже на нормальное, так что 131 явно должно хватить для достаточно точных результатов. Здесь я не претендую на математическую строгость, чисто интуитивно))
Если в задаче из теста принять, что дисперсия относится к выборке за 131 год, то задачу не решить, потому что в задаче во втором пункте эту дисперсию просят найти )
И правильный ответ - делить  то что дали в задаче на 131.

Либо я круто что то не понял.

Авторов бы спросить?

По поводу того что дисперсия выборки = дисперсия главной  сл. величины.
Я так понял вы объясняете как такое может быть если выборка более 30?

Я на это узко смотрю, пусть главная случайная величина выборка за 10 000 лет наблюдения.
Тогда дисперсия за 131 год будет в 131 раз меньше, по ЦПТ
источник

АГ

Артём Глазунов... in Machine learning
Sergey Djuja
Если в задаче из теста принять, что дисперсия относится к выборке за 131 год, то задачу не решить, потому что в задаче во втором пункте эту дисперсию просят найти )
И правильный ответ - делить  то что дали в задаче на 131.

Либо я круто что то не понял.

Авторов бы спросить?

По поводу того что дисперсия выборки = дисперсия главной  сл. величины.
Я так понял вы объясняете как такое может быть если выборка более 30?

Я на это узко смотрю, пусть главная случайная величина выборка за 10 000 лет наблюдения.
Тогда дисперсия за 131 год будет в 131 раз меньше, по ЦПТ
Когда мы делим выборочную дисперсию на 131 мы просто находим оценку дисперсии выборочного среднего.
источник

АГ

Артём Глазунов... in Machine learning
И она тоже относится к выборке)
источник

АГ

Артём Глазунов... in Machine learning
Задача вполне решается, проще говоря
источник

АГ

Артём Глазунов... in Machine learning
Выборка это не случайная величина
источник

АГ

Артём Глазунов... in Machine learning
Случайными величинами будут её характеристики
источник

АГ

Артём Глазунов... in Machine learning
источник

АГ

Артём Глазунов... in Machine learning
Посмотрите тут про сходимость, если есть желание разобраться
источник

i

igor in Machine learning
Только не смотри в википедии особенно на русском языке
источник

АГ

Артём Глазунов... in Machine learning
igor
Только не смотри в википедии особенно на русском языке
Да, там не очень строго, согласен
источник

i

igor in Machine learning
Там не то что не очень строго, временами не очень верно
источник

АГ

Артём Глазунов... in Machine learning
igor
Там не то что не очень строго, временами не очень верно
Ну эта тема про сходимость вроде норм, но я мог мелочи не заметить, не считаю себя математиком, скорее пользователь математики)
источник

AM

Aleksandr Markelov in Machine learning
igor
Там не то что не очень строго, временами не очень верно
Так этож вики, можно исправить )
источник

SS

Sergey Salnikov in Machine learning
а что не так с русской цпт на wiki?
источник

АГ

Артём Глазунов... in Machine learning
Sergey Salnikov
а что не так с русской цпт на wiki?
Я ничего плохого не могу сказать
источник

SS

Sergey Salnikov in Machine learning
это вопрос лингвисту )
источник

A

Andy in Machine learning
Sergey Salnikov
а что не так с русской цпт на wiki?
Да всё так, просто чсв у кого-то чешется... регулярно
источник

SS

Sergey Salnikov in Machine learning
не, ну он опытный, но уж слишком придирчивый, если не слишком строго, как у Карпова - то нехорошо, если слишком строго как у Воронцова - тоже плохо )
источник

A

Andy in Machine learning
Возможно, не хватает в оффлайне тех, кто может знания оценить полноценно.. всё может быть
источник

ML

Mikhail Lukashevich in Machine learning
источник