Size: a a a

Machine learning

2020 December 28

S

Sasha in Machine learning
Denis Travnikov
биноминальное распределение - это кол. оров? А сам орел/решка - это Бернулли, так?
@ksstat
Бернулли - это частный случай биномиального распределения, в котором монетку подкинули 1 раз.
источник

DT

Denis Travnikov in Machine learning
Но вообще да, если он не нужен, то следовало это более явно отразить в формулировке, что 4 конкретных
источник

K

K-S in Machine learning
Sasha
Вообще, конечно же, нужен. Ведь без разницы в каком порядке эти 4 клиента из 15 согласились.  Но грейдер принимал ответ без домножения на коэффициент.
В целом нет, там он не нужен. Пусть у нас есть 15 клиентов банка:
Петя1, Петя2 ... Петя 15.

Мы предложили им всем услугу, и согласились не все возможные комбинации из 4-х петь, а только Петя1, Петя2, Петя3, Петя4. Поэтому мы рассчитываем вероятность только для одной комбинации
источник

K

K-S in Machine learning
Скажем так, если чисто математически подходить к той задачке, то проглядывается биномиальный коэффициент (ибо логика монетки), а если жизненно с бизнесовой, то биномиальный не нужен )
источник

S

Sasha in Machine learning
K-S
В целом нет, там он не нужен. Пусть у нас есть 15 клиентов банка:
Петя1, Петя2 ... Петя 15.

Мы предложили им всем услугу, и согласились не все возможные комбинации из 4-х петь, а только Петя1, Петя2, Петя3, Петя4. Поэтому мы рассчитываем вероятность только для одной комбинации
Последовательность, в которой согласились клиенты, для результата - «4 из 15 клиентов согласились» - не важна. Соответственно, вероятность выше.
источник

S

Sasha in Machine learning
K-S
Скажем так, если чисто математически подходить к той задачке, то проглядывается биномиальный коэффициент (ибо логика монетки), а если жизненно с бизнесовой, то биномиальный не нужен )
Интересный бизнес получается, в котором есть своя логика, отличная от математической... Клиентам такого бизнеса можно только пожелать удачи😁
источник

S

Sasha in Machine learning
Denis Travnikov
Но вообще да, если он не нужен, то следовало это более явно отразить в формулировке, что 4 конкретных
Дело не в формулировке, а в логике. Вы должны сами понять, что коэффициент нужен
источник

K

K-S in Machine learning
... наоборот, сумятица начинается, когда есть непонимание процессов, стоящих за цифрами. Если подходить к вопросу как «4 из 15 клиентов согласились», то бином коэфф нужен, а если есть 15 конкретных клиентов банка и нужно подсчитать с какой вероятностью согласились Леша, Петя, Саша, Коля, то не нужен
источник

K

K-S in Machine learning
Sasha
Интересный бизнес получается, в котором есть своя логика, отличная от математической... Клиентам такого бизнеса можно только пожелать удачи😁
:facepalm
источник

S

Sasha in Machine learning
K-S
... наоборот, сумятица начинается, когда есть непонимание процессов, стоящих за цифрами. Если подходить к вопросу как «4 из 15 клиентов согласились», то бином коэфф нужен, а если есть 15 конкретных клиентов банка и нужно подсчитать с какой вероятностью согласились Леша, Петя, Саша, Коля, то не нужен
Окей, если вас интересует именно конкретная последовательность, то да вероятность немного ниже;
Но какая разница, в какой последовательности эти люди вам заплатят деньги, если в конце дня у вас будут четыре клиента из 15, которые согласились?..:/
источник

S

Sasha in Machine learning
Разницы нет никакой, вот ответ
источник

K

K-S in Machine learning
разница может быть, если клиенты не одинаково ценны для банка. Если Леша как клиент больше приносит банку прибыли, то в нем у нас заинтересованность выше. Короче чтоб не гонять из пустого в порожнее, могут быть корректны оба варианта в зависимости от того, что нужно бизнесу -- просто любых 4 клиента или конкретных 4 клиента
источник

S

Sasha in Machine learning
Даже если Леша важнее для банка чем Катя, это не влияет на последовательность.
источник

S

Sasha in Machine learning
Можно придумать какую-нибудь функцию полезности каждого клиента, но это в любом случае не повлияет на последовательность.
источник

K

K-S in Machine learning
Ну смотрите. Пусть у нас есть 15 разных Петь. Расположим их по убыванию ценности для нашего банка. Value(Петя1) > Value(Петя2) ... > Value(Петя15).  И пусть p для каждого Пети = 0.5

Теперь вопрос 1: какая вероятность, что подключат услугу 4 любых Пети?
Теперь вопрос 2: какая вероятность, что услугу подключат первых четыре Пети?
источник

S

Sasha in Machine learning
Лол, ну это понятно, что это два разных вопроса. Но  второй вопрос вы уже сами придумали, я с таким же успехом могу ещё какой-нибудь придумать 😁 Только вот ответ на второй вопрос это не просто перемножение вероятностей, которую принимает курсера в том вопросе, там тоже нужен будет коэффициент, только уже другой, потому что интересующие вас четвёрка может появиться в любом месте из этих 15 и тд
источник

K

K-S in Machine learning
Ну или вот вам второй пример:

у вас есть следующая выборка из y~Bernoulli(p=0.5):
0 0 1 0 0 1 1

Вопрос 1: какая вероятность получить именно такую выборку?
Вопрос 2: какая вероятность получить выборку с тремя «единичками».

В задаче с банком из условия как-будто следует вопрос 2, а ответ говорит, что как будто составители имели в виду вопрос 1.
источник

K

K-S in Machine learning
K-S
Ну или вот вам второй пример:

у вас есть следующая выборка из y~Bernoulli(p=0.5):
0 0 1 0 0 1 1

Вопрос 1: какая вероятность получить именно такую выборку?
Вопрос 2: какая вероятность получить выборку с тремя «единичками».

В задаче с банком из условия как-будто следует вопрос 2, а ответ говорит, что как будто составители имели в виду вопрос 1.
Если организаторы имели в виду вопрос 1, то как раз перемножение вероятностей там и должно быть (если разумеется все наблюдения являются независимыми)
источник

S

Sasha in Machine learning
K-S
Если организаторы имели в виду вопрос 1, то как раз перемножение вероятностей там и должно быть (если разумеется все наблюдения являются независимыми)
В примере с единичками вы не различаете их; в то время как в вашем примере с Петя1, Петя2 и тд, вы из различаете. В общем, эти два примера не эквивалентны. С различными петями все становится сложнее. Эквивалентный пример с единичками был бы 0 0 1_1 0 0 1_2 1_3
источник

K

K-S in Machine learning
Sasha
В примере с единичками вы не различаете их; в то время как в вашем примере с Петя1, Петя2 и тд, вы из различаете. В общем, эти два примера не эквивалентны. С различными петями все становится сложнее. Эквивалентный пример с единичками был бы 0 0 1_1 0 0 1_2 1_3
Почему в примере с единичками я их не различаю? В случае вопроса №1 (какая вероятность получить наблюдаемую выборку) я их различаю. Мне важно, чтоб наблюдение №1 было нулем, №2 — нулем, №3 — единицей итд
источник