Size: a a a

Machine learning

2020 May 28

K

K-S in Machine learning
Ibp
ну так я и говорю, от хозяина модели зависит, ввел он его или нет, в некоторых случаях он может априори, например, равен нулю
Ну по дефолту под линейной моделью мы все ж подразумеваем модель с константой
источник

AT

Anastasiia Tolstokor... in Machine learning
Ibp
видимо при таком раскладе все w-nые будут равны w, так видимо
почему?
источник

I

Ibp in Machine learning
ну я в общем случае рассуждал, сорь
источник

I

Ibp in Machine learning
w1*0.5+w2*0.2+w3*0.3=2, =>(0.5+0.2+0.3)*w=2=>w=2
источник

ТБ

Тингир Бадмаев... in Machine learning
Так, вроде, тупые вопросы здесь это обычное дело. 3 неделя 2 курса, это вообще нормально, что я большую часть я так и не понял с 3-4 просмотра??
источник

ТБ

Тингир Бадмаев... in Machine learning
там про статистику и регуляризацию
источник

SS

Sergey Salnikov in Machine learning
такая же фигня
источник

YS

Yaroslav Samoilov in Machine learning
Тингир Бадмаев
Так, вроде, тупые вопросы здесь это обычное дело. 3 неделя 2 курса, это вообще нормально, что я большую часть я так и не понял с 3-4 просмотра??
Простые вопросы здесь обычное дело, а вот тупые довольно редки
источник

ТБ

Тингир Бадмаев... in Machine learning
окей, тогда отнесу свой вопрос к простым вопросам
источник

ТБ

Тингир Бадмаев... in Machine learning
а, я его не сформулировал даже
источник

ТБ

Тингир Бадмаев... in Machine learning
советуете ли прочитать литературу по МС? ну чтобы я понял всё
источник

AC

Abra Cadabra in Machine learning
извините за возможно смороженную глупость

В реальных задачах конечный размер дерева будет зависеть от выбранной последовательности фич. И на некоторых ветках возможно, что понадобятся не все фичи. Поэтому в среднем выбирать фиучу по оценке через IG выгоднее, чем прогонять все фичи. Так получается?
источник

AT

Anastasiia Tolstokor... in Machine learning
Ibp
w1*0.5+w2*0.2+w3*0.3=2, =>(0.5+0.2+0.3)*w=2=>w=2
но ведь нельзя же выносить за скобки неравные члены
у вас получается уравнение с 3 неизвестными, и туда какие угодно числа(веса) подставить можно, а не только 2
источник

I

Ibp in Machine learning
Anastasiia Tolstokorova
но ведь нельзя же выносить за скобки неравные члены
у вас получается уравнение с 3 неизвестными, и туда какие угодно числа(веса) подставить можно, а не только 2
это как бэ не равенство, а доказательство: w1*0.5+w2*0.2+w3*0.3=2, <=>(0.5+0.2+0.3)*w=2=>w=2
источник

I

Ibp in Machine learning
знак просто на <=> изменить надо
источник

YS

Yaroslav Samoilov in Machine learning
Тингир Бадмаев
советуете ли прочитать литературу по МС? ну чтобы я понял всё
Все индивидуально, совсем без знания математики освоить это все нереально, как мне кажется, но осваивать весь учебник статистики тоже не обязательно. Кому-то может хватить прочитанной статьи на хабре, кому-то - пройти какой-нибудь просто онлайн-курс, не такой глобальный, как этот, можно попробовать посмотреть на ютубе лекции Воронцова, можно почитать отдельные главы из учебников, можно совмещать, что подойдёт конкретному человеку, обычно может определить только он сам.
источник

I

Ibp in Machine learning
Тингир Бадмаев
Так, вроде, тупые вопросы здесь это обычное дело. 3 неделя 2 курса, это вообще нормально, что я большую часть я так и не понял с 3-4 просмотра??
Не знаю, что такое МС, но могу уже, думаю, дать некоторые советы: то, что вы что то не понимаете - это нормально, ибо знания приходят не сразу после просмотра или прочтения, а нужно им дать время, чтоб они объединились с вашими остальными знаниями. Сколько времени? Обычно, если вы знаете весь материал - сутки, после сна, где все объединяется. Далее, тут часто задают вопрос, что делать если вы что то не понимаете на уровне знаний, пропустить и потом доучиться, или отложить учебу здесь и пополнить знания. Мой совет: пополните знания и отложите учебу здесь. Потому что потом, это будет накатываться как снежный ком, за одним знанием непонимание второго, третьего, четвертого и тд. И как результат: либо не закончите эту специализацию, либо на 6 курсе будете в качестве дипломной работы представлять скаченные из гитхуба ноутбуки с грамматическими ошибками, даже не изменяя их. Не знаю даже что хуже. А время потраченное на дополнительные книжки и курсы, может занимать 1-ну3 недели, а курс от вас уже не убежит.
источник

ТБ

Тингир Бадмаев... in Machine learning
Нифига, прям нереально крутой совет подъехал. Спасибо, друг
источник

ТБ

Тингир Бадмаев... in Machine learning
мотивирует)
источник
2020 May 29

AT

Anastasiia Tolstokor... in Machine learning
Ibp
это как бэ не равенство, а доказательство: w1*0.5+w2*0.2+w3*0.3=2, <=>(0.5+0.2+0.3)*w=2=>w=2
прошу мне обьяснить это доказательство, если не сложно)
потому что рил не понимаю, как это доказательство работает, нам ведь не дано изначально, что веса одинаковые?
почему они одинаковые получаются?
источник