Подскажите, а люди, занимающиеся научной деятельностью с сетями (публикации там пишут, скажем), в области обычного мл вообще должны шарить или нет? Я просто сейчас почитал одну статейку, где сеть сравнивалась в задаче с xgb и (ВНЕЗАПНО!) с изолесом в задаче supervised learning.
И когда там описывался эксперимент — это что-то странное было. Хгб фитили на 240 наблюдениях с lr 0.3. Метрика F1. И буст, конечно, переобучился (трейн 0.93, cv 0.82, тест 0.73). Вот у меня и возникли вопросы:
1) а не бредовая ли изначально идея фитить хгб на 240 строках
2) почему сравнивается это все с unsupervised изолесом
3) почему никаких стат тесты на сравнение средних нет?