Size: a a a

2019 August 26

K

Kolesch in Science FYI
Vladyslav
Можно сравнить c TVöD, но вообще 50к(гросс) это вроде слегка выше средней по Германии, поэтому норм должно быть.
И вам тоже:)
источник

ИК

Иван Котомин... in Science FYI
Как заставить себя читать статьи, а не историю независимых батлов хипхоп ру?
источник

SK

Sergey Kolchenko in Science FYI
не заствляй, занимайся херне, главное потом не плакать
источник

S

Siddim in Science FYI
Иван Котомин
Как заставить себя читать статьи, а не историю независимых батлов хипхоп ру?
Ну вот, теперь нам читать что за независимые батлы хипхоп ру.
источник

R

Rafael Grigoryan in Science FYI
Иван Котомин
Как заставить себя читать статьи, а не историю независимых батлов хипхоп ру?
Они после 14 стали неинтересными в любом случае,  дойдёшь до него и китайские предпринты на архиве покажутся лучшим времяпрепровождением.
источник

R

Rafael Grigoryan in Science FYI
Главное  - после этого не отправиться читать статьи и комментарии с сайта "прайм крайм", там и контента больше и угара.
источник

ИК

Иван Котомин... in Science FYI
Так он в основном в официальных зажигал
источник

LL

Lama Llama in Science FYI
стоп стоп стоп
источник

M

MT in Science FYI
)
источник

D[

Dmitry Demruno [Ru,M... in Science FYI
Lama Llama
стоп стоп стоп
Ругаться насяльника?
источник

BK

Bogdan Kirillov in Science FYI
Alexander Predeus
дай угадаю - опять юзали ROC-кривые на несбалансированных выборках?!
ROC-кривые использовать на несбалансированных выборках - нормальная тема и не является суровой ошибкой. Они для этого и нужны, чтобы игнорировать дисбаланс. Проблема ROC-кривых в том, что они не различают классы по важности. ROC-кривые стоит использовать, если детекция обоих классов одинаково важна, просто так получилось, что у нас в выборке дисбаланс. Если же нас интересует детекция аномалий, то лучше, возможно, смотреть PR-кривые, но это на самом деле дело вкуса, потому что если модель доминирует в ROC-пространстве, то она доминирует и в PR (есть теорема). В целом, при отборе моделей, если классы разбалансированы, нужно считать не только ROC и PR, но и F1, сбалансированную точность и (альтернативный вариант специально для @leria_k) корреляцию Мэтьюза. И не использовать что-то одно из этого, потому что максимизация ROC-AUC не ведет к максимизации PR-AUC автоматически (и наоборот, и так далее). Статью подробно не читал, но скорее всего авторы накосячили в том, что посчитали, раз ROC-AUC большой, то модель автоматически имба, что не так.
источник

SK

Sergey Kolchenko in Science FYI
А вообще лучше репортить все метрики
источник

SK

Sergey Kolchenko in Science FYI
F1 тоже тоже надо аккруатно - какой порог, какая бетта, вот это все
источник

SK

Sergey Kolchenko in Science FYI
(а еще репортить данные от дамми класификаторов, чтобы а наши результы вообще лучше рандома)
источник

BK

Bogdan Kirillov in Science FYI
Вот да
источник

BK

Bogdan Kirillov in Science FYI
Дамми и бейслайн ето обязательно
источник

H🐈

Hidden 🐈 Markov 🐈 Mo... in Science FYI
Bogdan Kirillov
ROC-кривые использовать на несбалансированных выборках - нормальная тема и не является суровой ошибкой. Они для этого и нужны, чтобы игнорировать дисбаланс. Проблема ROC-кривых в том, что они не различают классы по важности. ROC-кривые стоит использовать, если детекция обоих классов одинаково важна, просто так получилось, что у нас в выборке дисбаланс. Если же нас интересует детекция аномалий, то лучше, возможно, смотреть PR-кривые, но это на самом деле дело вкуса, потому что если модель доминирует в ROC-пространстве, то она доминирует и в PR (есть теорема). В целом, при отборе моделей, если классы разбалансированы, нужно считать не только ROC и PR, но и F1, сбалансированную точность и (альтернативный вариант специально для @leria_k) корреляцию Мэтьюза. И не использовать что-то одно из этого, потому что максимизация ROC-AUC не ведет к максимизации PR-AUC автоматически (и наоборот, и так далее). Статью подробно не читал, но скорее всего авторы накосячили в том, что посчитали, раз ROC-AUC большой, то модель автоматически имба, что не так.
кстати, про "классы по важности" — а как работать с классами, где ошибки неравноценны? (вот этот весь "cost-sensitive-classification")

через максимизацию PR-AUC ?
источник

AP

Alexander Predeus in Science FYI
Bogdan Kirillov
ROC-кривые использовать на несбалансированных выборках - нормальная тема и не является суровой ошибкой. Они для этого и нужны, чтобы игнорировать дисбаланс. Проблема ROC-кривых в том, что они не различают классы по важности. ROC-кривые стоит использовать, если детекция обоих классов одинаково важна, просто так получилось, что у нас в выборке дисбаланс. Если же нас интересует детекция аномалий, то лучше, возможно, смотреть PR-кривые, но это на самом деле дело вкуса, потому что если модель доминирует в ROC-пространстве, то она доминирует и в PR (есть теорема). В целом, при отборе моделей, если классы разбалансированы, нужно считать не только ROC и PR, но и F1, сбалансированную точность и (альтернативный вариант специально для @leria_k) корреляцию Мэтьюза. И не использовать что-то одно из этого, потому что максимизация ROC-AUC не ведет к максимизации PR-AUC автоматически (и наоборот, и так далее). Статью подробно не читал, но скорее всего авторы накосячили в том, что посчитали, раз ROC-AUC большой, то модель автоматически имба, что не так.
Ну да, разумно. В бложике который я выше привел это и написано, в общем. Понятно что в работе где смертность исследуют, ценность классов сурово неодинакова.
источник

BK

Bogdan Kirillov in Science FYI
Hidden 🐈 Markov 🐈 Model
кстати, про "классы по важности" — а как работать с классами, где ошибки неравноценны? (вот этот весь "cost-sensitive-classification")

через максимизацию PR-AUC ?
Типа да, мцц тож попробуй. Так-то если у тебя набор моделей, можешь их и по roc отобрать
источник

H🐈

Hidden 🐈 Markov 🐈 Mo... in Science FYI
Bogdan Kirillov
Типа да, мцц тож попробуй. Так-то если у тебя набор моделей, можешь их и по roc отобрать
а что такое мцц?

вот это, что ли — https://en.wikipedia.org/wiki/Matthews_correlation_coefficient ???
источник