Size: a a a

AI / Big Data / Machine Learning

2020 March 02

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
какая тебе тогда кроссэнтропия
источник

АP

Артем Panda in AI / Big Data / Machine Learning
Ну в задании написано её взять
источник

AY

Alexey Yefremov in AI / Big Data / Machine Learning
Коллеги, если интересно - про "новый" законопроект о bigdata 👇
источник

АP

Артем Panda in AI / Big Data / Machine Learning
Надо разбить на 3 класса
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
ну кроссэнтропия это для синглкласса
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
она ж распределение по классам задает
источник

АP

Артем Panda in AI / Big Data / Machine Learning
А для мультикласса что лучше взять как ошибку?
источник

EZ

Evgeniy Zheltonozhskiy🇮🇱 in AI / Big Data / Machine Learning
Артем Panda
А для мультикласса что лучше взять как ошибку?
ну видимо BCE
источник

PO

Point Of Something in AI / Big Data / Machine Learning
Артем Panda
А для мультикласса что лучше взять как ошибку?
category crossentropy?)
источник

АP

Артем Panda in AI / Big Data / Machine Learning
Спасибо
источник

S

Sergey in AI / Big Data / Machine Learning
Здравствуйте! У меня задача генерации связного русского текста. На входе последовательность слов. В какую сторону копать, подскажите пожалуйста.
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning
seq2seq)
источник

VC

Vadim Chashechnikov in AI / Big Data / Machine Learning
rnn
источник
2020 March 03

PO

Point Of Something in AI / Big Data / Machine Learning
Sergey
Здравствуйте! У меня задача генерации связного русского текста. На входе последовательность слов. В какую сторону копать, подскажите пожалуйста.
Попробуй поиграться с gpt-2(но там английский) и BERT(разные языки), сам ты врят ли реализуешь подобное на нормальном уровне.
Так же есть тема цепей Маркова, но тут я хз.
Сам я как то пытался делать генератор связных описаний товаров в интернет магазинах по краткой инфе и это дело на данный момент оказалось совершенно невозможным. GPT-2 выдавало и норм текст и бредятину через раз, при этом генерировало текст по пол-часа.
Для работы с GPT-2 и BERT советую использовать видюху Google Colab , тогда ответ будет секунд 15.
источник

S

Sergey in AI / Big Data / Machine Learning
Копаю в сторону контекстно-свободных грамматик и построения предложения по выявленным правилам структуры предложения (подлежащее, сказуемое и т.д.)
источник

AY

Alexey Yurasov in AI / Big Data / Machine Learning
Point Of Something
Попробуй поиграться с gpt-2(но там английский) и BERT(разные языки), сам ты врят ли реализуешь подобное на нормальном уровне.
Так же есть тема цепей Маркова, но тут я хз.
Сам я как то пытался делать генератор связных описаний товаров в интернет магазинах по краткой инфе и это дело на данный момент оказалось совершенно невозможным. GPT-2 выдавало и норм текст и бредятину через раз, при этом генерировало текст по пол-часа.
Для работы с GPT-2 и BERT советую использовать видюху Google Colab , тогда ответ будет секунд 15.
кстати на GPT-2 делал бота, говорящего на разных языках. Там сначала через гугл апи определялся язык, через гугл же делался перевод на английский, и на выходе из GPT-2 обратно на язык оригинала. Качество страдало конечно, но в качестве скетча может пойти. А потом можно подумать об обучении на русском (но так глубоко не копал)
источник

VZ

Vladimir Zenin in AI / Big Data / Machine Learning
Alexey Yurasov
кстати на GPT-2 делал бота, говорящего на разных языках. Там сначала через гугл апи определялся язык, через гугл же делался перевод на английский, и на выходе из GPT-2 обратно на язык оригинала. Качество страдало конечно, но в качестве скетча может пойти. А потом можно подумать об обучении на русском (но так глубоко не копал)
Оригинально ) Главное работало
источник

PO

Point Of Something in AI / Big Data / Machine Learning
Alexey Yurasov
кстати на GPT-2 делал бота, говорящего на разных языках. Там сначала через гугл апи определялся язык, через гугл же делался перевод на английский, и на выходе из GPT-2 обратно на язык оригинала. Качество страдало конечно, но в качестве скетча может пойти. А потом можно подумать об обучении на русском (но так глубоко не копал)
Ну если на обучение английскому GPT-2 ушли десятки гигабайт текста и над этим работал целый датацентр почти год то фиг ты его переобучишь на русский. Гугл перевод норм тема, но иногда банит или вовсе свое API меняет, сволочь
источник

A

Alexei in AI / Big Data / Machine Learning
источник

A

Alexei in AI / Big Data / Machine Learning
Подскажите, обязательно ли пополнять аккаунт яндекс облака чтобы воспользоваться грантом ?
источник