Size: a a a

Machine learning

2020 June 18

A

Aroh in Machine learning
а там было ограничение на время? )
источник

V

Valery in Machine learning
Не
источник

a

apex in Machine learning
А это возможно? 254+22?
источник

A

Aroh in Machine learning
аа, добавить внутреннее и решить?
источник

V

Valery in Machine learning
Вот сижу разбираюсь, но это типа прям с собеса задача
источник

A

Aroh in Machine learning
ну вообще она решается за количество шагов равное количеству слов в тексте вроде
источник

V

Valery in Machine learning
Тогда это О(254), алг в студию))
источник

A

Aroh in Machine learning
слов в тексте, а не уникальных слов
источник

АГ

Артём Глазунов... in Machine learning
Aroh
ну вообще она решается за количество шагов равное количеству слов в тексте вроде
С коэффициентом 2 только, надо ведь словарь сначала
источник

A

Aroh in Machine learning
Артём Глазунов
С коэффициентом 2 только, надо ведь словарь сначала
Зачем. Прямо берешь и каждое слово в тексте добавляешь в словарь. Надо только придумать какое значение добавлять, чтобы оно относилось к нужному предложению
источник

A

Aroh in Machine learning
со степенями двойки как-нибудь поиграть, например
источник

АГ

Артём Глазунов... in Machine learning
Надо бы тоже за неё сесть снова...
источник

I

Iurii in Machine learning
Доброго времени суток, друзья! Проверьте пожалуйста C1W4:
https://www.coursera.org/learn/mathematics-and-python/peer/4vN1n/tsientral-naia-priediel-naia-tieoriema-svoimi-rukami/review/r8HDebF2EeqySRLX8vjPvw
источник

a

apex in Machine learning
Я в древние школярские времена учился мат. моделированию на Фортране и i386. Была похожая задача решить систему заданную матрицей 1000х1000. По-моему на том железе она вообще не решалась. Но матрица была с огромным количеством нулей, она как-то приводилась к десятку-двум диагоналей и решалась каким-то известным алгоритмом, который я не помню. Возможно с кошачьей задачей надо действовать также, из 254 в каждом предложении 10-15 элементов !=0
источник

a

apex in Machine learning
короче надо гуглить что-то типа разреженных матриц и итерационных методов решения ИМХО
источник

A

Aroh in Machine learning
Почитал задачу. Там же практически описан алгоритм решения с сходимостью ниже, чем N*M. Сначала каждому слову дать индекс - тут будет столько действий, сколько слов в тексте. Потом создать матрицу. Если индекс есть, то это еще один проход по всему множеству слов, только уже зная индекс просто добавляете позицию в правильном месте матрицы.
источник

A

Aroh in Machine learning
матрица заполненная нулями заданной размерности создается с околонулевой скоростью )
источник

a

apex in Machine learning
Aroh
Почитал задачу. Там же практически описан алгоритм решения с сходимостью ниже, чем N*M. Сначала каждому слову дать индекс - тут будет столько действий, сколько слов в тексте. Потом создать матрицу. Если индекс есть, то это еще один проход по всему множеству слов, только уже зная индекс просто добавляете позицию в правильном месте матрицы.
источник

a

apex in Machine learning
по-моему задача ускорить алгоритм который внутри scipy, тот который перемножает вектора длиной n m раз. Наверняка в scipy реализованы какие-то более быстрые алгоритмы, но я только на 1-м курсе, еще scipy не изучил
источник

АГ

Артём Глазунов... in Machine learning
apex
короче надо гуглить что-то типа разреженных матриц и итерационных методов решения ИМХО
Задача преобразования текстов в частоты всегда сводится к разреженным матрицам, все это уже работает в обычном count vectorizer... В задаче 6 курса векторизация проводится с помощью scipy.sparse.csr_matrix, но там тоже использовался словарь для индексов и слов...В любом случае O(m+n) это k*(m+n) +C операций... Так, размышления на тему...
источник