Size: a a a

Machine learning

2020 December 08

РГ

Рома Горифьянов... in Machine learning
Просто у_train и y_test разной размерности и y_test делаю просто пустой таблицей размерности x_test
источник

I

Ibp in Machine learning
Рома Горифьянов
Просто у_train и y_test разной размерности и y_test делаю просто пустой таблицей размерности x_test
че та я не понимаю: x_test вам нужен для получения предсказаний, назовем их yhat , и сравнения этих предсказаний с y_test.  Как можно сделать y_test если он уже задан?
источник

I

Ibp in Machine learning
Рома Горифьянов
Да y_test , результат предсказания логистической регрессии
а то есть это yhat и есть. Ну значит обратно его инвертировать и нужно inverse_transform, ибо он обучен на всех значениях у, yhat не может ничего предсказать кроме как то что задано было при энкодировании изначальном при классификации
источник

I

Ibp in Machine learning
по сути - энкодирование это словарь где каждому слову сопоставляется какое то значение в вашем случае
источник

РГ

Рома Горифьянов... in Machine learning
Ibp
а то есть это yhat и есть. Ну значит обратно его инвертировать и нужно inverse_transform, ибо он обучен на всех значениях у, yhat не может ничего предсказать кроме как то что задано было при энкодировании изначальном при классификации
Да, я с вами полностью согласен, попробую поиграться с inverse_transform
Спасибо за помощь!
источник

I

Ibp in Machine learning
Рома Горифьянов
Да, я с вами полностью согласен, попробую поиграться с inverse_transform
Спасибо за помощь!
а вообще по мне так больше целевые категориальные переменные как Onehot энкодить если у вас там сеть
источник

АМ

Александр Мелехин... in Machine learning
Доброго дня!
А не подскажете, как правильно применить OneHotEncoder в том случае, если в одной ячейке может быть записано несколько классов через "/"?
То есть, в одной строке записано класс1/класс2, а в следующей класс2/класс3, например. И мне, по идее, нужно закодировать первую строку как (1,1,0), а вторую (0,1,1), а не создавать для каждого случая отдельный столбец. (изъясняюсь криво, но надеюсь, что идея понятна)
источник

RS

Renat Shakirov in Machine learning
Есть ли похожий методы как drop duplicates только для колонок
источник

AR

Anton Rogozin in Machine learning
Renat Shakirov
Есть ли похожий методы как drop duplicates только для колонок
параметр subset в drop_duplicates, чтобы удалять записи по колонке
источник

RS

Renat Shakirov in Machine learning
спасибо
источник

I

Ibp in Machine learning
Александр Мелехин
Доброго дня!
А не подскажете, как правильно применить OneHotEncoder в том случае, если в одной ячейке может быть записано несколько классов через "/"?
То есть, в одной строке записано класс1/класс2, а в следующей класс2/класс3, например. И мне, по идее, нужно закодировать первую строку как (1,1,0), а вторую (0,1,1), а не создавать для каждого случая отдельный столбец. (изъясняюсь криво, но надеюсь, что идея понятна)
мне кажется это у вас задача Multi-Label Classification, признаки можно записать в виде векторов [1,1,0] с помощью словаря, написав его в ручную
источник

I

Ibp in Machine learning
в смысле не признаки а таргеты
источник

НК

Нина Коновалова... in Machine learning
Всем привет)
Я сейчас  прохожу один курс по computer vision и в конце курса надо сделать проект, может у кого-то есть идеи, которыми можете поделиться, что вообще можно придумать?
источник

V

Valery in Machine learning
распознавание дорожных знаков
источник

V

Valery in Machine learning
эмоций
источник

V

Valery in Machine learning
телеграм бота
источник

V

Valery in Machine learning
который че-нить там делает с фотками ему отправленными
источник

DS

Denis Stadnik in Machine learning
Нина Коновалова
Всем привет)
Я сейчас  прохожу один курс по computer vision и в конце курса надо сделать проект, может у кого-то есть идеи, которыми можете поделиться, что вообще можно придумать?
Распознавать породы котиков по фото.
источник

N

Nikita in Machine learning
Ребят , подскажите в чём проблема

Train Epoch: 0 [0/22500 (0%)]  Loss: 0.690619
Train Epoch: 0 [6400/22500 (28%)]  Loss: 0.665732
Train Epoch: 0 [12800/22500 (57%)]  Loss: 0.708257
Train Epoch: 0 [19200/22500 (85%)]  Loss: 0.710413
Traceback (most recent call last):
 File "/root/test/main.py", line 118, in <module>
   trainer.test()
 File "/root/test/main.py", line 81, in test
   output = self.net(data)
 File "/usr/local/lib/python3.8/dist-packages/torch/nn/modules/module.py", line 532, in call
   result = self.forward(*input, **kwargs)
 File "/root/test/model.py", line 43, in forward
   x = F.relu(self.conv1(x))
 File "/usr/local/lib/python3.8/dist-packages/torch/nn/modules/module.py", line 532, in call
   result = self.forward(*input, **kwargs)
 File "/usr/local/lib/python3.8/dist-packages/torch/nn/modules/conv.py", line 345, in forward
   return self.conv2d_forward(input, self.weight)
 File "/usr/local/lib/python3.8/dist-packages/torch/nn/modules/conv.py", line 341, in conv2d_forward
   return F.conv2d(input, weight, self.bias, self.stride,
RuntimeError: Input type (torch.FloatTensor) and weight type (torch.cuda.FloatTensor) should be the same
root@39950:~/Cats-and-Dogs-classification/data# pip install torch.FloatTensor
Collecting torch.FloatTensor
источник

НК

Нина Коновалова... in Machine learning
Valery
распознавание дорожных знаков
спасибо)
источник