Size: a a a

Machine learning

2021 January 16

AO

Alex Ololo in Machine learning
не совсем
источник

AO

Alex Ololo in Machine learning
хотя. да)
источник

AO

Alex Ololo in Machine learning
наверн
источник

АГ

Артём Глазунов... in Machine learning
Ну самое простое делать маску на каждом слое. Но ведь есть же класс dropout?
источник

AO

Alex Ololo in Machine learning
сор. криво объяснил.
источник

K

K-S in Machine learning
Артём Глазунов
А точно А и Б не факторы, оказывающие эффект на переменную X?
опять же, я бы называл это взаимосвязью. Честно говоря, даже не помню используется ли в дисперсионном анализе терминология регрессионного (зависимая/независимая переменная)
источник

АГ

Артём Глазунов... in Machine learning
K-S
опять же, я бы называл это взаимосвязью. Честно говоря, даже не помню используется ли в дисперсионном анализе терминология регрессионного (зависимая/независимая переменная)
Вроде нет, там просто переменная и факторы были, если правильно ещё помню.
источник

AO

Alex Ololo in Machine learning
я для лосса это делаю) что б лосс не считать.. там где не нада. лан это уже не туда)  я про тензоры спрашивал) спс. пойду попробую кое что
источник

АГ

Артём Глазунов... in Machine learning
Alex Ololo
я для лосса это делаю) что б лосс не считать.. там где не нада. лан это уже не туда)  я про тензоры спрашивал) спс. пойду попробую кое что
Давай, удачи)
источник

B

Boris in Machine learning
источник

d

dl in Machine learning
А тут же можно просто по питону вопросы позадавать? Я немного удивился, когда увидел, что есть значительная разница в производительности между вызовом функции 1000 раз и вычислениями через матрицу. Вот пример кода:

def squared_error2(x, y, w0, w1):
   diff = y - (w0 + w1 * x)
   return np.sum(np.square(diff))


def squared_error3(x, y, w0, w1):
   x = np.array(x)
   x = x.reshape(1, x.size)

   y = np.array(y)
   y = y.reshape(1, y.size)

   w1 = np.array(w1)
   w1 = w1.reshape(w1.size, 1)

   m = w0 + w1.dot(x) - y
   m = np.square(m)
   
   result = m.sum(axis=1)
   if result.size == 1:
       return result[0]
   return result


Вызываем вот так:
w0 = 50
w1 = np.linspace(-5, 5, 10001)

a1 = np.array([squared_error2(x, y, w0, wi) for wi in w1])
a2 = np.array([squared_error3(x, y, w0, wi) for wi in w1])
a3 = squared_error3(x, y, w0, w1)

Вот какой вариант должен быть самым быстрым, а какой самым медленным?
источник

А

Артем in Machine learning
dl
А тут же можно просто по питону вопросы позадавать? Я немного удивился, когда увидел, что есть значительная разница в производительности между вызовом функции 1000 раз и вычислениями через матрицу. Вот пример кода:

def squared_error2(x, y, w0, w1):
   diff = y - (w0 + w1 * x)
   return np.sum(np.square(diff))


def squared_error3(x, y, w0, w1):
   x = np.array(x)
   x = x.reshape(1, x.size)

   y = np.array(y)
   y = y.reshape(1, y.size)

   w1 = np.array(w1)
   w1 = w1.reshape(w1.size, 1)

   m = w0 + w1.dot(x) - y
   m = np.square(m)
   
   result = m.sum(axis=1)
   if result.size == 1:
       return result[0]
   return result


Вызываем вот так:
w0 = 50
w1 = np.linspace(-5, 5, 10001)

a1 = np.array([squared_error2(x, y, w0, wi) for wi in w1])
a2 = np.array([squared_error3(x, y, w0, wi) for wi in w1])
a3 = squared_error3(x, y, w0, w1)

Вот какой вариант должен быть самым быстрым, а какой самым медленным?
np внутри себя использует глубокую оптимизацию и написан на Си, поэтому любые вычисления через numpy почти всегда  быстрее(и кроме того удобнее)  чем те же, но обычными средствами
источник

d

dl in Machine learning
Артем
np внутри себя использует глубокую оптимизацию и написан на Си, поэтому любые вычисления через numpy почти всегда  быстрее(и кроме того удобнее)  чем те же, но обычными средствами
Ага. И исходя из этого как можно было бы отранжировать вычисление a1, a2, a3?
источник

А

Артем in Machine learning
dl
Ага. И исходя из этого как можно было бы отранжировать вычисление a1, a2, a3?
Я бы предположил, что a1, a3, a2
источник

d

dl in Machine learning
Артем
Я бы предположил, что a1, a3, a2
Самый быстрый слева или справа?
источник

А

Артем in Machine learning
dl
Самый быстрый слева или справа?
Слева
источник

🐙

🐙 in Machine learning
Помню в курсе было, но хочу ещё раз уточнить один момент:
Нормально ли считать корреляции между признаком из "натуральных" значений и признаком из вещественных?
А между бинарным и "натуральным"/"вещественным" ?
источник

d

dl in Machine learning
Артем
Слева
Чуть позже скажу, как на самом деле получается. А почему такой вывод? Ведь в a1 только часть на numpy, а дальше просто вызов одной и той же функции. А в a3 все на numpy сделано, и все вычисления идут параллельно.
источник

SA

Svetlana Astafyeva in Machine learning
Добрый вечер.
Подскажите, пожалуйста, как узнать версию artm, установленную на компьютере?
источник

n🐈

nikoinlove 🐈 in Machine learning
dl
А тут же можно просто по питону вопросы позадавать? Я немного удивился, когда увидел, что есть значительная разница в производительности между вызовом функции 1000 раз и вычислениями через матрицу. Вот пример кода:

def squared_error2(x, y, w0, w1):
   diff = y - (w0 + w1 * x)
   return np.sum(np.square(diff))


def squared_error3(x, y, w0, w1):
   x = np.array(x)
   x = x.reshape(1, x.size)

   y = np.array(y)
   y = y.reshape(1, y.size)

   w1 = np.array(w1)
   w1 = w1.reshape(w1.size, 1)

   m = w0 + w1.dot(x) - y
   m = np.square(m)
   
   result = m.sum(axis=1)
   if result.size == 1:
       return result[0]
   return result


Вызываем вот так:
w0 = 50
w1 = np.linspace(-5, 5, 10001)

a1 = np.array([squared_error2(x, y, w0, wi) for wi in w1])
a2 = np.array([squared_error3(x, y, w0, wi) for wi in w1])
a3 = squared_error3(x, y, w0, w1)

Вот какой вариант должен быть самым быстрым, а какой самым медленным?
самым быстрым будет a4 = squared_error2 :)
а тормозит тут от кучи конвертаций в 3м методе, а не от цикла кмк
источник