The HSIC Bottleneck: Deep Learning without Back-PropagationKurt Ma et al. Victoria University of Wellington
arxiv.org/abs/1908.01580v1TL;DR by
@vaklyuenkovПредлагается метод обучения полносвязных и свёрточных сетей
-
без обратного распространения ошибки
- без затухающих и взрывающихся градиентов
- позволяющий
независимое (в тч параллельное) обучение слоёв
- требующий меньшее число операций
- результаты на бенчмарках MNIST/FashionMNIST/CIFAR10 сравнимы с обучением с обратым распространием
- биологичнее, чем backprop
Вся магия в
критерии независимости Гильберта-Шмидта (HSIC) - меры, которая позволяет измерять степень независимости (что сильнее отсутсвия корреляции) между двумя многомерными случайными величинами, такими как парамметры любого скрытого слоя и ожидаемые лейблы на выходе. С помощью критерия для слоёв независимо оптимизируется баланс между независимостью от лишней информации в инпуте, ведущей к переобучению, и зависимости с желаемым результатом на выходе. Скорость сходимости получается даже больше чем у методов с backprop. Для получения state-of-the-art результатов всё-таки обучается один слой посредсвом SGD и авторы с гордостью отмечают это обходится без backprop.
It is more biologically plausible
без гмо и усилителей вкуса
всё натуральное