Видео от Deepfakes теперь можно защищать🔥
Ребята из Бостонского университета разработали алгоритм, позволяющий защитить изображения от использования в качестве основы дипфейков.
Алгоритм накладывает на изображение или видео невидимый фильтр, и если кто-то попытается использовать нейронную сеть для модификации этих файлов, они либо останутся без изменений, либо станут полностью искаженными - фильтр изменяет пиксели таким образом, что видео и изображения становятся непригодными для изготовления дипфейков.
Исходный код доступен всем желающим.👻
А
тутЬ есть видео демонстрирующее работу
===============
Не исключено что подобные технологии со временем будут интегрированы в приложения
Забавно теперь это похоже на еще одну маленькую войну. Одни создают Deepfakes, другие ломают.