нет. не сектора. в случае непрерывного архива надо считывать всё с самого начала. в случае кусочно-непрерывного с начала кусочка. а сжатие однородного текста практически пропорционально размеру кусочка. поэтому их выбирают большими
А кто говорит про непрерывный архив? Я говорил про использование ФС со сжатием.
Ну понятно, что плотность упаковки от длины словаря зависит и от кучи других характеристик. Но если данные настолько рыхлые, сектора по несколько килобайт размером тоже неплохо пожмутся.
даже словарик-то размером в 4 кб это фигня. тут больше гемора с впиливанием алгоритма схватишь. на словарики современный архиватор десятки-сотни мегабайты отводит.
даже словарик-то размером в 4 кб это фигня. тут больше гемора с впиливанием алгоритма схватишь. на словарики современный архиватор десятки-сотни мегабайты отводит.
А кто говорит про непрерывный архив? Я говорил про использование ФС со сжатием.
она имеет смысл только когда размер накопителя имеет очень ограниченные размеры - смотри роутеры, там как раз squashfs для сильносжатого r/o образа системы + jffs для слабо сжатых r/w измененных данных.
сейчас накопители жутко дешевы так что смысл использовать фс со сжатием на десктопе (и уж тем более на рабочей станции) очень мал.
еще больший выигрыш в работе дает использование p2p-раздач :) но это надо делать и пропихивать сквозь медленных на подъем потребителей.
Их есть у нас. Пользуюсь этой программой уже пару лет для выкачивания фоток с телефона и для передачи файлов любых размеров в любых сетях. https://www.resilio.com/individuals/
их можно если они правильны. но валидатора на них нет. да и делать их надобно при выгрузке, а не в базе хранить... в остальном все как из анекдота "ежик - птичка гордая ..."