Size: a a a

2019 December 05

Ж

Жмака in Data Engineers
Круто, только анализировать не в чем. На кластере только HBase, спарка и хайва нет. Есть какой то офлайн вариант?
источник

AZ

Anton Zadorozhniy in Data Engineers
OIV расшифровывается именно как Offline Image Viewer, он работает оффлайново, а работать с CSV файлом без спарка и хайва вроде мы в отрасли умеем
источник

AZ

Anton Zadorozhniy in Data Engineers
(пандас, в ПГ загрузить, эксель если данных мало - выбирайте)
источник

Ж

Жмака in Data Engineers
Спасибо!
источник

UD

Uncel Duk in Data Engineers
источник

UD

Uncel Duk in Data Engineers
да хоть этим
источник

AZ

Anton Zadorozhniy in Data Engineers
да, если погуглить в гитхабе (погитхабить?) fsimage то будет чем вдохновиться
источник

AZ

Anton Zadorozhniy in Data Engineers
Жмака
Спасибо!
ну мб это для вас оверхед, если вам одну-две таблицы смотреть то напишите скрипт который делает hdfs dfs -du -s /hbase/data/myNS/myTable и отправляет это куда вам надо
источник

Ж

Жмака in Data Engineers
Там более 1900 таблиц😔
источник

AZ

Anton Zadorozhniy in Data Engineers
Жмака
Там более 1900 таблиц😔
если бы только был способ потворять какие-то операции в коде, как если они зациклены..
источник

AZ

Anton Zadorozhniy in Data Engineers
(извините)
источник

AZ

Anton Zadorozhniy in Data Engineers
просто у hbase плоская структура хранения НС/Таблица, и если все что вам нужно это анализ только объемов в hbase то кмк полноценная аналитика fsimage может быть из пушки по воробьям
источник

Ж

Жмака in Data Engineers
Я думал просто из wal файлов узнать: сколько информации пишется в них в течение суток
источник

AZ

Anton Zadorozhniy in Data Engineers
это как?
источник

Ж

Жмака in Data Engineers
В jmx есть метрика hlogFileSize. Это размер всех wal в регион сервере. В графане  показан avg. Мысль была, что поскольку запись идет все равно в вал файлы то попроьовать суммировать эту метрику
источник

AZ

Anton Zadorozhniy in Data Engineers
вы  вроде на уровне таблицы хотели?
источник

Ж

Жмака in Data Engineers
Нет. Мне нужно на всем кластере а не на уровне таблицы
источник

Ж

Жмака in Data Engineers
Просто необходима точность до десятков гигабайт: сколько гига ежедневно записывается в кластер  hbase
источник

AZ

Anton Zadorozhniy in Data Engineers
hdfs dfs -du -s /hbase/data
источник

AZ

Anton Zadorozhniy in Data Engineers
точность будет до байта
источник