Вы, насколько я понимаю, специалист по облакам. Как это решается, например, в s3?
для разных угроз разные механизмы, от MFA Delete и версионирования, до cross-region replication (там удаления в сорце транслируются в специальные маркеры в таргете)
коллеги. здравствуйте! подскажите, как вы пишете юнит-тесты на свои spark structured streaming джобы? по канону вроде как надо разбивать джобу на стадии read, transform, write - и тестировать каждую отдельно. а если у меня джоба джойнит несколько стримов?
Если будешь отдельно копировать бд метастора, а затем hdfs, получишь разбег данных, мы это уже проходили. Локтикусали сильно .... сейчас делаем export table и копирование hdfs, но нам это надо при переезде на другой кластер.
А что конкретно разъезжается в первом случае? Схемы таблиц?
А что конкретно разъезжается в первом случае? Схемы таблиц?
Метаданные, с фактическими данными, кажлый раз натыкался. При export table, такое случается более редко, на моей практике ни разу. Но теоретически возможно.
Привет! Сегодня обнаружил в логах работающей всю ночь спарк джобы такой экспепшин - "Spark java.io.IOException: All datanodes are bad. Aborting.." Запускаю на AWS EMR. На Resource Manager url зайти не могу. не отвечает. Как лечить такое ?
Всем привет, стало интерсно, а почему при инсерте, спакр вставляет не по именам, а по номерам слолбцов? Он же все равно падает с ошибкой, если есть одинаковые названия
Всем привет, стало интерсно, а почему при инсерте, спакр вставляет не по именам, а по номерам слолбцов? Он же все равно падает с ошибкой, если есть одинаковые названия