Ребят, всем привет. Нужна помощь, не могу разобраться. Есть spark, он генерит dataframe и должен сохранить его в виде parquet файла как партицию hive external table.
write.mode(sm).partitionBy(partitions: _*).format("parquet").save(path)
Сам механизм сохранения уже давно работает в приложении. Добавилась новая таблица/новый датафрейм. Код отрабатывает, исключений нет, но по факту файл не создается. Никаких сообщений или ошибок в логах не вижу. Схемы сверил, различий не вижу. Где еще можно поискать причину?