Вопрос непонятный, про какие потоки речь?
Очень упрощенно: драйвер запрашивает (ну или создаёт, я не очень в курсе про standalone режим) ресурсы на создание экзекуторов, которые на кластере являются отдельными JVM, обрабатывает план запроса с участием экзекуторов в некоторых случаях, когда нужна информация о данных. План это DAG, в нем содержится информация, как создать и обработать RDD. В Spark UI можно видеть джобы, стейджи и таски, всё это части планов выполнения. Обработка в большинстве случаев выполняется именно на экзекуторах, и они отправляют статус на драйвер и могут отправить данные.
Так что где эти потоки, зачем их разделять, пилить на части и какой другой процесс это может сделать, мне из вопроса неясно.