В чем разница между блоками в spark.streaming.blockInterval
и разделах RDD в Spark Streaming?
Цитата из документации Spark Streaming 2.2.0:
Для большинства приемников полученные данные объединяются в блоки перед сохранением в памяти Spark. Количество блоков в каждом пакете определяет количество задач, которые будут использоваться для обработки полученных данных в преобразовании, подобном карте.
Количество блоков определяется в соответствии с интервалом между блоками. А также мы можем определить количество разделов rdd. Так что, как мне кажется, они не могут быть такими же. В чем разница между ними?