Apache Spark — молниеносное кластерное вычисление, разработанное для быстрых вычислений. Он был построен поверх Hadoop MapReduce и расширяет модель MapReduce для эффективного использования большего количества типов вычислений, включая интерактивные запросы и потоковую обработку. Это краткое руководство, объясняющее основы программирования Spark Core.
Аудитория
Это руководство было подготовлено для профессионалов, которые хотят изучить основы аналитики больших данных с помощью Spark Framework и стать разработчиком Spark. Кроме того, это было бы полезно для специалистов по аналитике и разработчиков ETL.
Предпосылки
Прежде чем приступить к изучению этого руководства, мы предполагаем, что вы уже знакомы с программированием Scala, концепциями баз данных и любыми разновидностями операционной системы Linux.