专注于快乐的事情

Spark

PySpark的背后原理

本文转自http://sharkdtu.com/posts/pyspark-internal.html Spark主要是由Scala语言开发,为了方便和其他系统集成而不引入scala相关依赖,部分实现使用Java语言开发,例如Exte...

虚拟环境下spark相关软件的安装配置

机器配置假设已经成功配置了三台虚拟机器,分别为:master,node1,node2。安装的都为centos7。 安装JDK开发插件在master机器中 安装yum install -y java-1.8.0-openjdk-dev...

mac下配置pyspark环境

安装过程以前用的spark版本有点老了,来个新的。 安装包下载地址: https://archive.apache.org/dist/spark/spark-2.4.0/spark-2.4.0-bin-hadoop2.7.tgz 解压...