CentOS配置Spark完整指南
前置條件
在CentOS上部署Spark前,需滿足以下條件:
- 已安裝Java 8或更高版本
- 系統(tǒng)具備sudo權(quán)限用戶
- 網(wǎng)絡(luò)連接正常,可訪問軟件源
安裝Java環(huán)境
Spark依賴Java運行環(huán)境,執(zhí)行以下命令安裝OpenJDK:
sudo yum install java-1.8.0-openjdk-devel
驗證Java版本:
java -version
下載與解壓Spark
訪問Spark官網(wǎng)下載最新穩(wěn)定版,例如:
wget https://archive.apache.org/dist/spark/spark-3.3.2/spark-3.3.2-bin-hadoop3.tgz
tar -xvf spark-3.3.2-bin-hadoop3.tgz
sudo mv spark-3.3.2-bin-hadoop3 /opt/spark
配置環(huán)境變量
編輯/etc/profile
文件,添加以下內(nèi)容:
export SPARK_HOME=/opt/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
使配置生效:
source /etc/profile
驗證Spark安裝
運行Spark-shell測試:
spark-shell
成功啟動后,控制臺將顯示Spark版本及運行狀態(tài)信息。
配置參數(shù)優(yōu)化
根據(jù)服務(wù)器資源調(diào)整/opt/spark/conf/spark-defaults.conf
:
spark.master local[*]
spark.driver.memory 2g
spark.executor.memory 4g
啟動Spark集群(可選)
若需啟動獨立集群,執(zhí)行以下命令:
cd /opt/spark/sbin
./start-master.sh
./start-worker.sh spark://<Master-IP>:7077
常見問題處理
- Java版本不兼容:確保使用Java 8+并配置JAVA_HOME
- 端口沖突:檢查8080和7077端口是否被占用
- 權(quán)限不足:使用sudo或修改/opt目錄權(quán)限