自拍偷在线精品自拍偷,亚洲欧美中文日韩v在线观看不卡

在 Windows 上安裝 PySpark 保姆級(jí)教程

系統(tǒng) Windows
PySpark 是一個(gè)用 Python 編寫(xiě)的 Spark 庫(kù),用于使用 Apache Spark 功能運(yùn)行 Python 應(yīng)用程序。所以沒(méi)有 PySpark 庫(kù)可供下載。一切只需要 Spark。按照以下步驟在 Windows 上安裝 PySpark。

安裝 Python 或 Anaconda 發(fā)行版

圖片?https://www.python.org/downloads/windows/

從 Python.org? 或 Anaconda 發(fā)行版 下載并安裝 Python, 其中包括 Python、Spyder IDE 和 Jupyter notebook。我建議使用 Anaconda,因?yàn)樗苁軝C(jī)器學(xué)習(xí)和數(shù)據(jù)科學(xué)社區(qū)的歡迎和使用。

圖片

?https://www.anaconda.com/

推薦使用 Anaconda 安裝 PySpark 并運(yùn)行 Jupyter notebook。

安裝 Java 8

要運(yùn)行 PySpark 應(yīng)用程序,需要 Java 8 或更高版本,因此從 Oracle 下載 Java 版本并將其安裝在系統(tǒng)上。

圖片

?https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

安裝后設(shè)置 JAVA_HOME 和 PATH 變量。

JAVA_HOME = C:\Program Files\Java\jdk1.8.0_201
PATH = %PATH%;C:\Program Files\Java\jdk1.8.0_201\bin

在 Windows 上安裝 PySpark

PySpark 是一個(gè)用 Python 編寫(xiě)的 Spark 庫(kù),用于使用 Apache Spark 功能運(yùn)行 Python 應(yīng)用程序。所以沒(méi)有 PySpark 庫(kù)可供下載。一切只需要 Spark。按照以下步驟在 Windows 上安裝 PySpark。

1. 在Spark下載頁(yè)面,選擇 Download Spark (第3點(diǎn)) 鏈接進(jìn)行下載。如果你想使用其他版本的 Spark 和 Hadoop,請(qǐng)從下拉列表中選擇你想要的版本,第 3 點(diǎn)上的鏈接會(huì)更改為所選版本,并為你提供更新的下載鏈接。

圖片

?https://spark.apache.org/downloads.html

2. 下載后,解壓二進(jìn)制文件并將底層文件夾復(fù)制 spark-3.0.0-bin-hadoop2.7? 到 c:\apps

3. 現(xiàn)在設(shè)置以下環(huán)境變量。

SPARK_HOME  = C:\apps\spark-3.0.0-bin-hadoop2.7
HADOOP_HOME = C:\apps\spark-3.0.0-bin-hadoop2.7
PATH=%PATH%;C:\apps\spark-3.0.0-bin-hadoop2.7\bin

如果你還不知道如何在 Windows 上添加或編輯環(huán)境變量,請(qǐng)按照以下步驟操作。

1.打開(kāi)編輯系統(tǒng)環(huán)境變量窗口,在高級(jí)選項(xiàng)卡下選擇環(huán)境變量。

圖片

編輯系統(tǒng)環(huán)境變量

2.在以下環(huán)境變量屏幕上,通過(guò)選擇新建選項(xiàng)添加 SPARK_HOME?、 HADOOP_HOME ?及 JAVA_HOME

圖片

3. 這將打開(kāi)用戶(hù)變量窗口,可以在其中輸入變量名稱(chēng)和值。

圖片

4.現(xiàn)在編輯PATH變量

5. 通過(guò)選擇新建選項(xiàng)添加 Spark、Java 和 Hadoop bin 路徑。

圖片

在 Windows 上安裝 winutils.exe

從winutils 下載 winutils.exe 文件 ,并將其復(fù)制到%SPARK_HOME%\bin文件夾中。Winutils 對(duì)于每個(gè) Hadoop 版本都不同,因此請(qǐng)從下載正確的版本。

圖片

?https://github.com/steveloughran/winutils/blob/master/hadoop-2.7.1/bin/winutils.exe

PySpark shell

現(xiàn)在打開(kāi)命令提示符并鍵入 pyspark 命令以運(yùn)行 PySpark shell。應(yīng)該在下面看到類(lèi)似的內(nèi)容。

圖片

Spark-shell 還創(chuàng)建了一個(gè) Spark 上下文 Web UI,默認(rèn)情況下,它可以從 http://localhost:4041/ 訪問(wèn)。

Web UI

Apache Spark 提供了一套 Web UI(Jobs, Stages, Tasks, Storage, Environment, Executors, and SQL)來(lái)監(jiān)控 Spark 應(yīng)用程序的狀態(tài)。

圖片

Spark Web UI

歷史服務(wù)器

歷史服務(wù)器,記錄你通過(guò) spark-submit、pyspark shell 提交的所有 PySpark 應(yīng)用程序。在開(kāi)始之前,首先需要設(shè)置以下配置 spark-defaults.conf

spark.eventLog.enabled true
spark.history.fs.logDirectory file:///c:/logs/path

現(xiàn)在,通過(guò)運(yùn)行在 Linux 或 Mac 上啟動(dòng)歷史服務(wù)器。

$SPARK_HOME/sbin/start-history-server.sh

如果在 Windows 上運(yùn)行 PySpark,可以通過(guò)啟動(dòng)以下命令來(lái)啟動(dòng)歷史服務(wù)器。

$SPARK_HOME/bin/spark-class.cmd org.apache.spark.deploy.history.HistoryServer

默認(rèn)情況下,歷史服務(wù)器監(jiān)聽(tīng) 18080 端口,你可以使用http://localhost:18080/從瀏覽器訪問(wèn)它。

圖片

History Server

通過(guò)單擊每個(gè) App ID,將在 PySpark Web UI 中獲取應(yīng)用程序的詳細(xì)信息。

責(zé)任編輯:武曉燕 來(lái)源: 數(shù)據(jù)STUDIO
相關(guān)推薦

2022-12-01 11:41:24

2022-12-02 11:37:47

2022-09-14 11:31:37

MySQL數(shù)據(jù)庫(kù)管理系統(tǒng)

2021-10-23 06:45:43

Windows 11操作系統(tǒng)微軟

2021-08-13 20:47:52

微軟Windows 10Windows

2023-09-27 17:41:59

WindowsVirtualBox

2021-10-07 11:11:45

Windows 11操作系統(tǒng)微軟

2020-03-09 12:31:08

WindowsWindows 10GNU Emacs

2011-04-08 10:10:23

2023-07-06 09:01:33

2024-07-24 20:01:03

2025-02-24 00:00:09

2009-03-10 10:53:42

安裝ApacheMySQL

2023-11-27 00:18:38

2022-06-02 07:38:47

Python游戲

2023-05-29 07:39:49

2023-06-26 00:07:14

2024-12-26 12:03:48

LinuxRedis部署

2021-10-29 23:00:47

Windows 11Windows微軟

2021-09-06 11:50:45

Windows 11Windows微軟
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)