
我想使用安裝 Hadoop 和 Spark aptitude
,而不是中描述的冗長而複雜的過程如何安裝Hadoop?。
hadoop-ubuntu
看起來已經死了快兩年了。
我想知道為什麼Hadoop 和 Spark 尚未針對 Ubuntu 進行打包(除了通常的「沒有志願者」之外)。
附言。我的目標是本地開發並部署到 Spark 伺服器。
答案1
有一個包含 Ubuntu 的 hadoop 和 Spark 軟體包的儲存庫: http://bigtop.apache.org 我相信它並不總是最新的閃亮版本 - 但比 2 年新。
# curl http://www.apache.org/dist/bigtop/bigtop-1.0.0/repos/debian8/bigtop.list > /etc/apt/sources.list.d/bigtop.list
# apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 3A367EA0FA08B173
# aptitude update
# aptitude install spark-python
截至目前,他們的軟體包相當舊(hadoop 2.6.0,spark 1.3.1)