
aptitude
에 설명된 길고 복잡한 프로세스가 아닌 를 사용하여 Hadoop 및 Spark를 설치하고 싶습니다.하둡을 설치하는 방법?.
hadoop-ubuntu
죽은 지 거의 2년 정도 된 것 같습니다.
궁금하다왜Hadoop과 Spark는 Ubuntu용으로 패키징되지 않았습니다(일반적인 "자원 봉사자가 없습니다"라는 말 외에).
추신. 내 목표는 로컬에서 개발하여 Spark 서버에 배포하는 것입니다.
답변1
Ubuntu용 hadoop 및 Spark 패키지가 포함된 저장소가 있습니다. http://bigtop.apache.org 나는 그것이 항상 최신의 빛나는 릴리스에 달려 있는 것은 아니라고 생각합니다. 그러나 2년보다 새로운 것입니다.
# curl http://www.apache.org/dist/bigtop/bigtop-1.0.0/repos/debian8/bigtop.list > /etc/apt/sources.list.d/bigtop.list
# apt-key adv --keyserver keyserver.ubuntu.com --recv-keys 3A367EA0FA08B173
# aptitude update
# aptitude install spark-python
현재로서는 해당 패키지가 꽤 오래되었습니다(hadoop 2.6.0, Spark 1.3.1).