问题 Amazon EMR上的Livy Server在连接到ResourceManager时挂起


我正在尝试在Amazon EMR上部署Livy Server。首先,我建立了Livy主分支

mvn clean package -Pscala-2.11 -Pspark-2.0

然后,我将其上传到EMR集群主服务器。我设置了以下配置:

livy-env.sh

SPARK_HOME=/usr/lib/spark
HADOOP_CONF_DIR=/etc/hadoop/conf

livy.conf

livy.spark.master = yarn
livy.spark.deployMode = cluster

当我启动Livy时,它会在连接到YARN资源管理器时无限期挂起(XX.XX.XXX.XX是IP地址)

16/10/28 17:56:23 INFO RMProxy: Connecting to ResourceManager at /XX.XX.XXX.XX:8032

但是,当我netcat端口8032时,它成功连接

nc -zv XX.XX.XXX.XX 8032
Connection to XX.XX.XXX.XX 8032 port [tcp/pro-ed] succeeded!

我想我可能错过了一些步骤。任何人都知道这一步可能是什么?


3115
2017-10-28 20:10


起源



答案:


解压缩livy-server-0.2.0.zip文件后,我对配置文件进行了以下更改

livy-env.sh

export SPARK_HOME=/usr/hdp/current/spark-client
export HADOOP_HOME=/usr/hdp/current/hadoop-client/bin/
export HADOOP_CONF_DIR=/etc/hadoop/conf
export SPARK_CONF_DIR=$SPARK_HOME/conf
export LIVY_LOG_DIR=/jobserver-livy/logs
export LIVY_PID_DIR=/jobserver-livy
export LIVY_MAX_LOG_FILES=10
export HBASE_HOME=/usr/hdp/current/hbase-client/bin

livy.conf

livy.rsc.rpc.server.address=<Loop Back address>

在sparkist文件夹下的'spark-defaults.conf'文件中添加'spark.master yarn-cluster'。

如果您还有问题,请告诉我。


6
2017-11-09 14:35



嘿Balakrishna,谢谢你的回答! Livy服务器现在开始了!但是,所有会议都在开始 死。你知道可能是什么问题吗? - matheusr
@matheusr,您可以启用调试日志记录 - Balakrishna D
有用!但是,我需要建立Livy的主分支。这是因为Livy 0.2不支持Spark 2或Scala 2.11。以上配置是使其工作所需的全部内容。 - matheusr
很高兴听到。谢谢 - Balakrishna D


答案:


解压缩livy-server-0.2.0.zip文件后,我对配置文件进行了以下更改

livy-env.sh

export SPARK_HOME=/usr/hdp/current/spark-client
export HADOOP_HOME=/usr/hdp/current/hadoop-client/bin/
export HADOOP_CONF_DIR=/etc/hadoop/conf
export SPARK_CONF_DIR=$SPARK_HOME/conf
export LIVY_LOG_DIR=/jobserver-livy/logs
export LIVY_PID_DIR=/jobserver-livy
export LIVY_MAX_LOG_FILES=10
export HBASE_HOME=/usr/hdp/current/hbase-client/bin

livy.conf

livy.rsc.rpc.server.address=<Loop Back address>

在sparkist文件夹下的'spark-defaults.conf'文件中添加'spark.master yarn-cluster'。

如果您还有问题,请告诉我。


6
2017-11-09 14:35



嘿Balakrishna,谢谢你的回答! Livy服务器现在开始了!但是,所有会议都在开始 死。你知道可能是什么问题吗? - matheusr
@matheusr,您可以启用调试日志记录 - Balakrishna D
有用!但是,我需要建立Livy的主分支。这是因为Livy 0.2不支持Spark 2或Scala 2.11。以上配置是使其工作所需的全部内容。 - matheusr
很高兴听到。谢谢 - Balakrishna D


您可以在log4j.properties中使用以下内容,请发布日志文件。

log4j.rootCategory=DEBUG, NotConsole

log4j.appender.NotConsole=org.apache.log4j.RollingFileAppender

log4j.appender.NotConsole.File=/<LIVY SERVER INSTALL PATH>/logs/livy.log

log4j.appender.NotConsole.maxFileSize=20MB

log4j.appender.NotConsole.layout=org.apache.log4j.PatternLayout

log4j.appender.NotConsole.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n

2
2017-11-11 04:15



这是日志文件: pastebin.com/2Fzch3Qn - matheusr
@matheusr,Spark库没有加载。可以请将spark库复制到<livy install folder> / jars文件夹。 - Balakrishna D


看看github repo,它看起来像master分支正在开发中,并且有0.2版本的单独发布分支。安装livy的直接方式(对我有用)是按照快速入门页面中的步骤操作: http://livy.io/quickstart.html 

下载Livy Server发行版

wget http://archive.cloudera.com/beta/livy/livy-server-0.2.0.zip

拉开拉链

unzip livy-server-0.2.0.zip

开始

$ cd livy-server-0.2.0
$ ./bin/livy-server
16/11/07 20:32:51 INFO LivyServer: Using spark-submit version 2.0.0
16/11/07 20:32:51 WARN RequestLogHandler: !RequestLog
16/11/07 20:32:51 INFO WebServer: Starting server on http://ip-xx-xx-xx-xxx.us-west-2.compute.internal:8998

1
2017-11-07 20:43



你能详细说明你如何配置Livy吗? - matheusr
赏金即将到期,我会在它到期后立即开始另一个。 - matheusr