按照官网的流程先把大致的东西搭建出来 ,这里就不赘述了
具体使用中需要和hdfs结合的话需要配置更多参数
如果你的大数据平台也是cdh 那可以直接复用我的命令了
注意最下面的SPARK1那里我删掉1,改成SPARK了 最下面的输出也要跟着改下
export HADOOP_HOME=${HADOOP_HOME:-/opt/cloudera/parcels/CDH/lib/hadoop}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/etc/hadoop/conf}
#export SPARK_HOME1=${SPARK_HOME1:-/opt/soft/spark1}
export SPARK_HOME=${SPARK_HOME:-/opt/cloudera/parcels/CDH/lib/spark}
export PYTHON_HOME=${PYTHON_HOME:-/usr/local/python3.6.11}
export HIVE_HOME=${HIVE_HOME:-/opt/cloudera/parcels/CDH/lib/hive}
export FLINK_HOME=${FLINK_HOME:-/data/flink-1.13.6}
export DATAX_HOME=${DATAX_HOME:-/data/datax}
注意ds3必须要用flink1.13以上的版本
搭完之后应该是访问不了的 ,因为部署脚本有bug ,没有分发mysql包到api-server上
我的ds部署位置是/data/dolphinscheduler3 下面都按此举例
cp /data/apache-dolphinscheduler3/tools/libs/mysql-connector-java-8.0.16.jar /data/dolphinscheduler3/api-server/mysql-connector-java-8.0.16.jar
记得把包分发到所有节点的所有服务 , alert-server api-server master-server worker-server tools 命令只是换换位置,不再赘述。
部署脚本的权限也有问题,手动设置一下
chown -R dolphinscheduler:dolphinscheduler /data/dolphinscheduler3/
把权限处理一下 这会再stop-all start-all 应该可以访问了
搭建完成之后的配置存放在 conf下的 common.properties 中 初步搭建完成之后可以修改这里的配置来进行调整
随便找个服务修改conf下的common.properties文件
需要修改的部分如下
hadoop.security.authentication.startup.state=true
data.basedir.path=/data/dsdata ds文件的存储位置 记得自己手动创建
resource.storage.type=HDFS
java.security.krb5.conf.path=/etc/krb5.conf 指定krb5文件的位置
login.user.keytab.username=hdfs/supergroup@CDP.PROD 指定kerberos用户名
这个用户需要拥有对hdfs的操作权限 可以自己先kinit完了测试一下
login.user.keytab.path=/var/lib/keytab/hdfs.keytab 指定keytab文件位置
hdfs.root.user=hdfs 指定hdfs的root用户
fs.defaultFS=hdfs://nameservice1 ha的hdfs需要填写ha路径
yarn.resourcemanager.ha.rm.ids=master1.cdp.prod:8032 yarn的路径
yarn.application.status.address 这个不用修改
yarn.job.history.status.address=http://master2.cdp.prod:19888/ws/v1/history/mapreduce/jobs/%s yarn 的jobhistory路径
然后分发到 alert-server api-server master-server worker-server 的conf下 直接覆盖原来的就好了 ,这些配置文件都是一样的
然后把hadoop的配置文件软链接过来
ln -s /etc/hadoop/conf/hdfs-site.xml /data/dolphinscheduler3/api-server/conf/hdfs-site.xml
ln -s /etc/hadoop/conf/hdfs-site.xml /data/dolphinscheduler3/worker-server/conf/hdfs-site.xml
ln -s /etc/hadoop/conf/hdfs-site.xml /data/dolphinscheduler3/master-server/conf/hdfs-site.xml
ln -s /etc/hadoop/conf/hdfs-site.xml /data/dolphinscheduler3/alert-server/conf/hdfs-site.xml
ln -s /etc/hadoop/conf/core-site.xml /data/dolphinscheduler3/api-server/conf/core-site.xml
ln -s /etc/hadoop/conf/core-site.xml /data/dolphinscheduler3/worker-server/conf/core-site.xml
ln -s /etc/hadoop/conf/core-site.xml /data/dolphinscheduler3/master-server/conf/core-site.xml
ln -s /etc/hadoop/conf/core-site.xml /data/dolphinscheduler3/alert-server/conf/core-site.xml
然后创建之前配置的本地文件位置
mkdir /data/dsdata
chown -R dolphinscheduler:dolphinscheduler /data/dsdata
如果你是cdh环境 需要替换一下ds自带的hive包
替换这些
mv hive-common-2.1.0.jar hive-jdbc-2.1.0.jar hive-metastore-2.1.0.jar hive-orc-2.1.0.jar hive-serde-2.1.0.jar hive-service-2.1.0.jar hive-service-rpc-2.1.0.jar hive-storage-api-2.1.0.jar /mnt
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-common-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-exec-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-jdbc-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-metastore-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-orc-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-serde-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-service-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-service-rpc-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
cp /opt/cloudera/parcels/CDH/lib/hive/lib/hive-storage-api-2.1.1-cdh6.3.2.jar /data/dolphinscheduler3/alert-server/libs/
刚开始可以直接替换所有的依赖 ,这个jar包中的依赖guava和ds的有冲突,导致先加载这个jar包,sparing就起不来
hive-exec-2.1.1-cdh6.3.2-core.jar
如果可以正常启动就算了 ,无法正常启动就用原来的 。不知道为什么有时候可以有时候不行
4个服务加一个tools 都有lib文件夹
记得在所有节点上执行
同datax一起使用的话记得做一个python2.7的软连接到你的python3下
不然会报错
/data/dsdata/exec/process/6775268362528/6796595627808_19/7/20/7_20_node.sh: line 1: /usr/local/python3.6.11/bin/python2.7: No such file or directory
完了就可以 stop-all start-all
然后去ds上测试一下
首先创建一个租户 比如test
然后去资源中心再创建几个test文件夹
然后再去项目管理里创建几个test项目
都可以创建的话就是部署成功了 ,有错误需要去apiserver的日志里查看 。按流程来基本应该没有问题