首页_亚辰娱乐

四川建材 2021-05-31 阅读:314

3、将配置分发到各个节点

(如果需要在别的集群也使用的话执行以下步骤,以及所有拷贝jar的步骤在所有机器执行)scp /etc/ecm/flink-conf/sql-client-defaults.yaml root@emr-worker-1:/etc/ecm/flink-conf/scp /etc/ecm/flink-conf/sql-client-defaults.yaml root@emr-worker-2:/etc/ecm/flink-conf/...(这里参考亚辰娱乐后面,因为还有几个jar需要拷贝)

4、拷贝jar包

start-cluster.shsql-client.sh embedded会发现报错如下:

原因是缺少jar包,执行下面操作不然会有一系列报错。cd /usr/lib/flink-current/libsudo cp /lib/hive-current/lib/hive-exec-3.1.2.jar .sudo wget https://repo1.maven.org/maven2/org/apache/flink/flink-connector-hive_2.11/1.10.2/flink-connector-hive_2.11-1.10.2.jarsudo wget https://repo1.maven.org/maven2/org/apache/flink/flink-hadoop-compatibility_2.11/1.10.2/flink-hadoop-compatibility_2.11-1.10.2.jarsudo wget https://repo1.maven.org/maven2/org/apache/thrift/libfb303/0.9.3/libfb303-0.9.3.jar

5、启动

start-cluster.shsql-client.sh embedded

下面是空的因为新集群没有数据,下面到hive去创建点数据

重新执行sql-client.sh embedded进入SQL client发现已经能看见了。

查询发现报错了。

6、排错

排查了下看8081端口都没有起来

最后发现是社区hive connector的兼容性问题,之前的冲突是1.10.2导致的,理论上vvr-1.10可以使用社区的hive-connector-1.10.x,这个问题在1.11里面已经修复了。

所以我们换一下jar包。mv flink-connector-hive_2.11-1.10.2.jar /tmp/sudo wget https://repo1.maven.org/maven2/org/apache/flink/flink-connector-hive_2.11/1.10.1/flink-connector-hive_2.11-1.10.1.jar




这是四川保温砂浆四川改性挤塑板,高德招商(2021-05-31 18:42:14)

评论(0)