flink向hive写入数据insert overwrite时出错

问题描述 投票:0回答:0

我需要建立一个离线仓库,所以我使用了flink和hive。使用partition overwrite insert into hive时报错

com.py.project.tproc.data.common.exception.BigDataRuntimeException: Streaming mode not support overwrite.

上面的异常说明insert overwrite不能在streaming环境下使用,所以我设置了batch模式,但是还是报这个错

StreamExecutionEnvironment env   = StreamExecutionEnvironment.createRemoteEnvironment(address, port);
        env.setRuntimeMode(RuntimeExecutionMode.BATCH);
        
        env.setParallelism(parallelism);
        StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env, EnvironmentSettings.newInstance().useBlinkPlanner().build());

我希望能够正常使用insert overwrite向hive写入数据,必须使用远程环境,因为我的业务场景需要。我该怎么办?

忘记好答案

hive apache-flink flink-sql flink-batch
© www.soinside.com 2019 - 2024. All rights reserved.