google-cloud-dataflow 相关问题

Google Cloud Dataflow是一种完全托管的云服务,可用于大规模创建和评估数据处理管道。数据流管道基于Apache Beam编程模型,可以在批处理和流模式下运行。 Cloud Dataflow是Google云端平台的一部分。

为什么 Apache Beam 似乎在单个 worker 上并行化元素?

我正在使用 Google Cloud Dataflow 运行程序测试一个非常简单的 Apache Beam 管道,该运行程序从 Pub/Sub 读取音频元素,通过 Tensorflow 模型运行元素,并将结果写入 Pub...

回答 1 投票 0

逆向数据流:不能通过 props 将函数从父级传递给子级

我正在尝试创建一个 pokedex 应用程序。在我的 app.js 中,我使用 useEffect 进行 API 调用,然后使用子组件详细说明每张卡片。 我想做的是当用户点击卡片时,应用程序...

回答 2 投票 0

pubsub 消息何时在 Dataflow 管道中被确认?

这里的医生说 Dataflow runner 的 PubsubIO 实现在消息被第一个融合阶段成功处理后自动确认消息以及该阶段的副作用

回答 0 投票 0

MYSQL 的 DataProc 作业 Bigquery 需要很长时间

我有以下代码将数据从 Bigquery 复制到 MYSQL 这里是我的 pyspark 代码 spark = SparkSession.builder.appName('MySQL Data Loader').getOrCreate() dataframe = spark.read.format("...

回答 0 投票 0

如何在 dialogFlow CX 中多次更新和插入意图?

对于ES版本,我们使用googleapis模块中的batchUpdate方法进行批量更新。但是,对于 CX 版本,我们使用的是 @google-cloud/dialogflow-cx 模块,并且...

回答 0 投票 0

Kotlin - 未知的“runner”指定了“DataflowRunner”

我在运行这个时遇到了一些问题: 导入 com.google.api.services.bigquery.model.TableRow 导入 com.google.cloud.bigquery.* 导入 org.apache.beam.runners.dataflow.DataflowRunner 导入 org.apa...

回答 0 投票 0

使用特定 SA 通过 Cloud Build 部署数据流管道

我正在竭尽全力地尝试使用特定的 SA(而不是默认的 Cloud Build SA)从 Cloud Build 部署 Dataflow 管道,但到目前为止没有成功。 我遵循了这个过程 - https://cloud.

回答 1 投票 0

使用 Java Google 云数据存储 API 将 com.google.cloud.datastore.Key 对象转换为 com.google.datastore.v1.Key 对象

是否有人尝试使用 Java API 将 com.google.cloud.datastore.Key 对象转换为 com.google.datastore.v1.Key 对象。问题是我用 com.google.cloud.datast 执行了一个查询...

回答 0 投票 0

Azure 数据流从表中随机擦除数据

请索取有助于回答此问题的任何其他信息。 我正在编辑一个以前工作完美的数据流,新的要求是让它仍然像以前那样运行......

回答 0 投票 0

是否可以在 Azure Synapse Analytics 中添加 NULL 行?

是否可以使用 Synapse 数据流添加新列? 通常你不会添加 Null 行,但在我们的例子中我们需要该行。

回答 0 投票 0

在python中bigquery sink后是否可以进行其他处理?

我正在编写一个具有以下过程的管道: 1.读取带有属性“uid”的pubsub消息,这是此消息的唯一ID 2.将消息存储在Bigquery中,数据格式为 uid |

回答 1 投票 0

Google数据流API调用失败-

我正在尝试使用数据流运算符从 composer airflow 调用数据流作业,但在调用它时出现以下错误: googleapiclient.errors.HttpError: 我正在尝试使用数据流运算符从 composer airflow 调用数据流作业,但在调用它时出现以下错误: googleapiclient.errors.HttpError: <HttpError 400 when requesting https://test returned "Invalid value at 'launch_parameters.parameters' (type.googleapis.com/google.dataflow.v1beta3.LaunchTemplateParameters.ParametersEntry), "{'test1': 'SELECT distinct data\nFROM project.dataset.table1\nWHERE ace_date="2022-05-12"', 'test2': 'SELECT distinct data\nFROM project.dataset.table2\nWHERE ace_date="2022-05-12"', 'priority_data': 'SELECT distinct data\nFROM project.dataset.table3\nWHERE ace_date="2022-05-12"', 'test3': 'SELECT distinct data\nFROM project.dataset.table4\nWHERE ace_date="2022-05-12"', 'test4': 'SELECT distinct data\nFROM project.dataset.table5\nWHERE ace_date="2022-05-12"', 'test5': 'SELECT distinct data\nFROM project.dataset.tabl6 \nWHERE ace_date="2022-05-12"', 'pack_rules': 'SELECT distinct data\nFROM project.dataset.table7\nWHERE ace_date="2022-05-12"', 'test6': 'SELECT distinct row_key_data as data\nFROM peoject.dataset.table7\nWHERE date_of_run="2022-05-16"'}"" 下面是从 Airflow 调用它时的相同代码: def dataflow_trigger( task, ): """ Dynamic task for calling dataflow job """ return DataflowTemplatedJobStartOperator( task_id=task, project_id="{{task_instance.xcom_pull(key='dataflow_settings', task_ids='get_settings')['project']}}", job_name="{{task_instance.xcom_pull(key='dataflow_settings', task_ids='get_settings')['job_name']}}", template="{{task_instance.xcom_pull(key='dataflow_settings', task_ids='get_settings')['template_path']}}", parameters="{{task_instance.xcom_pull(key='parameters', task_ids='get_settings')}}", location='europe-west2', ) Airflow xcom pull 只返回字符串 这有助于解决问题,因为 xcom push 将其存储为字符串;在 DAG 构造函数中使用 render_template_as_native_obj=True 解决了这个问题。

回答 1 投票 0

Apache Beam IOElasticsearchIO.read() 方法 (Java),它需要一个 PBegin 输入和一种处理查询集合的方法

我在使用 ElasticsearchIO.read() 处理多个查询实例时遇到了问题。我的查询正在根据传入的一组值动态构建为 PCollection....

回答 0 投票 0

来自 Python 中 Bigquery 的动态侧输入

我正在编写一个光束管道,它读取具有名为“uid”的属性的 pubsub 消息,这是当前消息的唯一 id。然后我想使用这个'uid'来查询bigquery以获得额外的

回答 1 投票 0

Azure 数据工厂管道失败:spark.rpc.message.maxSize

"StatusCode":"DFExecutorUserError","Message":"Job failed due to reason: at Source 'source1': Job aborted due to stage failure: Serialized task 10:0 was 135562862 ...

回答 1 投票 0

从列的子集中获取新的 GenericRecord

我们正在处理 Avro 文件,我们使用 GenericRecord 类型(在 Beam/Dataflow 中)。我想基于选定的列子集创建一个新的 GenericRecord。没有

回答 0 投票 0

数据流 BigQuery 到 BigQuery

我正在尝试创建一个从 BigQuery 返回到 BigQuery 的数据流脚本。我们的主表很大,破坏了提取功能。我想创建一个简单的表(由于

回答 3 投票 0

Google Dataflow Key Distribution On Reshuffle After Autoscaling Event

当我的数据流作业从 45 个工作节点扩展到 100 个节点时,我遇到了一些带有键控状态的奇怪行为。 我的代码是键入输入数据,然后使用 Reshuffle 函数重新分配...

回答 1 投票 0

我们如何在 python 中读取 apache beam 中的字典列表?

我有一个包含字典列表的文本文件。 现在,我想使用 apache beam 阅读它,并从列表中返回单个词典。 我该怎么做。 我的文本文件是这样的。 [{"id&q...

回答 1 投票 0

从 BigQuery 中提取数据并加载到 SQL Server 中的最佳方法是什么?

我想创建一些通用管道,我可以在其中传递表名或自定义 SQL 作为输入,并将所需数据从 BigQuery 加载到 SQL Server。该管道应处理每日增量负载...

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.