背景
我正在尝试设置一个airflow/dbt docker基础设施,使用Snowflake作为数据库,AWS S3作为文件管理系统,MongoDB作为数据源。
问题
我安装了
apache-airflow-providers-snowflake
,我可以找到airflow.providers.snowflake.transfers.copy_into_snowflake
但是找不到airflow.providers.snowflake.transfers.s3_to_snowflake
!
这是我在主数据上收到的错误:
您在导入雪花提供程序时是否遇到过同样的问题并且只获取 copy_into_snowflake 组件?
源代码(如果需要,我可以给你更多细节)
这是我的项目目录树:
project
|
|-- airflow
|-- dags
|-- main.py
|-- Dockerfile
|-- requirements.txt
|
|-- docker-compose.yaml
|-- .env
气流主齿轮:
import pendulum
from airflow.providers.snowflake.transfers.s3_to_snowflake import S3ToSnowflakeOperator
from airflow import DAG
with DAG(
dag_id="main",
start_date=pendulum.datetime(year=2024, month=3, day=26, hour=15, minute=35),
schedule_interval="15 4 * * *",
catchup=False,
) as dag:
pass
查看文档,似乎
airflow.providers.snowflake.transfers.s3_to_snowflake
模块仅在 4.4.2 之前的版本中可用。如果您使用的是较新版本,它可能无法工作。