我想使用 pandas 将数据批量加载到雪花仓库中。请在下面找到完整的要求:
文件大小:200k 条记录
我尝试过的事情:
但我不想使用 COPY into 因为它只是雪花特定的。
请帮助我使用 python 批量加载数据。
尝试使用 Snowflake-connector-python 库
import snowflake.connector
# Create a connection
conn = snowflake.connector.connect(
user='<your_username>',
password='<your_password>',
account='<your_account_url>',
warehouse='<your_warehouse>',
database='<your_database>',
schema='<your_schema>'
)
Snowflake提供了copy_into方法来高效批量加载数据。您可以按如下方式使用它:
import snowflake.connector.pandas_tools as sfpd
# Assuming you have a DataFrame called 'df' with your data
sfpd.write_pandas(conn, df, '<snowflake_table_name>')
此方法使用 Snowflake Connector 的内置功能进行批量加载,这应该比一次插入一行要快得多。