pytables 相关问题

用于处理极大分层数据集的Python库。

我应该如何使用h5py库存储时间序列数据?

我有一些时间序列数据,以前我使用pytables作为hdf5文件存储。我最近尝试用h5py lib存储相同的内容。但是,由于numpy数组的所有元素都必须具有相同的dtype,因此...

回答 2 投票 2

如何为PyTables IsDescription类动态分配列?

假设我有一个PyTables描述类:在[1]中:将表导入为tb类DataDescr(tb.IsDescription):timestamp = tb.Time64Col(pos = 0)value_b = tb.Float32Col(...

回答 1 投票 0

蟒蛇熊猫打破对Python的阅读3.6.x的HDF文件

我使用的是蟒蛇环境使用Python 3.6.8,以畅达创建创建-n临时大熊猫pytables h5py蟒蛇= 3.6.8。当我尝试读取像.h5文件:F = pd.read_hdf(文件名,键)我得到一个...

回答 1 投票 1

使用xlwings时无法读取HDF文件 - HDFStore需要PyTables

我试图使用xlwings在python中创建各种Excel UDF。我的UDF依赖于从HDF文件中提取的值。但是,每次单击Excel中的“导入功能”按钮时,我......

回答 1 投票 0

pd.read_hdf throws'无法将WRITABLE标志设置为此数组的True'

运行pd.read_hdf('myfile.h5')时,我收到以下回溯错误:[[...更长的追溯]]〜/ .local / lib / python3.6 / site-packages / pandas / io / pytables。 py在read_array中(self,key,...

回答 2 投票 13

Pytables EArray vs速度/效率表

我试图弄清楚在pytables中存储时间 - 值对的最有效方法是什么。我正在使用pytables,因为我正在处理巨大的数据量。我需要对...进行计算

回答 1 投票 2

无法使用自然命名在PyTable中检索数据集

我是PyTables的新手,我想使用自然命名从HDF5中检索数据集但是我使用这个输入得到了这个错误:f = tables.open_file(“filename.h5”,“r”)f.root。基1.dataset-1 ....

回答 1 投票 0

PyTables - 使用cols方法消耗大量内存

在Pytables中使用cols方法的目的是什么?我有大数据集,我有兴趣只从该数据集中读取一列。这两种方法给了我相同的时间,但完全......

回答 1 投票 0

PyTables检索最大值和最小值?

我创建了一个Python脚本,它从套接字接收时间序列数据并通过PyTables将其写入HDF5文件,如下所示:#Define description object to pass to table constructor class ...

回答 1 投票 0

如何使用pytables取消引用外部链接列表?

我使用pytables创建了从一个hdf5文件到另一个hdf5文件的外部链接。我的问题是如何在循环中取消引用它?例如:假设file_name =“collection.h5”,其中......

回答 2 投票 0

在pytable中同时访问多个表

我正在尝试将时间嵌入存储在pytable中。有12个表,每个表有超过130,000行,其中每个表有两列(word varchar,embedding float(numpy.arry(300,)))。 ...

回答 1 投票 0

有没有办法在Python中逐行编写hdf5文件?

对于CSV文件,我们可以使用writer = csv.writer(输出)writer.writerow([a,b,c,d])是否有类似的内容用于编写Hdf5文件?

回答 2 投票 -1

在ubuntu中安装HDF5和pytables

我试图在Ubuntu 14.04中安装表包,但似乎是在抱怨。我正在尝试使用PyCharm及其软件包安装程序安装它,但似乎它抱怨...

回答 4 投票 12

无法将DataFrame保存到HDF5(“对象标头消息太大”)

我在Pandas中有一个DataFrame:在[7]中:my_df Out [7]: Int64Index:34个条目,0到0列:2661个条目,飞机到动物园dtypes:float64(2659),对象(2)......

回答 4 投票 5

© www.soinside.com 2019 - 2024. All rights reserved.