如何使用PRAW获取超过1k的Subreddit? (1k似乎是极限)

问题描述 投票:0回答:1

我的目标是使用PRAW在比特币上获取subreddit数据,但似乎限制为1000个subreddit。这只为我提供了前9天的数据。我如何获取更多数据(例如最近的1万或10万次子分类)?

此外,如果我使用.search函数仅包含带有“ price”的子reddit,那么我只能获得250个最新的(参见下面的代码)。

我找到了以下代码:https://github.com/eleweek/SearchingReddit/blob/master/download_whole_subreddit.py,但是由于找不到“ from crawler_utils import save_submission”模块而无法使用。

import praw
import csv

myreddit = praw.Reddit(client_id='xxxxx', client_secret='xxxxx',
                       user_agent='xxxxx')


with open('C:\\testProjectData2.csv','a') as f:
    newposts = myreddit.subreddit('Bitcoin')

    headers = ['ID', 'Date_utc', 'Upvotes', 'Number of Comments', 'Subreddit name']
    datawriter = csv.writer(f)

    datawriter.writerow(headers)

    for post in newposts.search("price", sort='new'):
        data = (post, post.created_utc, post.ups, post.num_comments, post.title)


        datawriter.writerow(data)

我的目标是使用PRAW在比特币上获取subreddit数据,但似乎限制为1000个subreddit。这只为我提供了前9天的数据。我如何获取更多数据(例如10000 ...

python reddit praw
1个回答
0
投票

您只能获得特定视图的最后1000个项目。使用Subredditsubmissions属性。

© www.soinside.com 2019 - 2024. All rights reserved.