我想用预训练的 BERT 模型进行客观性和主观性分类。
例如: 客观句:乔拜登是美国第46任总统。
主观句(正面): 我已经使用这个产品几个星期了,我对结果感到震惊。
主观句(否定): 产品没有像宣传的那样工作,我对我的购买感到非常失望。
我脑海中的主要数据集是使用Wikipedia English dumps和Amazon Product Reviews。还有一个额外的数据集,SUBJ.
为了训练/微调模型,我在考虑来自维基百科转储的句子作为客观,亚马逊评论作为主观。
问题: 这可能有效吗?有什么建议可以更好地做到这一点吗?