在大模型微调中,关于预训练模型的描述正确的是()。
A.预训练大模型包含后续模型的初始权重
B.预训练大模型可以作为微调模型的基础模型
C.预训练大模型的参数固定不变
D.预训练大模型使用的预训练数据泛化性较强
A.预训练大模型包含后续模型的初始权重
B.预训练大模型可以作为微调模型的基础模型
C.预训练大模型的参数固定不变
D.预训练大模型使用的预训练数据泛化性较强
A.将预训练好的模型读入内存
B.把模型优化为中间表示形式(IR)
C.中间文件包括描述网络结构的、模型权重和偏置都存储在.xml文件中
D.用户可以调用模型的接口
A.当新的数据量少且数据与原数据集类似,可以对输出层训练即可,不需要对模型参数做过多的调整。
B.使用预训练模型意味着难以自由改变网络结构和参数,限制了其应用场合。
C.当新数据量比较大,且数据与原数据类似,可对预训练模型的所有层以较大的学习率微调。
D.当新数据量少,且数据和原数据集差异较大,那么除了对输出层微调外,还要对顶层以下的层数进行大调。
A.预先训练的模型输入模型优化器后会简化
B.把预训练的模型转化为中间文件
C.预训练的模型可以不经过模型优化器直接由推理引擎高效执行
D.模型优化器会修改预训练模型的结构、权重和偏置
A.如果能保证训练数据的质量,那么往往比挑选或者设计模型的收益更大。
B.对于图像分类问题而言,如果类别数远远超过类别样本数,那么通常的方法可能效果不好,需要对数据进行增强。
C.在预训练的模型基础上,采用微调(fine-tune)的方法对少量的新样本训练往往比从头训练效果差,但训练的速度快。
D.在预训练的模型进行微调时,一般预先对顶层的参数进行调整,这是因为与底层比较,顶层获得的特征是更通用的特征。
A.用新样本重新训练整个模型
B.只训练最后几层神经元
C.随机选几层进行训练
D.只训练最后一层,其余层网络参数冻结
A.每一次Epoch都会对之前的参数进行调整,迭代次数越多,损失函数一般越小
B.训练好的神经网络模型存储于一定结构的神经元之间的权重和神经元的偏置中
C.在训练神经网络过程中,参数不断调整,其调整的依据是基于损失函数不断减少
D.模型参数量越多越好,但没有固定的对应规则
为了保护您的账号安全,请在“简答题”公众号进行验证,点击“官网服务”-“账号验证”后输入验证码“”完成验证,验证成功后方可继续查看答案!