相对于BERT-110M,GPT-6B以上的大模型在微调数据充足的情况下,在NLG任务方面确实有更大的提升。这是因为GPT系列模型是基于自回归语言建模的,它们在生成文本方面的能力更强。而BERT系列模型则是基于掩码语言建模的,它们在理解文本方面的能力更强。因此,在需要生成自然语言文本的任务中,GPT系列模型通常表现更好。但是,在其他任务中,BERT系列模型可能会表现更好。