汪伦, 艾斯卡尔·艾木都拉, 张华平, 耿国桐, 吕雁飞, 雷帅
[目的/意义]大语言模型在生成类文本问题上取得显著进展,为开源情报领域研究人员提供了新思路。将大语言模型应用到开源情报领域,以探索其在该领域的摘要生成能力。[方法/过程]通过构建开源情报摘要生成数据集,使用Qwen 1514B模型为基座模型,并利用LoRA技术对其进行微调训练,得到了Qwen 15OSINT模型。[结果/结论]将Qwen 15OSINT模型在开源情报摘要生成任务中与Qwen 1514B模型进行对比,结果显示,Qwen 15OSINT模型的ROUGE1指标提升了03842,ROUGE2指标提升了02021,ROUGEL指标提升了02494,BLEU指标提升了01348。经微调后的模型在多项评价指标上均超越了基座模型,展示了出色的摘要生成能力。[局限]尽管微调后的Qwen 15OSINT模型在效果上有所提升,但其依赖的高质量数据集建设仍需大量的人工投入。此外,模型的泛化能力在不同领域上可能受到限制,需要进一步的研究和探索。