研一下第五周周报
这周把之前的一些图神经网络的论文看完了,作为之后继续使用机器学习和深度学习进行漏洞挖掘的基础。针对大型语言模型(LLM)在漏洞挖掘中的应用场景,当前阶段采用Prompt Engineering与检索增强生成(Retrieval-Augmented Generation, RAG)技术更具可行性。需说明的是,受限于实验环境算力资源及训练数据规模,暂时不具备对大型语言模型进行微调(Fine-tunin
·
这周把之前的一些图神经网络的论文看完了,作为之后继续使用机器学习和深度学习进行漏洞挖掘的基础。目前对于LLM应用漏洞挖掘上,感觉还是prompt和RAG更合适一点(微调的资源目前不具备)。另外漏洞挖掘工具的环境基本配置完成。
本周研究进展汇报如下:
这周把之前的一些图神经网络的论文看完了,作为之后继续使用机器学习和深度学习进行漏洞挖掘的基础。针对大型语言模型(LLM)在漏洞挖掘中的应用场景,当前阶段采用Prompt Engineering与检索增强生成(Retrieval-Augmented Generation, RAG)技术更具可行性。需说明的是,受限于实验环境算力资源及训练数据规模,暂时不具备对大型语言模型进行微调(Fine-tuning)的条件。最后,已完成漏洞挖掘工具的本地化部署与多环境适配测试。
更多推荐
所有评论(0)