第38期 GPTSecurity周報

2024年2月6日 17点热度 0人点赞

GPTSecurity是一個涵蓋了前沿學術研究和實踐經驗分享的社區,集成了生成預訓練Transformer(GPT)、人工智能生成內容(AIGC)以及大型語言模型(LLM)等安全領域應用的知識。在這裡,您可以找到關於GPT/AIGC/LLM最新的研究論文、博客文章、實用的工具和預設指令(Prompts)。現為了更好地知悉近一周的貢獻內容,現總結如下。

Security Papers

1.ChatGPT 如何解決漏洞管理問題

簡介:本文利用了包含78,445個樣本的大規模數據集,研究了ChatGPT在涉及完整漏洞管理流程的6個任務中的表現。針對每個任務,研究者將ChatGPT與SOTA方法進行了比較,分析了不同提示對其性能的影響,並探討了面臨的困難。研究結果顯示,在利用ChatGPT協助漏洞管理方面存在著巨大潛力。

鏈接:

https://arxiv.org/pdf/2311.06530.pdf

2.工業物聯網系統中預測與健康管理的基礎模型調查

簡介:工業物聯網系統(ICPS)已成為現代制造業和工業的關鍵組成部分,融合了計算機科學、通信技術和工程學等多個學科。然而,ICPS長期運行面臨著設備故障、性能下降和安全威脅等挑戰。為了有效維護和管理,預測與健康管理(PHM)在ICPS中被廣泛應用,用於故障預測、健康監測和維護決策等關鍵任務。大規模基礎模型(LFM)的出現,如BERT和GPT,代表了人工智能技術的重大進步。作為這一領域的顯著成就,ChatGPT具有通用人工智能的潛力。隨著數據采集技術和處理能力的提升,LFM在ICPS的PHM領域有望發揮關鍵作用。然而,LFM在ICPS的PHM應用尚缺乏共識,需要系統回顧和明確未來方向的路線圖。本文梳理了PHM領域基礎模型的關鍵組成和最新進展,為工業決策者和研究人員提供了寶貴的參考,同時推動ICPS可靠性、可用性和安全性的進一步提升。

鏈接:

https://arxiv.org/abs/2312.06261

3.通過人性化LLMs重新思考說服策略挑戰人工智能安全

簡介:本文提出了一種新的視角,將LLMs視為類人溝通者,探索日常語言互動與人工智能安全之間被忽視的交集。研究者針對如何說服LLMs來越獄展開了研究。首先,他們提出了一個源自幾十年社會科學研究的說服分類法。然後,他們利用該分類法自動生成了可解釋的說服對抗提示(PAP)來越獄LLMs。結果顯示,越獄性能大大提高,PAP在Llama 2-7b Chat、GPT-3.5和GPT-4上的攻擊成功率始終保持在92%以上,超過了最近的算法重點攻擊。在防禦方面,研究者探討了針對PAP的各種機制,並發現了現有防禦中的重大差距,主張對高度互動的LLMs采取更基本的緩解措施。

鏈接:

https://arxiv.org/pdf/2401.06373.pdf

4.TAT-LLM:用於表格和文本數據的離散推理的專門化語言模型

簡介:在這項工作中,研究者優化了大模型在針對表格和文本混合數據進行問題回答任務的效果。表格與文本混合數據是Web上非常常見的內容,通常需要離散推理能力。最近,像GPT-4這樣的大型語言模型(LLM)已經展示出強大的多步推理能力。研究者提出了一個抽象的分步方法來處理表格和文本混合數據的問題回答任務,該方法由三個關鍵步驟組成,包括提取器、推理器和執行器。同時還設計了一個指令來實例化該方法,並驗證了GPT-4優於所有現有方法。通過對LLaMA 2進行微調,研究者利用現有的專傢註釋數據集生成了訓練數據,開發了一個名為TAT-LLM的語言模型。實驗結果表明,TAT-LLM模型在FinQA、TAT-QA和TAT-DQA基準測試中優於所有基線模型,包括之前最好的微調模型和像GPT-4這樣的非常大規模的LLM。

鏈接:

https://arxiv.org/abs/2401.13223