環球簡訊:清華大學黃民烈團隊:發布安全評估框架 促大模型邁向可控可信

        中國新聞網 2023-03-31 13:35:41


        (資料圖片僅供參考)

        中新網北京3月27日電 (賈君玉張素)記者近日采訪清華大學計算機科學與技術系長聘副教授黃民烈獲悉,歷時兩年多時間,由他帶領的科研團隊建立了大模型安全分類體系,并從系統層面和模型層面等打造了大模型安全框架。

        近年來,隨著技術突破,大模型獲得快速發展并在多個場景得到應用。不過,其存在的事實性錯誤、知識盲區等問題,以及面臨的訓練數據來源合規性、生成內容安全性等風險,也已受到廣泛關注。

        在黃民烈看來,要規避安全風險,降低人工智能對人類的負面影響,關鍵在于大模型底座?!按笠幠UZ言模型(LLM)發展到現在,模型結構和規模已有很大進展,但實用性還有待加強,我們應該通過技術讓模型更加安全、可控,使其快速適配更多的應用場景?!彼f。

        此次,聆心智能聯合清華大學CoAI實驗室共同發布大模型安全評估框架。作為聆心智能的創始人,黃民烈介紹說,他們希望通過對大模型應用邊界進行定義,促進大模型生態健康發展,推動人工智能研究和應用向更有用、更可信、更安全邁進。

        據知,黃民烈團隊建立的大模型安全分類體系中設定的不安全對話場景,包括犯罪違法、身體健康、心理健康、財產隱私、歧視/偏見、辱罵/仇恨言論等方面。科研人員針對這些安全場景對大模型進行升級,使之具備基本的安全性,“能夠在遇到安全問題時給予正確的回復策略,不進行判斷誤導”。

        此外,著眼于容易觸發的安全問題類型,科研團隊還總結、設計出一般模型難以處理的“安全攻擊方式”,使安全體系更加完善。

        黃民烈表示,未來,他們將打造中文大模型的安全風險評估的Leaderboard,為國內對話大模型的安全評估提供公平公開的測試平臺,并提供針對中文對話的安全場景等,“依托自身核心技術,在可控可信的超擬人大模型基礎之上,通過建立安全、可控的模型邊界,讓人工智能提供可信、可靠的輸出”。(完)

        關鍵詞:

        免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。

        上一篇:

        下一篇:

        最新推薦