中國新聞網(wǎng)-上海新聞
上海分社正文
從ChatGPT到Sora 業(yè)界關(guān)注大模型“利刃”如何安全出鞘
2024年02月29日 10:23   來源:中國新聞網(wǎng)  

  中新社上海2月28日電 (記者 鄭瑩瑩)從ChatGPT到Sora,新一代人工智能在收獲大量關(guān)注的同時(shí),也引發(fā)安全擔(dān)憂。28日在滬舉辦的2024上海網(wǎng)絡(luò)安全產(chǎn)業(yè)創(chuàng)新大會(huì)上,業(yè)界人士圍繞大模型安全話題展開探討。

  2月28日,2024上海網(wǎng)絡(luò)安全產(chǎn)業(yè)創(chuàng)新大會(huì)在滬舉行。圓桌論壇上,業(yè)界人士圍繞大模型安全話題展開探討!≈行律缬浾  鄭瑩瑩  攝
2月28日,2024上海網(wǎng)絡(luò)安全產(chǎn)業(yè)創(chuàng)新大會(huì)在滬舉行。圓桌論壇上,業(yè)界人士圍繞大模型安全話題展開探討。 中新社記者  鄭瑩瑩  攝

 

  “大模型是一把‘雙刃劍’,它既能幫助行業(yè)解決很多問題,又會(huì)引起很多問題。”中國信通院華東分院院長廖運(yùn)發(fā)說。他表示,現(xiàn)在人工智能發(fā)展非;鸨,尤其是大模型,從ChatGPT到Sora都引起了大家的關(guān)注。

  上海交通大學(xué)網(wǎng)絡(luò)空間安全學(xué)院副院長王士林認(rèn)為,可以從兩個(gè)角度看,其一,可以用大模型技術(shù)來解決行業(yè)一些安全問題,包括內(nèi)容安全等。隨著大模型能力的提升,相關(guān)領(lǐng)域的AI(人工智能)賦能水平也會(huì)隨之提升。其二,新的大模型本身會(huì)造成新的威脅,比如生成式AI生成人臉圖像,可能造成社會(huì)問題。因此,相關(guān)部門需要研究如何進(jìn)行相應(yīng)的監(jiān)管。

  商湯科技信息安全委員會(huì)負(fù)責(zé)人吳友勝從一名信息安全從業(yè)者的角度分享了他看到的行業(yè)變化。據(jù)他介紹,一方面,大模型的引入讓業(yè)界可以更自動(dòng)化地處理一些流程化的工作,規(guī)避一些低級錯(cuò)誤,減少相關(guān)領(lǐng)域的安全風(fēng)險(xiǎn)。行業(yè)出現(xiàn)了AI賦能安全方面的一些好產(chǎn)品,這些產(chǎn)品涉及威脅的預(yù)測、漏洞的管理等等。

  另一方面,他指出,在AI賦能安全這個(gè)方向上,路程還很遙遠(yuǎn)。這一領(lǐng)域既需要提升數(shù)據(jù)的規(guī)模與質(zhì)量、提升算力水平,也需要既懂AI又懂安全的專業(yè)人才。吳友勝認(rèn)為,在AI安全方面,風(fēng)險(xiǎn)與挑戰(zhàn)并存,業(yè)界需要在重視利用技術(shù)的同時(shí),從監(jiān)管層面更好地確!袄麆Α睘樾袠I(yè)賦能,而非給行業(yè)帶來災(zāi)難。

  翼方健數(shù)技術(shù)總監(jiān)孫維東說,企業(yè)在試圖用大模型賦能自身發(fā)展的過程中,首先關(guān)注安全問題,因?yàn)楹芏嗌虡I(yè)機(jī)密和敏感數(shù)據(jù)是需要由大模型進(jìn)行處理的,而且不同行業(yè)對安全的需求也存在比較大的差異。他表示,業(yè)界還在等待大模型生態(tài)穩(wěn)定下來,等待更多安全技術(shù)涌現(xiàn)。(完)

注:請?jiān)谵D(zhuǎn)載文章內(nèi)容時(shí)務(wù)必注明出處!   

編輯:王丹沁  

本網(wǎng)站所刊載信息,不代表中新社和中新網(wǎng)觀點(diǎn)。 刊用本網(wǎng)站稿件,務(wù)經(jīng)書面授權(quán)。
未經(jīng)授權(quán)禁止轉(zhuǎn)載、摘編、復(fù)制及建立鏡像,違者將依法追究法律責(zé)任。
常年法律顧問:上海金茂律師事務(wù)所