中新社上海2月28日電 (記者 鄭瑩瑩)從ChatGPT到Sora,新一代人工智能在收獲大量關(guān)注的同時(shí),也引發(fā)安全擔(dān)憂。28日在滬舉辦的2024上海網(wǎng)絡(luò)安全產(chǎn)業(yè)創(chuàng)新大會(huì)上,業(yè)界人士圍繞大模型安全話題展開探討。
“大模型是一把‘雙刃劍’,它既能幫助行業(yè)解決很多問題,又會(huì)引起很多問題。”中國信通院華東分院院長廖運(yùn)發(fā)說。他表示,現(xiàn)在人工智能發(fā)展非;鸨,尤其是大模型,從ChatGPT到Sora都引起了大家的關(guān)注。
上海交通大學(xué)網(wǎng)絡(luò)空間安全學(xué)院副院長王士林認(rèn)為,可以從兩個(gè)角度看,其一,可以用大模型技術(shù)來解決行業(yè)一些安全問題,包括內(nèi)容安全等。隨著大模型能力的提升,相關(guān)領(lǐng)域的AI(人工智能)賦能水平也會(huì)隨之提升。其二,新的大模型本身會(huì)造成新的威脅,比如生成式AI生成人臉圖像,可能造成社會(huì)問題。因此,相關(guān)部門需要研究如何進(jìn)行相應(yīng)的監(jiān)管。
商湯科技信息安全委員會(huì)負(fù)責(zé)人吳友勝從一名信息安全從業(yè)者的角度分享了他看到的行業(yè)變化。據(jù)他介紹,一方面,大模型的引入讓業(yè)界可以更自動(dòng)化地處理一些流程化的工作,規(guī)避一些低級錯(cuò)誤,減少相關(guān)領(lǐng)域的安全風(fēng)險(xiǎn)。行業(yè)出現(xiàn)了AI賦能安全方面的一些好產(chǎn)品,這些產(chǎn)品涉及威脅的預(yù)測、漏洞的管理等等。
另一方面,他指出,在AI賦能安全這個(gè)方向上,路程還很遙遠(yuǎn)。這一領(lǐng)域既需要提升數(shù)據(jù)的規(guī)模與質(zhì)量、提升算力水平,也需要既懂AI又懂安全的專業(yè)人才。吳友勝認(rèn)為,在AI安全方面,風(fēng)險(xiǎn)與挑戰(zhàn)并存,業(yè)界需要在重視利用技術(shù)的同時(shí),從監(jiān)管層面更好地確!袄麆Α睘樾袠I(yè)賦能,而非給行業(yè)帶來災(zāi)難。
翼方健數(shù)技術(shù)總監(jiān)孫維東說,企業(yè)在試圖用大模型賦能自身發(fā)展的過程中,首先關(guān)注安全問題,因?yàn)楹芏嗌虡I(yè)機(jī)密和敏感數(shù)據(jù)是需要由大模型進(jìn)行處理的,而且不同行業(yè)對安全的需求也存在比較大的差異。他表示,業(yè)界還在等待大模型生態(tài)穩(wěn)定下來,等待更多安全技術(shù)涌現(xiàn)。(完)
注:請?jiān)谵D(zhuǎn)載文章內(nèi)容時(shí)務(wù)必注明出處!
編輯:王丹沁