欧美一级亚洲视频,久久观看午夜精品,九九re热国产精品视频,国产精品视频人人做人人

大模型應用時(shí)代,如何應對幻覺(jué)、深度偽造帶來(lái)的挑戰?| 直擊WAIC 2024
來(lái)源:國際金融報作者:余繼超2024-07-05 17:42

文生文、文生圖、文生視頻模型,端側模型、開(kāi)源模型集體亮相2024世界人工智能大會(huì )暨人工智能全球治理高級別會(huì )議(簡(jiǎn)稱(chēng)“WAIC 2024”),展現大模型賦能千行百業(yè)的“模力”,人工智能(AI)大模型落地應用無(wú)疑是今年大會(huì )的核心議題。

隨著(zhù)生成式AI大模型在不同場(chǎng)景、不同產(chǎn)業(yè)中應用,模型產(chǎn)生與現實(shí)不符的響應(即“幻覺(jué)”,hallucination)也日趨普遍,深度偽造(Deepfake)也隨之興起,由此帶來(lái)的虛假內容泛濫風(fēng)險,進(jìn)一步滋生了詐騙、色情等違法犯罪活動(dòng),也讓人擔憂(yōu)。

大模型幻覺(jué)問(wèn)題已成為當下AI規模化應用的攔路虎,防范深度偽造也將是AI產(chǎn)業(yè)興盛不得不探討的話(huà)題。多位受訪(fǎng)行業(yè)專(zhuān)家指出,在實(shí)踐中可以通過(guò)引入知識圖譜、RAG(檢索增強生成,Retrieval-augmented Generation)、聯(lián)邦學(xué)習等新技術(shù),解決大模型幻覺(jué)問(wèn)題。而利用“黑盒”大模型、硬件或者光學(xué)輔助等多層次監管和治理,可以防控深度偽造的影響和危害。

大模型幻覺(jué)、深度偽造帶來(lái)風(fēng)險

有一種聲音認為,大模型產(chǎn)生幻覺(jué)是不可避免的,越來(lái)越多的案例也表明大模型出現幻覺(jué)變得普遍。美國紐約市一名律師使用ChatGPT起草了一份包含虛假信息人身傷害案件的摘要而被法院罰款。斯坦福大學(xué)和耶魯大學(xué)的研究人員在最近對三種流行的大語(yǔ)言模型(LLM)的研究預印本中發(fā)現,類(lèi)似的錯誤在人工智能生成的法律輸出中非常普遍。

幻覺(jué)是影響大模型落地的重要問(wèn)題之一,引起了人們對人工智能系統的可靠性和可信度的嚴重擔憂(yōu)。螞蟻集團CTO(首席技術(shù)官)何征宇對記者表示,“生成式AI要實(shí)現更廣泛的應用,必須克服這一點(diǎn)。任何一項技術(shù)真正落地的過(guò)程中,可靠性都必須解決。一項技術(shù)如果不可靠,那么只能是實(shí)驗室的產(chǎn)品,或是一個(gè)玩具、一個(gè)噱頭。今天的人工智能90%的時(shí)間是可靠的,但是10%的時(shí)間是不可靠的,會(huì )說(shuō)糊話(huà)、瞎話(huà)。如果不能克服,AI難以實(shí)現規模化的技術(shù)適用。”

幻覺(jué)之外,AI規模化應用的另一個(gè)挑戰是深度偽造帶來(lái)的風(fēng)險。深度偽造指的是基于深度學(xué)習算法,從大量的視頻和圖像數據中學(xué)習,偽造出逼真的面部動(dòng)畫(huà)和語(yǔ)音。隨著(zhù)深度學(xué)習技術(shù)與AIGC(生成式人工智能)在視頻和圖像生成領(lǐng)域的廣泛應用,當前生成視頻質(zhì)量越來(lái)越貼近真實(shí)視頻且以更低成本普及。

深度偽造不僅增加了公眾識別視頻真偽的難度,也進(jìn)一步滋生了詐騙、色情等違法犯罪活動(dòng)的風(fēng)險和隱患。國內外多份調研報告指出,近年來(lái)與AI相關(guān)的黑產(chǎn)活動(dòng)明顯上升。根據身份驗證提供商Sumsub最新年度報告,2022年至2023年期間,全球多國與深度偽造相關(guān)的身份欺詐案件激增,例如菲律賓的詐騙企圖數量同比增長(cháng)4500%。

據央視報道,僅在2022年,美國就發(fā)生了240萬(wàn)起人工智能相關(guān)詐騙案。此外,利用虛擬或合成身份盜用或注冊他人賬號騙取養老金、騙取人壽保險等潛在風(fēng)險極大。

信也科技副總裁、大數據及AI負責人陳磊在接受記者專(zhuān)訪(fǎng)時(shí)表示,隨著(zhù)大模型的應用,可能存在隱私泄露和輸出答案不正確的問(wèn)題。具體到金融領(lǐng)域,對用戶(hù)信息保護和資質(zhì)評估都會(huì )帶來(lái)挑戰。此外,大模型還被用在不合適的場(chǎng)景,比如深度偽造,隨著(zhù)大模型生成能力不斷增強,生成出來(lái)的音視頻可以以假亂真,讓人難以辨別真偽。

以虛假語(yǔ)音為例,陳磊說(shuō),大模型能夠生成多種虛假語(yǔ)音,這些虛假語(yǔ)音更真實(shí)、擬人,對話(huà)流暢,為虛假語(yǔ)音識別帶來(lái)更大的挑戰。尤其在金融科技領(lǐng)域,犯罪分子可以通過(guò)合成語(yǔ)音冒用他人身份牟利,給用戶(hù)和機構造成巨額損失。目前語(yǔ)音鑒偽技術(shù)的發(fā)展滯后于語(yǔ)音合成技術(shù)。這是因為聲音是一維的連續信號,同時(shí)包含了口音、語(yǔ)調、方言等多種個(gè)人特征信息,語(yǔ)音處理也易受外界干擾。虛假語(yǔ)音的分析處理比二維圖像更復雜、門(mén)檻更高,使得業(yè)界對語(yǔ)音鑒偽的關(guān)注度較低。

此外,小雨點(diǎn)集團首席技術(shù)官許慎在接受記者采訪(fǎng)時(shí)指出,現在大模型的應用行業(yè)主要集中在“會(huì )說(shuō)會(huì )寫(xiě)”的內容生成方面,金融行業(yè)需要大模型具備“會(huì )看會(huì )聽(tīng)”的能力,這是我們應用大模型的主要發(fā)力領(lǐng)域。數據的安全、隱私的安全,是當前真正需要迫切去解決的問(wèn)題。如果這些問(wèn)題解決不好,會(huì )非常影響大模型和AI技術(shù)的使用規模。

用AI監督AI 加強協(xié)同治理

如何避免大模型出現幻覺(jué),如何治理深度偽造問(wèn)題?記者在今年大會(huì )現場(chǎng)找到了一些解決方案,螞蟻展臺展示了“多模態(tài)AI鑒真”互動(dòng)產(chǎn)品,該產(chǎn)品具有AIGC檢測和證照深度合成檢測兩大能力。觀(guān)眾可選擇證照、音頻、視頻等多樣化素材,該互動(dòng)會(huì )先對這些素材做一番偽造模擬生成。之后,該產(chǎn)品能對上述偽造的素材快速進(jìn)行精準鑒別,并形成檢測報告。

在“諜影重重”互動(dòng)裝置前,觀(guān)眾還可用一場(chǎng)情景劇的方式打開(kāi)深度偽造的攻防“魔盒”。首先,用戶(hù)在該裝置上傳一張照片,可通過(guò)AI換臉合成一張新的人臉照片。下一步,可使用合成后的照片甚至視頻去刷臉,該互動(dòng)能夠鑒別出該照片或者視頻是否是AI合成,進(jìn)而阻止風(fēng)險行動(dòng)。

“深度偽造的攻和防是一個(gè)相對且不斷精進(jìn)的過(guò)程,你在進(jìn)步,深度偽造也在進(jìn)步,我們要做的就是跑在它的前面”。螞蟻展臺工作人員告訴記者,在真實(shí)的生產(chǎn)場(chǎng)景,“蟻天鑒”AI鑒真解決方案支持多模態(tài)內容真實(shí)性和深度偽造檢測,防范深度合成技術(shù)濫用風(fēng)險,圖像識別準確率達99.9%。

陳磊建議,首先,個(gè)人層面要謹慎分享個(gè)人照片、視頻等,減少被用于制作深度偽造內容的風(fēng)險。其次,對重要信息通過(guò)多個(gè)渠道交叉驗證,不輕信單一來(lái)源。第三,技術(shù)層面看,有幾個(gè)層次,一是在調用開(kāi)源模型時(shí)自動(dòng)生成“AI生成”的標記;二是用“黑盒”大模型對抗AI深度偽造,建立異常回收和共治生態(tài);三是通過(guò)硬件層面和流程機制實(shí)現識別和防控,現在在活體識別中有“炫彩”功能,利用硬件或者光學(xué)輔助來(lái)制造識別環(huán)境中的擾動(dòng)因素,以此來(lái)判定是否是真實(shí)人臉。

至于大模型幻覺(jué)問(wèn)題,何征宇認為,這是由于當下技術(shù)不夠成熟,技術(shù)是演進(jìn)的,就像無(wú)人駕駛和新能源車(chē)的發(fā)展。隨著(zhù)技術(shù)的發(fā)展,這些問(wèn)題會(huì )逐步解決。大模型本質(zhì)上是概率問(wèn)題,在實(shí)踐中可以通過(guò)引入知識圖譜、RAG(檢索增強生成)等新技術(shù),將輸入和輸出的知識框起來(lái),可以解決大模型幻覺(jué)這類(lèi)問(wèn)題。

許慎指出,有關(guān)對待大模型應用中的幻覺(jué)問(wèn)題,現階段一大思路是模型應用上要明確責任主體,責權一旦分清楚,相應的監管框架規范清晰以后,自然而然能緩解和控制幻覺(jué)出現的影響和風(fēng)險。當然,在技術(shù)層面要盡可能降低大模型出現幻覺(jué)的可能,除了模型技術(shù)本身,這背后也與數據的質(zhì)和量息息相關(guān)。只有數據的數量和質(zhì)量達到一定水平后,用得越多,用得越深入,才能積累更多高質(zhì)量的數據,從而逐步降低大模型出現幻覺(jué)的概率,形成良性正反饋循環(huán)。

“聯(lián)邦大模型技術(shù)路線(xiàn)通過(guò)其獨特的設計,不僅解決了數據時(shí)效性、模型幻覺(jué)、專(zhuān)業(yè)知識融合及算力資源消耗等挑戰,而且在保護數據隱私和促進(jìn)AI技術(shù)公平性方面邁出了重要一步,為大模型在各領(lǐng)域的廣泛應用開(kāi)辟了新的可能。”微眾銀行人工智能首席科學(xué)家范力欣表示。

馬上消費人工智能研究院院長(cháng)陸全對記者表示,AI原生(AI Native)與風(fēng)險伴生,技術(shù)發(fā)展和治理并非孤立存在的兩個(gè)方面,而是一個(gè)整體系統中的不同維度,覆蓋全生命周期。多智能體的AI治理路線(xiàn)提倡建立一個(gè)面向即時(shí)消費場(chǎng)景的治理框架,強調多智能體系統在A(yíng)I治理中的重要性。這種框架支持不同智能體之間的協(xié)作與協(xié)調,實(shí)現更加高效和精準的AI治理。

陸全倡導構建一個(gè)開(kāi)放的生態(tài)系統,鼓勵多方參與,包括政府、企業(yè)、學(xué)術(shù)界和公眾等,共同參與AI治理。這種新模式強調協(xié)同合作,通過(guò)共享資源和知識,實(shí)現更廣泛的AI治理目標。

記者/攝影:余繼超

責任編輯: 高蕊琦
聲明:證券時(shí)報力求信息真實(shí)、準確,文章提及內容僅供參考,不構成實(shí)質(zhì)性投資建議,據此操作風(fēng)險自擔
下載“證券時(shí)報”官方APP,或關(guān)注官方微信公眾號,即可隨時(shí)了解股市動(dòng)態(tài),洞察政策信息,把握財富機會(huì )。
網(wǎng)友評論
登錄后可以發(fā)言
發(fā)送
網(wǎng)友評論僅供其表達個(gè)人看法,并不表明證券時(shí)報立場(chǎng)
暫無(wú)評論
為你推薦
時(shí)報熱榜
換一換
    熱點(diǎn)視頻
    換一換