5月22日下午,由騰訊研究院和新加坡管理大學數字法研究中心(SMU Centre for Digital Law)聯合主辦的AI與社會研討會——“生成式 AI 進展:應用、治理與社會影響”,在新加坡管理大學順利召開。近百名來自中國和新加坡的業(yè)界、學界專家參加了會議,圍繞生成式AI的技術趨勢、產業(yè)應用、監(jiān)管治理、社會倫理等議題展開分享與討論,為構建開放共享、健康可持續(xù)的AI發(fā)展生態(tài)和AI社會探尋對策思路。
騰訊集團高級副總裁郭凱天代表主辦方作歡迎致辭,他提出,AI不僅是一次技術革命,更是一場關于人類、社會與智能之間關系的深刻變革。我們正站在一個技術飛躍的關鍵節(jié)點,大模型技術的快速演進正推動人工智能從“會認知”邁向“會行動”,成為人類真正的智能伙伴,并深刻重塑著社會結構與價值體系。
騰訊集團高級副總裁郭凱天致辭
郭凱天認為,AI應當尊重人類作為價值源頭的獨特性,AI的真正價值不在于“看起來多酷”,而在于“用起來多好用、多可靠”,為此,騰訊高度重視開源透明的技術生態(tài),倡導開放、參與、監(jiān)督并行的治理模式,推動建立AI時代的信任基礎。他也表示,AI文明的篇章才剛剛開啟,騰訊愿與各方攜手,共同塑造一個技術與人文并重、開放包容的未來。
生成式AI加速發(fā)展,治理需同步演進
會議上半場圍繞“生成式AI的行業(yè)應用趨勢”展開。在主旨演講中,新加坡國立大學人工智能研究所所長Mohan Kankanhalli教授以《生成式人工智能的問題與機遇》為題,指出當前生成式AI主要涵蓋三大技術路徑:大語言模型(LLMs)、視覺語言模型(VLMs)以及擴散模型(Diffusion Models)。其中,擴散模型憑借出色的生成質量,在圖像、音頻等多模態(tài)生成領域取得了突破性成果,展現出廣泛的應用前景。他認為,盡管生成式AI展現出強大潛力,但仍面臨幻覺現象、缺乏精細控制和真實知識整合等技術難題,同時也引發(fā)了隱私泄露、版權爭議、公平性缺失與虛假信息傳播等社會風險。他強調,未來需在保障模型能力的同時,加強數據治理與責任機制,推動生成式AI在創(chuàng)意產業(yè)、教育與就業(yè)等領域的可持續(xù)發(fā)展。
Mohan Kankanhalli教授發(fā)表主旨演講
隨后,騰訊光子工作室群高級研究員柳天馳博士帶來題為《語音領域生成式AI的進展與應對》的主題分享。柳博士系統(tǒng)介紹了語音生成技術(TTS)以及大模型賦能下在表達力與控制力方面的技術革新,展示了AI語音在音色、情感、語氣、風格、方言控制等方面的最新進展。針對語音深度偽造(Deepfake)所帶來的身份偽造與虛假信息傳播等潛在安全風險,他還分享了音頻水印、AI偽音檢測等前沿技術的應用路徑。
柳天馳博士進行主題分享
騰訊研究院資深專家、創(chuàng)新研究中心主任袁曉輝、新加坡管理大學Aptos Move講席教授、計算機與信息系統(tǒng)學院副院長朱飛達教授,ABCDE風投機構聯合創(chuàng)始人Bman,WIZ.AI董事長兼聯合創(chuàng)始人陸劍鋒也展開了AI行業(yè)應用趨勢專題討論。
AI行業(yè)應用趨勢專題討論
朱飛達教授強調生成式AI的“組合性”(composability)和“協(xié)作性”是未來數字經濟的重要特征。他指出,當前開源生態(tài)系統(tǒng)的快速崛起,大幅降低了生成式AI的使用門檻,使得企業(yè)能夠基于本地數據構建透明可控的系統(tǒng),助力實現數據主權與AI主權。他分享了在個性化學習系統(tǒng)項目中的經驗,強調通過任務分解和傳統(tǒng)算法結合,可顯著提升模型準確性,并指出在DeFi等領域,無人值守的鏈上AI Agent已經展現出實際應用價值。他特別關注AI與Web3的結合,提出“協(xié)作智能+代幣化經濟”是Web3的本質,也是AI產業(yè)化與治理的重要方向。
作為投資人兼連續(xù)創(chuàng)業(yè)者,Bman分享了他對“超級個體”時代的觀察,并高度評價DeepSeek等開源模型所釋放的開發(fā)潛力。他提出AI Agent將成為下一代互聯網的重要參與者,預見未來將出現“Agent社會”,Agent不僅可獨立完成任務,甚至可擁有身份、財產與交易能力。他還指出當前許多創(chuàng)業(yè)公司僅是“大模型套殼”,缺乏護城河,因此建議初創(chuàng)企業(yè)盡快建立用戶網絡效應與商業(yè)模式壁壘。此外,他表達了對“多Agent經濟”模式的期待,認為未來應通過標準協(xié)議實現Agent之間的互聯協(xié)同,構建真正的Agent基礎設施與生態(tài)系統(tǒng)。
陸劍鋒以WIZ.AI的語音代理產品為例,探討了AI Agent在實際商業(yè)場景中的可行性與限制。他認為Agent的關鍵在于是否能夠“全自動”完成任務,而在語音領域,響應速度與幻覺控制是當前亟需攻克的挑戰(zhàn)。他提出“用戶場景優(yōu)先”的創(chuàng)業(yè)邏輯,即圍繞明確的客戶需求構建產品,并通過積累高質量數據與定制化知識完成差異化競爭。他還指出,未來企業(yè)內部的組織協(xié)作也將因AI Agent的引入而發(fā)生重構,例如客服、HR等職能將同時面向人類與智能體,推動“人機共事”成為企業(yè)常態(tài)。
研討主持人袁曉輝也提出了“AI是否正在引發(fā)流程重構”的問題。她總結指出,當前生成式AI正從“工具化”走向“系統(tǒng)化”,企業(yè)已開始將Agent嵌入到工作流中,重新思考人機協(xié)作的邊界。她提出,盡管AI Agent尚難做到百分百精準,但現階段的“人機共創(chuàng)”已足以顯著提升業(yè)務效率,重要的是在技術演進的同時同步推進治理、安全與社會可接受性。
全球視野下的AI治理呼聲
會議的下半場圍繞“生成式AI的治理與社會影響”展開。新加坡國立大學大衛(wèi)·馬歇爾講席教授、副教務長(教育創(chuàng)新)陳西文(Simon Chesterman)作了題為《人工智能治理的悲劇》的主旨演講。他在演講中指出,盡管圍繞人工智能(AI)已經出現了大量倫理框架、指導方針和監(jiān)管討論,但真正有效的治理依然難以實現。主要阻礙因素在于:其一,AI的開發(fā)和部署越來越多地由私營公司主導,這些公司有動力去不斷開發(fā)和部署更強大的模型,但缺乏治理意愿;其二,多數政府不愿對AI實施嚴格監(jiān)管,擔心這樣會抑制創(chuàng)新、阻礙競爭優(yōu)勢或使人才和投資流向監(jiān)管更寬松的地區(qū);其三,歷史上,國際合作機制(如國聯、聯合國、國際原子能機構)多是在危機中建立和推進的,但在AI領域,目前尚未出現足夠明確和緊迫的全球性危機,因此缺乏推動國際治理協(xié)調的“臨界點”。因此,如果不解決AI治理中權力與利益的錯配問題,社會就有可能在真正建立有效監(jiān)管機制之前,先經歷一場重大危機。此外,他還強調,治理應關注如何讓技術決策保持靈活和可逆。
陳西文發(fā)表主旨演講
新加坡德尊律師事務所董事、新加坡管理大學數字法研究中心行業(yè)研究員Cheryl Seah作了題為《生成式人工智能:實踐視角》的主題分享。她指出,在人工智能治理中,始終存在這樣一種緊張關系:即便法律上“可以”做某事,是否“應該”去做仍值得深思。因此,許多AI治理框架的目標是引導組織在開發(fā)和使用AI解決方案時,做出能夠建立用戶信任的選擇。這些AI治理框架和相關資料有助于組織了解在開發(fā)和使用AI解決方案過程中可能面臨的風險,并在與第三方開發(fā)者或用戶簽訂合同時(視情況而定)合理分配這些風險,同時在其AI使用政策中進行有效管理。到了2025年,一個新趨勢是多個AI合同示范條款的發(fā)布——雖然這些條款主要由公共部門針對公共部門用戶制定,但對于私營部門組織而言,這些條款同樣具有參考價值。
Cheryl Seah進行主題分享
在隨后由新加坡管理大學數字法研究中心副主任Liu Han-Wei主持的圓桌討論中,新加坡社科大學法學院講師、教務長講座教授Alexander Joseph Woon Wei-Ming,新加坡國立大學科技、機器人、人工智能與法律中心(TRAIL)創(chuàng)始人兼聯席主任 Daniel Seng,新加坡管理大學楊邦孝法學院數字法研究中心高級研究員Josh Lee Kok Thong,騰訊研究院高級研究員曹建峰博士,圍繞生成式AI的治理挑戰(zhàn)進行了研討。
“生成式AI的治理挑戰(zhàn)”主題研討嘉賓合影
Alexander教授指出,當前AI治理面臨三大挑戰(zhàn):其一,無知與冷漠區(qū)別,治理框架雖可幫助那些“想負責地使用AI但不知道怎么做”的人(即無知者),但卻難以約束那些“不在乎對錯、只求逐利”的人(即“冷漠者”);其二,規(guī)范性差距與執(zhí)法差距,鑒于網絡危害具有全球化特征,而執(zhí)法卻受限于屬地原則,這使得規(guī)范性工具在實際效果上存在重大局限;其三,應對網絡傷害的供給端與需求端策略,當前應對網絡傷害多聚焦供給端(如平臺與不良行為者),意在減少“壞事”的發(fā)生,卻忽視了“需求端”應對策略,即增強網絡傷害的潛在受害者自身的抵抗力。未來治理應注重培育公眾網絡安全意識,通過行為引導和設計干預,構建更具韌性的數字文化。
Daniel教授指出,AI領域需要適當監(jiān)管來規(guī)范發(fā)展,而非阻礙創(chuàng)新,因為法律是防范AI濫用和惡用的必要工具;因此對AI濫用、誤用進行風險評估是正確的做法。在應對如“深度偽造”圖像和非自愿冒名等問題時,法律應聚焦行為本質而非技術手段,采用技術中立的方式進行規(guī)制,才能夠適應技術變革并長期有效。此外,他呼吁關注大型語言模型的壟斷問題,倡導提升語言和文化的多樣性與代表性,認為中文大模型的發(fā)展將有助于平衡全球AI生態(tài),為不同語言文化背景的應用創(chuàng)造更多機會。
Josh教授指出,當前國際人工智能治理面臨諸多挑戰(zhàn),其中最突出的是“監(jiān)管互操作性”問題。因為人工智能的監(jiān)管體系仍在不斷發(fā)展之中,即便已有初步成形,也表現出顯著不同的路徑選擇。盡管如此,所有人工智能監(jiān)管體系的共同目標,都是在鼓勵創(chuàng)新的同時建立足夠的風險防范機制。為實現這一目標,監(jiān)管體系可以采取靈活創(chuàng)新的精神——在技術不斷發(fā)展的過程中持續(xù)更新監(jiān)管框架并提供指導,并傾向于促進技術的采用,從而通過更廣泛的應用和理解,逐步建立起公眾對人工智能技術的信任。
曹建峰博士指出,AI技術應用帶來的自主決策(決策讓渡)、情感替代、人類增強現象,可能帶來新的挑戰(zhàn)。因此人們不僅需要關注AI決策的幻覺、偏見、出錯、不對齊等問題;還需要重視AI陪伴等情感類AI應用對人際、人機關系的影響,防止AI削弱真實的人類聯系;更需要考慮在利用生成式AI提高效率和生產力的同時,如何避免過度依賴AI工具可能給人類個體自身思維能力造成“短路”,而是通過在教育和工作中的恰當使用增強人的創(chuàng)造力,真正實現以人為本和智能為人。此外,AI技術快速發(fā)展變化,這要求建立更具適應性、敏捷性的治理機制,不僅依賴監(jiān)管等外部機制,更重視通過價值對齊、安全護欄等模型內部機制,打造安全、有用、無害、可靠的AI助手。
構建以人為本的AI協(xié)作未來
會議最后,騰訊研究院院長司曉、新加坡管理大學數字法研究中心副主任Liu Han-Wei代表主辦方進行總結發(fā)言。司曉院長在發(fā)言中分享了對當前AI發(fā)展的三點觀察:首先,AI正加速邁向通用人工智能(AGI),驅動新一輪經濟與社會結構的深刻變革,企業(yè)正在從“用電量”“用云量”邁向以“token用量”衡量智能化程度的新階段,預示“智力即服務”時代的來臨。他也呼吁社會各界共同推進AI治理與社會責任,一方面要通過跨學科、跨領域合作前瞻性地思考和妥善應對AI技術的社會影響,同時也需要前瞻想象、規(guī)劃積極的AI愿景,來凝聚發(fā)展共識,引導技術向善發(fā)展,從而確保AI發(fā)展植根于人性、倫理與責任之中,讓AI真正成為我們共建美好未來的力量,而不是風險的源頭。
騰訊研究院院長司曉致辭
Han-Wei教授在總結發(fā)言中感謝各位嘉賓與聽眾的積極參與,認為這次會議對生成式AI及其社會影響以及未來國際治理的討論是富有成效的,涵蓋了deepfake、AI agent、AI偏見等諸多議題。他指出,SMU數字法研究中心一直關注數字經濟與數字社會的前沿議題,跟業(yè)界伙伴一起組織了很多活動和研討,這次跟騰訊研究院合作組織這次會議進一步加深了這種合作,期待未來加強合作交流。
Liu Han-Wei致閉幕辭
(央廣網)
本文鏈接:http://m.enbeike.cn/news-1-48131-0.html共建可信AI,共治智能未來 “生成式 AI 進展:應用、治理與社會影響”研討會成功舉辦
聲明:本網頁內容旨在傳播知識,不代表本站觀點,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。
點擊右上角微信好友
朋友圈
點擊瀏覽器下方“”分享微信好友Safari瀏覽器請點擊“
”按鈕
點擊右上角QQ
點擊瀏覽器下方“”分享QQ好友Safari瀏覽器請點擊“
”按鈕