博鰲時間|AI熱潮涌動,安全、治理難題如何破局?
文/張文暉
身高一米六九的“大個子”機器人,中英文交流輕松應(yīng)對,方言也能秒識別。
以熊貓為造型的機器人有著多種AI元素加身,自由度和運動控制能力超強。打太極、做瑜伽、寫字畫畫,這些高難度動作對它來說都是小意思。
還有會倒立的機器狗、能教孩子們編程學(xué)習(xí)的教育陪伴機器人……
在博鰲亞洲論壇2025年年會上, AI元素?zé)o處不在。除了酷炫的科技展示,關(guān)于人工智能的話題也在火熱討論中。
AI發(fā)展與安全并非相互掣肘
3月26日,2025年博鰲亞洲論壇年會期間,中國科學(xué)院自動化研究所研究員、聯(lián)合國人工智能高層顧問機構(gòu)專家曾毅指出,人工智能發(fā)展存在符號主義和連接主義兩個渠道,過去二者未能完全融合,但如今基于生物智能神經(jīng)網(wǎng)絡(luò)的推理,已能將推理能力與人工智能網(wǎng)絡(luò)的表征編碼深度融合。從工程化應(yīng)用角度看,符號和連接這兩個科學(xué)途徑在工程應(yīng)用上深度融合的機遇已經(jīng)到來。
關(guān)于人工智能發(fā)展應(yīng)用和安全的關(guān)系,曾毅明確表示二者不是相互掣肘的。OpenAI和DEEPSEEK系列的模型不僅表現(xiàn)出色,安全屬性也最佳。他強調(diào),模型能力提升并不意味著安全能力自然變好,國內(nèi)一些大模型在認(rèn)知問題求解能力上與GPT系列處于同一水平,但倫理框架仍有提升空間。
曾毅團(tuán)隊的新研究表明,提升人工智能大模型的安全能力,對其求解能力的影響幾乎可以忽略。他們通過對十幾個人工智能大模型的實驗,將安全能力提升百分之二三十,同時保證了模型的問題求解能力不受損,相關(guān)工作已發(fā)表在今年人工智能機器學(xué)習(xí)的頂會上。這意味著可以在不影響人工智能發(fā)展的前提下,使其更加安全。
AI治理:落地與實踐刻不容緩
中國社會科學(xué)院大學(xué)教授、國務(wù)院原副秘書長江小涓對AI治理進(jìn)展緩慢表示遺憾。從十年前的阿西洛馬人工智能原則到如今,雖然相關(guān)原則不斷被討論,但落地情況卻不盡人意。她認(rèn)為,應(yīng)將問題細(xì)化為可落地的方向推進(jìn)。
在江小涓看來,判斷一項技術(shù)是否可接受有兩個標(biāo)準(zhǔn):一是能否提高生產(chǎn)力、創(chuàng)造更多財富;二是發(fā)展成果能否公平分享。從這兩個標(biāo)準(zhǔn)衡量,AI雖能提高勞動生產(chǎn)率,但在成果分享方面還存在疑問,如就業(yè)沖擊和分配公平問題。她建議制定新的社會保障政策,而非重復(fù)無法落地的原則。
同時,江小涓肯定了DeepSeek在推動AI產(chǎn)業(yè)競爭方面的作用,認(rèn)為其使AI產(chǎn)業(yè)從壟斷走向競爭,市場的競爭機制將自發(fā)解決許多問題。
全球AI均衡發(fā)展與治理路徑探索
在AI均衡發(fā)展方面,專家們也發(fā)表了各自的見解。關(guān)于如何保證所有人獲取AI帶來的益處,有專家提出從縱向和橫向兩個維度考慮,縱向發(fā)展中美國、中國、歐洲等國家和地區(qū)可能領(lǐng)先,但在橫向發(fā)展中,應(yīng)考慮均衡主義、公平以及所有人的市場,落后國家有望通過AI實現(xiàn)追趕。
在治理方面,有專家認(rèn)為AI治理需要定義紅線和邊界,技術(shù)可以解決可控性和可信度問題,還需要建立可量化的AI原則和參數(shù)體系,考慮不同的原則和規(guī)則。OECD在這方面已經(jīng)做出努力,提出可信的、以人為中心的AI原則,并建立觀察組織。此外,公共部門和私營部門應(yīng)加強合作,充分考慮用戶需求,讓人們在享受AI帶來的好處時,自身也能不斷提升。


國是直通車精選:
- 2025年04月13日 20:16:58
- 2025年04月13日 20:01:57
- 2025年04月13日 20:00:49
- 2025年04月10日 14:34:21
- 2025年04月10日 14:33:37