3月30日,一封發(fā)布自安全機構生命未來研究所的聯名信讓人們意識到,技術成果日新月異的背后,對人工智能潛在風險和危害的擔憂也在與日俱增?!白屛覀兿硎芤粋€漫長的 AI 夏天,而不是毫無準備地沖入秋天?!甭撁乓源藶榻Y尾,呼吁暫停相關AI研究,直到各方協商后制定出相關安全協議。
風口浪尖之上,近日,英國政府發(fā)布了針對人工智能產業(yè)監(jiān)管的白皮書(下稱“白皮書”)。
【資料圖】
白皮書提出了監(jiān)管人工智能的新方法,并概述了監(jiān)管機構應考慮的5條明確原則,即安全性和穩(wěn)健性、透明度和可解釋性、公平性、問責制和管理,以及可競爭性和補救性。
受訪專家指出,在白皮書提出的五項原則中,透明度和可解釋性作為人工智能技術研究和應用的基礎,需要得到特別重視。此外,白皮書提出的在現有法律框架下對人工智能治理的思路,以及可信人工智能、監(jiān)管沙盒等舉措,能夠在防范潛在風險的同時促進產業(yè)發(fā)展,對我國未來的人工智能治理有一定借鑒意義。
AI治理的五個原則
“人工智能不再是科幻小說中的東西,其發(fā)展驚人,我們需要有新的規(guī)則來確保它安全地發(fā)展?!庇茖W、創(chuàng)新和技術部(DSIT)部長表示。
在白皮書中,DSIT概述了針對ChatGPT等人工智能治理的五項原則,分別是:安全性和穩(wěn)健性、透明度和可解釋性、公平性、問責制和管理,以及可競爭性和補救性。
具體而言,安全性和穩(wěn)健性指人工智能應用應當以安全和穩(wěn)健的方式運行,并持續(xù)識別、評估和管理風險,監(jiān)管機構可采取舉措確保人工智能系統(tǒng)整個生命周期按預期可靠運行;透明度和可解釋性指開發(fā)和部署人工智能的組織應該能夠溝通何時以及如何使用它,并以適當的詳細程度解釋系統(tǒng)的決策過程,以匹配使用人工智能帶來的風險;公平性指人工智能的使用方式應符合英國現行法律,例如《2010年平等法》或英國GDPR,不得歧視個人或創(chuàng)造不公平的商業(yè)結果;可競爭性和補救性則指需要有明確的途徑來質疑人工智能產生的有害結果或決定。
“透明度和可解釋性是技術發(fā)展的關鍵要素,也是人工智能保證可信任度的基礎?!北本煼洞髮W法學院博士生導師、中國互聯網協會研究中心副主任吳沈括解釋道,也因此,其他原則的貫徹實施都以透明度和可解釋性為基礎。“這也是目前人工智能產業(yè)中各參與主體特別關注并投入資源建設的重點區(qū)域?!彼f。
白皮書顯示,英國政府將避免可能扼殺創(chuàng)新的嚴厲立法,并采取適應性強的方法來監(jiān)管人工智能。英國計劃在其人權、健康和安全以及競爭監(jiān)管機構之間分配管理人工智能的責任,而不是創(chuàng)建一個專門負責該技術的新機構。
在吳沈括看來,人工智能治理的相關問題和目前現行的法律制度之間存在一定的邏輯關聯和事實匹配,因此,現行法律仍能治理人工智能技術的相關問題。
不過他也指出,技術發(fā)展過程中出現的算法透明度、人工智能倫理等問題是最初法律制定過程當中難以預見的?!耙虼宋艺J為,適時研判并引入專項人工智能法律規(guī)則有其必要性?!彼硎?。
據了解,在接下來的12個月里,英國監(jiān)管機構將向人工智能公司發(fā)布實用指南,以及其他工具和資源,如風險評估模板,以闡明如何在其行業(yè)中實施這些原則。在議會時間允許的情況下,可以引入立法,以確保監(jiān)管機構始終如一地考慮這些原則。
失控和剎車?
耐人尋味的是,白皮書推出的時間點,正值ChatGPT等高級AI技術遭受質疑的風口浪尖。
就在白皮書發(fā)布前不久,著名安全機構生命未來研究所( Future of Life Institute , FLI )呼吁全球所有研究機構暫停訓練比 GPT-4 更強的系統(tǒng)至少六個月,理由是這種系統(tǒng)對社會和人類構成潛在風險;同時,要求在這六個月中來制訂和 AI 相關的安全協議,其中就包括如何監(jiān)管 AI 輸出的內容,還有如何把 AI 創(chuàng)造出的內容和真實的內容區(qū)分開來。
圖靈獎得主Yoshua Bengio、馬斯克、蘋果聯合創(chuàng)始人Steve Wozniak、Stability AI 創(chuàng)始人Emad Mostaque等上千名科技大佬和AI專家已經簽署公開信。甚至OpenAI CEO Sam Altman的名字一度也出現在公開信上,盡管不久之后便無端消失。
這封信在產業(yè)界掀起了軒然大波。 對外經濟貿易大學數字經濟與法律創(chuàng)新研究中心執(zhí)行主任張欣認為,這封聯名信及其呼吁反映了科技從業(yè)者、技術社群、社會公眾以及監(jiān)管機構對于人工智能的技術信任焦慮?!霸诩夹g展現其強大力量和極高發(fā)展速度的情況下,規(guī)則缺位帶來的人工智能技術的種種不確定性將會影響人們對這一技術的信任。”
此次英國發(fā)布的人工智能產業(yè)監(jiān)管白皮書所搭建的監(jiān)管體系,能否有效讓存在“失控”風險的AI“懸崖勒馬”,在一定程度上提振行業(yè)的發(fā)展信心?
吳沈括表示,英國對新興產業(yè),如數字經濟等的監(jiān)管展現出實用主義色彩。其監(jiān)管主要目的是增強英國市場的吸引力和活力,推動本國產業(yè)的發(fā)展,因此也更具產業(yè)友好性。
“此次產業(yè)白皮書的發(fā)布,將進一步提升監(jiān)管框架的確定性、明確性,有利于增強該國甚至外國投資者的信心?!彼f。
據媒體報道,英國在近日宣布將投資9億英鎊(約合人民幣 75.06億元)來打造百億億級(exascale)超級計算機。這樣的超級計算機將被用于創(chuàng)建類似于ChatGPT的語言模型,并暫時命名為“BritGPT”。英國政府認為“BritGPT”將為英國在人工智能領域發(fā)展帶來新的機遇。
可信AI、監(jiān)管沙盒等舉措助力我國產業(yè)發(fā)展
雖然人工智能并非近幾年才出現的新概念,但該市場目前正處在起步發(fā)展階段,而我國、乃至全世界對應的規(guī)則、監(jiān)管機構還在逐步建構和明確。英國此次公布的監(jiān)管舉措及整體框架對我國未來的人工智能治理有一定的借鑒意義。
人工智能技術是否值得信任,是橫亙在技術的理論和實際應用間的重要問題。英國政府在白皮書中宣布將提供相關技術和技術標準保障可信人工智能的落地,具體舉措包括提供保證技術工具箱衡量研發(fā)流程中的可信度,計劃分類分層擬定技術標準等。
“未來,可信人工智能仍然是各國在人工智能監(jiān)管工作中的重點?!睆埿乐赋?,只有技術被確保可信,人工智能技術的研發(fā)和產業(yè)應用才能放心邁開腳步。
近年來,人工智能領域內可信人工智能的研究與應用步伐都在加快。中國信通院數據顯示,截至2022年 4月,全球可信人工智能領域相關論文數量論文共計 7059 篇。美國、中國、英國是可信人工智能領域論文發(fā)表的主要國家,三國發(fā)表的論文總數占全球論文總數 53%以上。
此外,在具體舉措上,英國政府還表示,將資助2萬英鎊建立一個監(jiān)管沙盒,為人工智能企業(yè)提供測試環(huán)境。企業(yè)可以測試如何將監(jiān)管應用于人工智能產品和服務,以支持創(chuàng)新者將新想法推向市場。而不會受監(jiān)管規(guī)則的約束。
“監(jiān)管沙盒與人工智能產業(yè)迭代速度快的特點相適應,對我國對人工智能產業(yè)治理亦有參考價值。”在張欣看來監(jiān)管沙盒模式一方面,則能夠在“沙盒”模擬中預判可能出現的風險,幫助監(jiān)管方早日知曉和防范;另一方面,能夠幫助激發(fā)技術創(chuàng)新活力,拓展產業(yè)發(fā)展的空間。
去年9月發(fā)布的《上海市促進人工智能產業(yè)發(fā)展條例》就提出,政府應當順應人工智能快速迭代的特點,探索分級治理和沙盒監(jiān)管。
吳沈括認為,從整體的監(jiān)管框架上看,英國重視現行法律法規(guī)的思路對我國具有一定參考意義。針對人工智能帶來的新挑戰(zhàn)和新問題,應該充分挖掘和發(fā)揮現有的制度資源和監(jiān)管資源,然后再“查漏補缺”適當引入必要的治理規(guī)范。
此外,重視產業(yè)發(fā)展的價值也值得深入思考?!氨敬伟灼芯坎l(fā)布了一個結論——繁重、不適宜的監(jiān)管可能會為中小企業(yè)的創(chuàng)新帶來負擔。”張欣指出,白皮書中體現出的監(jiān)管互操作性、一致性及監(jiān)管比例性,對我國未來促進中小企業(yè)科技創(chuàng)新就有借鑒意義。
“人工智能的治理不應當以犧牲產業(yè)發(fā)展為代價?!眳巧蚶ū硎荆瑧敵浞旨骖櫢鞣嚼婧驮V求,在保護、保障、保衛(wèi)核心價值的基礎之上,兼容技術發(fā)展和產業(yè)發(fā)展的需求,最大限度推動人工智能發(fā)展的一個良性生態(tài)。
(文章來源:21世紀經濟報道)
標簽: