【ZiDongHua 之動感惠民生收錄關(guān)鍵詞:人工智能 AI安全 布萊切利宣言 可持續(xù)發(fā)展
 
  
  中國參加“人工智能安全峰會”并聯(lián)署《布萊切利宣言》
 
  
  2023年11月1日,英國主辦、各方參與的“人工智能安全峰會”正式開幕。為期兩天的峰會迎來了100多名各國政界和商界名人,包括美國副總統(tǒng)哈里斯、歐盟委員會主席馮德萊恩、OpenAI的奧特曼、特斯拉的馬斯克、谷歌DeepMind的哈薩比斯、Arm的哈斯等。
  
  這次會議的選址也別有深意,地方選在了倫敦近郊的布萊切利園(Bletchley Park)。這個莊園是英國一處有名的歷史遺跡、二戰(zhàn)時期英國政府密碼學(xué)院的舊址。盟軍的計算機(jī)和密碼學(xué)團(tuán)隊在這里開發(fā)了早期的計算機(jī)和解密機(jī)器,成功破解了多種軸心國集團(tuán)使用的加密系統(tǒng),包括著名的德國Enigma密碼機(jī)。這被不少歷史學(xué)家認(rèn)為直接縮短了二戰(zhàn)的進(jìn)程,其中最重要的貢獻(xiàn)者是后來被稱為計算機(jī)科學(xué)之父的Alan Turing。英國在2015年以他的名字命名建立了著名的數(shù)據(jù)科學(xué)和人工智能研究機(jī)構(gòu)——阿蘭·圖靈研究所(Alan Turing Institute)
  
  會議第一天,英國國王查爾斯三世通過視頻致辭開啟了峰會序幕,并在致辭中把AI提升到了像火、電力和核能這么重要的地位。上午是開幕式和全體會議,下午是圍繞一個個不同主題的圓桌討論,其中包括一個主題為“AI失控帶來的風(fēng)險”的討論,馬斯克、Open AI、英偉達(dá)、Anthropic和Arm的代表都參加了。第二天是英國首相蘇納克和一些政府代表、科技企業(yè)等小范圍內(nèi)部會議。峰會結(jié)束后將在六個月內(nèi)舉行一次線上的后續(xù)會議,由英國和韓國共同主辦。明年的峰會最后確定由法國做東道主。
  
  美國副總統(tǒng)哈里斯上午在唐寧街10號會見了英國首相蘇納克,下午在美國駐英國使館發(fā)表了一個關(guān)于AI的演講。隨行的美國商務(wù)部長雷蒙多出席全體會議并發(fā)言,宣布美國將建立人工智能安全研究所,以評估人工智能帶來的風(fēng)險。
  
  英國科學(xué)、創(chuàng)新與技術(shù)內(nèi)閣大臣唐蘭(Michelle Donelan)在開幕式致辭,強(qiáng)調(diào)這次峰會不僅是英國的成功,也是世界的歷史時刻,并且還特別提到中國的參與是“monumental”的。
  
  中國科技部副部長吳朝暉率領(lǐng)由科技部、外交部、中國科學(xué)院、阿里巴巴、騰訊組成的代表團(tuán)參會,并在開幕式全體會議上發(fā)言。與會期間,代表團(tuán)參與了人工智能安全等問題的討論,宣介了中方幾天前提出的《全球人工智能治理倡議》,接下來還會和相關(guān)國家開展雙邊會談。根據(jù)媒體消息,中國代表團(tuán)可能沒有受邀參加和蘇納克的小范圍會談。
  
  
  
  科技部副部長吳朝暉發(fā)言
  
  
  
  吳朝暉與英國科學(xué)、創(chuàng)新與技術(shù)內(nèi)閣大臣唐蘭(Michelle Donelan)
  
  
  
  集體合影
  
  總體上,中國的發(fā)言和《全球人工智能治理倡議》高度一致。
  
  在人工智能的倫理和治理上,中國指出:發(fā)展人工智能,應(yīng)當(dāng)積極倡導(dǎo)以人為本,智能向善,加強(qiáng)技術(shù)風(fēng)險管控,并在相互尊重、平等互利的原則基礎(chǔ)上,鼓勵各方協(xié)同共治。
  
  在人工智能安全問題上,中國強(qiáng)調(diào)了應(yīng)秉持共同、綜合、合作、可持續(xù)的安全觀,堅持發(fā)展和安全并重的原則,并提出以中國的全球安全倡議
  
  在人工智能國際治理的路徑上,中國主張通過對話與合作凝聚共識,構(gòu)建開放、公正、有效的治理機(jī)制,推動形成普遍參與的國際機(jī)制和具有廣泛共識的治理框架。中國還特別強(qiáng)調(diào)了增強(qiáng)發(fā)展中國家在人工智能全球治理中的代表性和發(fā)言權(quán),不斷彌合智能鴻溝和治理能力差距。另外,根據(jù)媒體的報道,中國的發(fā)言還提到了使用人工智能要遵守國際法。
  
  中國也聯(lián)署了會議的重要成果文件——關(guān)于人工智能國際治理的《布萊切利宣言》。
  
  《布萊切利宣言》(英文請閱讀原文)
  
  人工智能(AI)帶來了巨大的全球機(jī)遇:它有潛力改變和增強(qiáng)人類福祉、和平與繁榮。為了實現(xiàn)這一目標(biāo),我們申明,為了所有人的利益,AI應(yīng)該以安全、以人為本、可信賴和負(fù)責(zé)任的方式設(shè)計、開發(fā)、部署和使用。我們歡迎國際社會迄今為止在AI合作方面所做的努力,以促進(jìn)包容性經(jīng)濟(jì)增長、可持續(xù)發(fā)展和創(chuàng)新,保護(hù)人權(quán)和基本自由,并培養(yǎng)公眾對AI系統(tǒng)的信任和信心,以充分實現(xiàn)其潛力。
  
  AI系統(tǒng)已經(jīng)部署在日常生活的許多領(lǐng)域,包括住房、就業(yè)、交通、教育、健康、無障礙和司法,對它們的使用可能會繼續(xù)增加。我們認(rèn)識到,這是一個獨特的時刻,需要采取行動,確認(rèn)AI的安全發(fā)展,以及AI的變革機(jī)會需要在國家和全球范圍內(nèi)以包容、向善的方式應(yīng)用于所有人。這包括公共服務(wù),如衛(wèi)生和教育、糧食安全、科學(xué)、清潔能源、生物多樣性和氣候,以實現(xiàn)人權(quán),并加強(qiáng)實現(xiàn)聯(lián)合國可持續(xù)發(fā)展目標(biāo)的努力。
  
  除了這些機(jī)會,AI也帶來重大風(fēng)險,包括在日常生活領(lǐng)域。為此,我們歡迎相關(guān)的國際努力,審查和解決AI系統(tǒng)在現(xiàn)有論壇和其他相關(guān)舉措中的潛在影響,并認(rèn)識到需要解決保護(hù)人權(quán)、透明度和可解釋性、公平性、問責(zé)制、監(jiān)管、安全、適當(dāng)?shù)娜祟惐O(jiān)督、道德、減少偏見、隱私和數(shù)據(jù)保護(hù)等問題。我們還注意到,AI系統(tǒng)操縱內(nèi)容或生成欺騙性內(nèi)容的能力可能帶來不可預(yù)見的風(fēng)險。所有這些問題都至關(guān)重要,我們確認(rèn)解決這些問題的必要性和緊迫性。
  
  特別的安全風(fēng)險出現(xiàn)在“前沿”的AI,即那些能夠執(zhí)行各種任務(wù)的高能力通用AI模型,包括基礎(chǔ)模型,以及可能表現(xiàn)出與當(dāng)今最先進(jìn)模型相匹配或超過現(xiàn)有能力的相關(guān)特定狹窄定義的AI。重大風(fēng)險可能來自潛在的故意濫用,或與按照人類意圖行事相關(guān)的控制問題。此類問題部分是人類尚未完全理解AI的這些能力,因此難以預(yù)測。我們特別關(guān)注網(wǎng)絡(luò)安全和生物技術(shù)等領(lǐng)域的此類風(fēng)險,以及前沿AI系統(tǒng)可能放大虛假信息等風(fēng)險的領(lǐng)域。這些AI模型最重要的能力可能導(dǎo)致嚴(yán)重甚至災(zāi)難性的傷害,無論是故意還是無意的。鑒于AI的快速和不確定的變化速度,以及在技術(shù)投資加速的背景下,我們申明,加深對這些潛在風(fēng)險的理解,以及加深對應(yīng)對這些風(fēng)險的行動的理解,尤為緊迫。
  
  AI帶來的許多風(fēng)險本質(zhì)上是國際性的,因此最好通過國際合作來解決。我們決心以包容的方式共同努力,確保以人為本、可信賴和負(fù)責(zé)任的AI是安全的,并通過現(xiàn)有的國際論壇和其他相關(guān)舉措支持所有人的利益,以促進(jìn)合作,應(yīng)對AI帶來的廣泛風(fēng)險。在這樣做的過程中,我們認(rèn)識到各國應(yīng)考慮促進(jìn)創(chuàng)新和相稱的治理和監(jiān)管方法的重要性,這種方法最大限度地發(fā)揮效益,并考慮到與AI相關(guān)的風(fēng)險。這可能包括根據(jù)國情和適用的法律框架在適當(dāng)情況下對風(fēng)險進(jìn)行分類和分類。我們還注意到各國需要在共同原則和行為準(zhǔn)則等方法上適當(dāng)合作。關(guān)于最有可能在前沿AI方面發(fā)現(xiàn)的具體風(fēng)險,我們決心通過現(xiàn)有國際論壇和其他相關(guān)舉措,包括未來的國際AI安全峰會,保持和強(qiáng)化我們的合作,并擴(kuò)大與更多國家的合作,以識別、理解相關(guān)問題并酌情采取行動。
  
  所有行為體都可以在確保AI安全方面發(fā)揮作用:國家、國際論壇和其他倡議、公司、民間社會和學(xué)術(shù)界需要共同努力。我們注意到包容性AI和彌合數(shù)字鴻溝的重要性,重申國際合作應(yīng)努力酌情吸納廣泛的伙伴,并歡迎能夠幫助發(fā)展中國家加強(qiáng)AI能力建設(shè)、利用AI的有利作用支持可持續(xù)增長和解決發(fā)展差距的、以發(fā)展為導(dǎo)向的方法和政策。
  
  我們申明,雖然必須在整個AI生命周期考慮安全,但發(fā)展前沿AI能力的行為者,特別是那些異常強(qiáng)大和潛在有害的AI系統(tǒng),對確保這些AI系統(tǒng)的安全負(fù)有特別重大的責(zé)任,包括通過安全測試系統(tǒng)、評估和其他適當(dāng)措施。我們鼓勵所有相關(guān)行為者就其衡量、監(jiān)測和減輕AI潛在有害能力及其可能出現(xiàn)的相關(guān)影響的計劃,提供適當(dāng)?shù)耐该鞫群蛦栘?zé)制,特別是為了防止濫用和控制問題以及其他風(fēng)險的放大。
  
  在我們的合作范圍內(nèi),并為了給國家和國際兩級的行動提供信息,我們應(yīng)對前沿AI風(fēng)險的議程將側(cè)重于:
  
  確定共同關(guān)切的AI安全風(fēng)險,建立對這些風(fēng)險的共同科學(xué)和循證理解,并在理解AI對我們社會影響的更廣泛全球方法的背景下,隨著能力的不斷提高,保持這種理解。
  
  在我們各國建立各自的基于風(fēng)險的政策以確保在這些風(fēng)險下的安全,在承認(rèn)我們的方法的同時進(jìn)行適當(dāng)?shù)暮献骺赡芤驀仪闆r和適用的法律框架而異。這包括私營行為者提高透明度,發(fā)展前沿AI能力,適當(dāng)?shù)脑u估指標(biāo),安全測試工具,以及發(fā)展相關(guān)的體制內(nèi)能力和科學(xué)研究。
  
  為推進(jìn)這一議程,我們決心支持建立一個具有國際包容性的前沿AI安全科學(xué)研究網(wǎng)絡(luò),該網(wǎng)絡(luò)包括和補(bǔ)充現(xiàn)有和新的多邊、多邊和雙邊合作,包括通過現(xiàn)有國際論壇和其他相關(guān)舉措,促進(jìn)為決策和公共利益提供最佳科學(xué)。
  
  認(rèn)識到AI的變革性積極潛力,并作為確保更廣泛的AI國際合作的一部分,我們決心維持包容性的全球?qū)υ挘尙F(xiàn)有國際論壇和其他相關(guān)舉措?yún)⑴c進(jìn)來,并以開放的方式為更廣泛的國際討論做出貢獻(xiàn),并繼續(xù)研究前沿AI安全問題,以確保可以負(fù)責(zé)任地利用技術(shù)的好處造福所有人。我們期待2024年再次會面。
  
  協(xié)定簽署國:
  
  澳大利亞
  
  巴西
  
  加拿大
  
  智利
  
  中國
  
  歐盟
  
  法國
  
  德國
  
  印度
  
  印度尼西亞
  
  愛爾蘭
  
  以色列
  
  意大利
  
  日本
  
  肯尼亞
  
  沙特阿拉伯
  
  荷蘭
  
  尼日利亞
  
  菲律賓
  
  韓國
  
  盧旺達(dá)
  
  新加坡
  
  西班牙
  
  瑞士
  
  土耳其
  
  烏克蘭
  
  阿聯(lián)酋
  
  英國
  
  美國
  
  其他參會的國際組織、研究機(jī)構(gòu)、非政府組織和科技企業(yè):
  
  Academia and civil society
  
  - Ada Lovelace Institute
  
  - Advanced Research and Invention Agency
  
  - African Commission on Human and People’s Rights
  
  - AI Now Institute
  
  - Alan Turing Institute
  
  - Algorithmic Justice League
  
  - Alignment Research Center
  
  - Berkman Center for Internet & Society, Harvard University
  
  - Blavatnik School of Government
  
  - British Academy
  
  - Brookings Institution
  
  - Carnegie Endowment
  
  - Centre for AI Safety
  
  - Centre for Democracy and Technology
  
  - Centre for Long-Term Resilience
  
  - Centre for the Governance of AI
  
  - Chinese Academy of Sciences
  
  - Cohere for AI
  
  - Collective Intelligence Project
  
  - Columbia University
  
  - Concordia AI
  
  - ETH AI Center
  
  - Future of Life Institute
  
  - Institute for Advanced Study
  
  - Liverpool John Moores University
  
  - Mila – Quebec Artificial Intelligence Institute
  
  - Mozilla Foundation
  
  - National University of Cordoba
  
  - National University of Singapore
  
  - Open Philanthropy
  
  - Oxford Internet Institute
  
  - Partnership on AI
  
  - RAND Corporation
  
  - Real ML
  
  - Responsible AI UK
  
  - Royal Society
  
  - Stanford Cyber Policy Institute
  
  - Stanford University
  
  - Technology Innovation Institute
  
  - Université de Montréal
  
  - University College Cork
  
  - University of Birmingham
  
  - University of California, Berkeley
  
  - University of Oxford
  
  - University of Southern California
  
  - University of Virginia
  
  Industry and related organisations
  
  - Adept
  
  - Aleph Alpha
  
  - Alibaba
  
  - Amazon Web Services
  
  - Anthropic
  
  - Apollo Research
  
  - ARM
  
  - Cohere
  
  - Conjecture
  
  - Darktrace
  
  - Databricks
  
  - Eleuther AI
  
  - Faculty AI
  
  - Frontier Model Forum
  
  - Google DeepMind
  
  - Google
  
  - Graphcore
  
  - Helsing
  
  - Hugging Face
  
  - IBM
  
  - Imbue
  
  - Inflection AI
  
  - Meta
  
  - Microsoft
  
  - Mistral
  
  - Naver
  
  - Nvidia
  
  - Omidyar Group
  
  - OpenAI
  
  - Palantir
  
  - Rise Networks
  
  - Salesforce
  
  - Samsung Electronics
  
  - Scale AI
  
  - Sony
  
  - Stability AI
  
  - techUK
  
  - Tencent
  
  - Trail of Bits
  
  - XAI
  
  Multilateral organisations
  
  - Council of Europe
  
  - European Commission
  
  - Global Partnership on Artificial Intelligence (GPAI)
  
  - International Telecommunication Union (ITU)
  
  - Organisation for Economic Co-operation and Development (OECD)
  
  - UNESCO
  
  - United Nations