人工智能北京共識(shí) 15條規(guī)范原則詳情
高校、院所、企業(yè)代表共同簽署《人工智能北京共識(shí)》
原標(biāo)題:《人工智能北京共識(shí)》發(fā)布
《人工智能北京共識(shí)》發(fā)布
針對(duì)人工智能的研發(fā)、使用、治理三方面提出15條規(guī)范原則
科創(chuàng)
本報(bào)訊(記者 雷嘉)昨天,北京智源人工智能研究院聯(lián)合北大、清華、中科院自動(dòng)化研究所、中科院計(jì)算技術(shù)研究所、新一代人工智能產(chǎn)業(yè)技術(shù)創(chuàng)新戰(zhàn)略聯(lián)盟等單位共同發(fā)布《人工智能北京共識(shí)》,針對(duì)人工智能的研發(fā)、使用、治理三方面,提出了各參與方應(yīng)該遵循的、有益于人類命運(yùn)共同體構(gòu)建和社會(huì)發(fā)展的15條原則。
研發(fā)方面,《人工智能北京共識(shí)》提倡要有益于增進(jìn)社會(huì)與生態(tài)的福祉,服從人類的整體利益,設(shè)計(jì)上要合乎倫理,體現(xiàn)出多樣性與包容性,盡可能地惠及更多人,要對(duì)潛在倫理風(fēng)險(xiǎn)與隱患負(fù)責(zé),提升技術(shù)水平控制各種風(fēng)險(xiǎn),并最大范圍共享人工智能發(fā)展成果;使用方面,提倡善用和慎用,避免誤用和濫用,以最大化人工智能技術(shù)帶來的益處、最小化其風(fēng)險(xiǎn),應(yīng)確保利益相關(guān)者對(duì)其權(quán)益所受影響有充分的知情與同意,并能夠通過教育與培訓(xùn)適應(yīng)人工智能發(fā)展帶來的影響;治理方面,對(duì)人工智能部分替代人類工作保持包容和謹(jǐn)慎態(tài)度,鼓勵(lì)探索更能發(fā)揮人類優(yōu)勢(shì)和特點(diǎn)的新工作,廣泛開展國際合作,共享人工智能治理經(jīng)驗(yàn)。人工智能的準(zhǔn)則與治理措施應(yīng)做到適應(yīng)和適度,并開展長(zhǎng)遠(yuǎn)戰(zhàn)略設(shè)計(jì),以確保未來人工智能始終保持向?qū)ι鐣?huì)有益的方向發(fā)展。
人工智能倫理與規(guī)范是未來智能社會(huì)發(fā)展的重要基石,已經(jīng)引起了相關(guān)國際組織、政府和學(xué)術(shù)界、企業(yè)界等的廣泛關(guān)注!度斯ぶ悄鼙本┕沧R(shí)》的發(fā)布,為規(guī)范和引領(lǐng)人工智能健康發(fā)展提供了“北京方案”。
為降低人工智能發(fā)展過程中可能存在的技術(shù)風(fēng)險(xiǎn)和倫理隱患,北京智源人工智能研究院專門成立人工智能倫理與安全研究中心,中科院自動(dòng)化研究所曾毅研究員任中心主任。研究中心將圍繞人工智能倫理與安全的理論探索、算法模型、系統(tǒng)平臺(tái)、行業(yè)應(yīng)用等開展一系列研究,目前主要包括四方面:低風(fēng)險(xiǎn)機(jī)器學(xué)習(xí)模型與平臺(tái)的構(gòu)建,建立機(jī)器學(xué)習(xí)模型安全性的評(píng)估體系,并結(jié)合具體領(lǐng)域進(jìn)行驗(yàn)證;開展符合人類倫理道德的智能自主學(xué)習(xí)模型研究,實(shí)現(xiàn)人工智能行為與人類價(jià)值觀的校準(zhǔn),并在模擬環(huán)境與真實(shí)場(chǎng)景中進(jìn)行驗(yàn)證;建設(shè)數(shù)據(jù)安全示范應(yīng)用系統(tǒng),建立數(shù)據(jù)基礎(chǔ)設(shè)施、數(shù)據(jù)分級(jí)、權(quán)限控制、數(shù)據(jù)審計(jì),最大限度防止數(shù)據(jù)泄密,降低風(fēng)險(xiǎn),探索允許用戶撤銷個(gè)人數(shù)據(jù)授權(quán)的機(jī)制及計(jì)算平臺(tái);構(gòu)建人工智能風(fēng)險(xiǎn)與安全綜合“沙盒平臺(tái)”,建設(shè)自動(dòng)檢測(cè)平臺(tái),對(duì)人工智能產(chǎn)品及應(yīng)用進(jìn)行風(fēng)險(xiǎn)與安全綜合檢測(cè)評(píng)估,引導(dǎo)行業(yè)健康發(fā)展。