今年全國(guó)兩會(huì)上,全國(guó)人大代表、天能控股集團(tuán)董事長(zhǎng)張?zhí)烊谓ㄗh,針對(duì)人工智能(AI)可能引發(fā)的一系列社會(huì)經(jīng)濟(jì)、道德倫理等問(wèn)題,應(yīng)制訂《人工智能管理法》,其重點(diǎn)首先即是要建立完整的人工智能科技倫理規(guī)范體系。全國(guó)政協(xié)委員、中國(guó)工程院院士陳曉紅也表示,在積極構(gòu)建開(kāi)源創(chuàng)新的AI生態(tài)體系時(shí),要促進(jìn)算力資源共享與模型迭代協(xié)同,也要完善AI倫理價(jià)值體系。
如今,AI技術(shù)如洶涌浪潮般席卷而來(lái),其強(qiáng)大功能為人類社會(huì)帶來(lái)前所未有的發(fā)展機(jī)遇。然而,在蓬勃發(fā)展背后,一系列倫理治理難題如暗礁橫亙。其中,AI真實(shí)性和AI價(jià)值觀是不容忽視的兩個(gè)方面。
在AI發(fā)展伴隨的真實(shí)性挑戰(zhàn)中,與人們息息相關(guān)的就是虛假信息問(wèn)題。譬如,基于生成對(duì)抗網(wǎng)絡(luò)的深度偽造技術(shù),能夠生成高度逼真的虛假視頻,這輕則令個(gè)人利益受損,重則影響社會(huì)秩序和公共安全。
應(yīng)對(duì)這一挑戰(zhàn),一方面,開(kāi)發(fā)者在模型訓(xùn)練和算法部署的每一個(gè)環(huán)節(jié),都應(yīng)融入透明性和可驗(yàn)證性機(jī)制,從根源上防止虛假信息的產(chǎn)生和傳播;另一方面,應(yīng)加快推出相關(guān)法律法規(guī),對(duì)利用AI制造并傳播虛假信息的行為予以懲治。
除了真實(shí)性難題,AI價(jià)值觀也是倫理治理的重中之重。我們知道,AI系統(tǒng)的學(xué)習(xí)基于海量數(shù)據(jù)集,這些數(shù)據(jù)往往包含了人類社會(huì)的各種偏見(jiàn)。如果現(xiàn)實(shí)社會(huì)中的偏見(jiàn)沒(méi)有得到有效糾正,被AI系統(tǒng)學(xué)習(xí)后很可能進(jìn)一步放大。
一個(gè)典型的例子,是一些西方國(guó)家AI面部識(shí)別系統(tǒng)面向少數(shù)族裔群體使用時(shí)有異常高的誤判率。有數(shù)據(jù)顯示,在識(shí)別有色人種時(shí),幾種基于深度學(xué)習(xí)技術(shù)的系統(tǒng)錯(cuò)誤率高達(dá)20%至30%,而識(shí)別白人時(shí)的錯(cuò)誤率則低得多。這種“AI偏見(jiàn)”的形成,在技術(shù)層面,是由于研發(fā)者采用的數(shù)據(jù)庫(kù)原始樣本就存在嚴(yán)重的種族不平等。這甚至可能使算法將深膚色特征與“高風(fēng)險(xiǎn)”聯(lián)系在一起。一旦金融、安檢和執(zhí)法領(lǐng)域運(yùn)用此類面部識(shí)別系統(tǒng),就可能導(dǎo)致不公正待遇。
因此,從倫理治理的角度看,研發(fā)者應(yīng)在數(shù)據(jù)收集、模型訓(xùn)練和算法設(shè)計(jì)階段,引入多樣性、多元化的視角,避免單一文化或群體偏見(jiàn)主導(dǎo)AI。此外,政府和行業(yè)組織則應(yīng)借助審查機(jī)制確保AI最大化遵循基本社會(huì)道德,或鼓勵(lì)跨學(xué)科合作,讓法律專家、倫理學(xué)家和社會(huì)科學(xué)家共同參與AI的倫理評(píng)估。
技術(shù)創(chuàng)新無(wú)疑是AI發(fā)展的強(qiáng)大驅(qū)動(dòng)力,但同時(shí)也要為AI這艘科技巨輪配備可靠的導(dǎo)航和護(hù)航機(jī)制。在這個(gè)過(guò)程中,每一個(gè)參與者,無(wú)論是技術(shù)研發(fā)者、企業(yè)還是政策制定者,都肩負(fù)共同的責(zé)任。(張夢(mèng)然)
(責(zé)任編輯:蔡文斌)