【ZiDongHua 之人文化天下收錄關(guān)鍵詞:王亞慧 法與自動(dòng)化 性別平等 以人為本   人工智能  算法自動(dòng)化決策  算法   智能決策  決策自動(dòng)化  智能自動(dòng)化  】

王亞慧丨算法自動(dòng)化決策背景下的女性就業(yè)歧視與規(guī)制

王亞慧

中國社會(huì)科學(xué)院大學(xué)碩士研究生

要目

一、弱人工智能時(shí)代背景下算法歧視的消解

二、我國現(xiàn)行法律體系規(guī)制的不足及比較法參照

三、女性就業(yè)中算法歧視規(guī)制的重點(diǎn)面向

四、反女性就業(yè)歧視良性算法重構(gòu)

算法自動(dòng)化決策在就業(yè)領(lǐng)域有著廣闊的應(yīng)用前景,但算法技術(shù)并非中立無偏,而是將偏見和歧視內(nèi)嵌到?jīng)Q策系統(tǒng)當(dāng)中。以弱人工智能時(shí)代存在的算法歧視為背景,通過對(duì)我國就業(yè)和算法領(lǐng)域的現(xiàn)行法律體系進(jìn)行比較法分析后,明確女性就業(yè)中算法歧視規(guī)制應(yīng)重點(diǎn)關(guān)注的社會(huì)底層歧視邏輯、大數(shù)據(jù)謊言和算法技術(shù)批判。以此為基礎(chǔ),提出修正社會(huì)底層邏輯,釋放女性人口紅利;跨越性別數(shù)據(jù)鴻溝,由大數(shù)據(jù)向高質(zhì)量數(shù)據(jù)轉(zhuǎn)型;以技術(shù)批判理論為指導(dǎo),全流程深度規(guī)制就業(yè)領(lǐng)域算法性別歧視的建議。

人工智能時(shí)代背景下,算法的應(yīng)用場(chǎng)景日益增多。算法通過對(duì)海量的數(shù)據(jù)進(jìn)行信息挖掘,使用自動(dòng)化的數(shù)據(jù)驅(qū)動(dòng)方式作出決策,如開展自動(dòng)推薦、評(píng)價(jià)和判斷等。算法和代碼,而非規(guī)則,日益決定各種決策工作的結(jié)果。但算法并非中立無偏,而是將偏見和歧視內(nèi)嵌到?jīng)Q策系統(tǒng)當(dāng)中,以悄無聲息的方式侵蝕著社會(huì)公平正義。女性在就業(yè)市場(chǎng)中受到歧視是亙古存在的,但在算法自動(dòng)化決策背景下,有著歧視難以察覺、難以證明、難以歸責(zé)的困境,因此更有規(guī)制的必要。

一、弱人工智能時(shí)代背景下算法歧視的消解

規(guī)制人工智能時(shí)代的算法歧視,首先需要明確規(guī)制對(duì)象及其發(fā)展階段。關(guān)于人工智能的興起,應(yīng)追溯到1950年,艾倫·圖靈在《計(jì)算機(jī)器與智能》的論文中提出“機(jī)器能否思考”的問題,通過用“圖靈測(cè)試”回答這一問題來判斷計(jì)算機(jī)是否具有人類智能。而后在1956年的達(dá)特茅斯會(huì)議上,麥肯錫等科學(xué)家首次提出“人工智能”這一概念,標(biāo)志著人工智能學(xué)科的誕生。人工智能的發(fā)展道路充滿曲折,但隨著大數(shù)據(jù)、云計(jì)算、互聯(lián)網(wǎng)、物聯(lián)網(wǎng)等信息技術(shù)的蓬勃發(fā)展,人工智能技術(shù)也迎來飛速發(fā)展時(shí)期,實(shí)現(xiàn)了信息感知、機(jī)器學(xué)習(xí)等專用人工智能的單點(diǎn)突破,在某些方面甚至可以超越人類智能,但在概念抽象和推理決策等通用人工智能必需的能力方面還很薄弱。因此,可以說,人工智能總體發(fā)展水平尚處于起步階段。按照“三層級(jí)”說,我們還處于從弱人工智能向強(qiáng)人工智能發(fā)展的初級(jí)階段,我們對(duì)現(xiàn)階段的算法歧視尚可有所作為。有些學(xué)者以強(qiáng)人工智能時(shí)代的智能意識(shí)、難以規(guī)制為由逃避對(duì)弱人工智能的治理,將在法律和技術(shù)上完善現(xiàn)有規(guī)則僅作為治標(biāo)之策是不可取的。相反,研究應(yīng)以當(dāng)前及在相當(dāng)時(shí)間段內(nèi)世界將處于弱人工智能時(shí)代為研究背景,著眼于對(duì)人工智能的核心要素之一即算法的認(rèn)識(shí)和規(guī)范,以人工智能的特殊性及其對(duì)現(xiàn)有法律理論造成的沖擊作為研究重點(diǎn)。

人工智能算法的運(yùn)行邏輯對(duì)人的行為形成支配關(guān)系,對(duì)以強(qiáng)調(diào)個(gè)人幸福和權(quán)力優(yōu)先性為特點(diǎn)的現(xiàn)代倫理帶來巨大挑戰(zhàn)。算法自動(dòng)化決策看似處于性別中立的地位,但可能嵌入既有的性別偏見,成為隱藏性別歧視的分配手段,并且造成難以察覺的性別歧視后果。一系列被指出存在性別歧視的算法,便給招聘和篩選算法的應(yīng)用敲響了警鐘:20世紀(jì)80年代,倫敦圣喬治醫(yī)學(xué)院通過算法篩選學(xué)生的入學(xué)申請(qǐng),但以之前的招生數(shù)據(jù)為依據(jù)創(chuàng)建的算法規(guī)則被證明用于對(duì)女性和有色人種進(jìn)行歧視。2018年,亞馬遜的AI招聘工具通過學(xué)習(xí)近10年來公司的簡歷數(shù)據(jù)來審查應(yīng)聘者并給求職者打分,在實(shí)際應(yīng)用中被曝存在性別歧視行為,尤其是歧視女性,會(huì)對(duì)具有“女性”標(biāo)識(shí)的應(yīng)聘者自動(dòng)降級(jí)打分。2019年8月,蘋果公司推出的信用卡背后的算法也被指存在性別歧視,一對(duì)夫妻共同提交納稅申報(bào)單,但丈夫的額度卻是妻子的20倍。人工智能憑借其科學(xué)、客觀的形象得以在各個(gè)領(lǐng)域進(jìn)行廣泛部署與應(yīng)用,但其發(fā)展的不確定性卻為歧視數(shù)字化的法律規(guī)制帶來新挑戰(zhàn),歧視的表達(dá)形態(tài)、傳播效率和影響規(guī)模都被深刻改變。因此人工智能的歧視效應(yīng)是未來監(jiān)管者在各領(lǐng)域不得不面對(duì)的重要問題,以確保人工智能安全、可靠、可控發(fā)展。

二、我國現(xiàn)行法律體系規(guī)制的不足及比較法參照

弱人工智能時(shí)代背景下,女性就業(yè)領(lǐng)域中存在的算法歧視亟待法律規(guī)制且法律也應(yīng)當(dāng)有所作為。算法自動(dòng)化決策背景下的女性就業(yè)歧視關(guān)涉到傳統(tǒng)領(lǐng)域的就業(yè)歧視及數(shù)字時(shí)代的算法歧視,因此本文將分別闡述法律體系規(guī)制之不足,但將重點(diǎn)關(guān)注算法領(lǐng)域的法律規(guī)制。

就業(yè)領(lǐng)域女性歧視規(guī)制

我國關(guān)于反性別歧視的立法主要包括憲法、婦女權(quán)益保障法、勞動(dòng)法和工會(huì)法。反性別歧視以憲法第33條、第42條、第48條的規(guī)定為統(tǒng)領(lǐng),實(shí)行男女平等、同工同酬。婦女權(quán)益保障法第2條重申婦女享有與男子平等的權(quán)利,強(qiáng)調(diào)禁止歧視婦女,在第四章專章規(guī)定婦女的勞動(dòng)和社會(huì)權(quán)益保障。婦女權(quán)益保障法(修訂草案)征求意見稿中強(qiáng)調(diào)保護(hù)婦女的就業(yè)平等權(quán),明確列舉了性別歧視的主要情形,增加了實(shí)施就業(yè)性別歧視的法律責(zé)任,并且建立健全職工的生育休假制度。勞動(dòng)法第3條規(guī)定勞動(dòng)者享有的各項(xiàng)勞動(dòng)權(quán)利,如平等就業(yè)權(quán)和選擇職業(yè)權(quán)等。第12條規(guī)定勞動(dòng)者就業(yè)不因性別不同而受歧視。第13條規(guī)定婦女享有同男子平等的就業(yè)權(quán)利,錄用職工時(shí)不得以性別為由拒絕錄用婦女或者提高對(duì)婦女的錄用標(biāo)準(zhǔn)。這些條文涉及女性就業(yè)平等保護(hù)和禁止基于性別的就業(yè)歧視的內(nèi)容。

上述法律仍未明確“對(duì)婦女的歧視”的定義,未明晰直接歧視與間接歧視的區(qū)別規(guī)制。在算法自動(dòng)化決策背景下,就業(yè)歧視更加難以察覺,傳統(tǒng)的主要針對(duì)直接歧視的定義在治理人工智能時(shí)代的間接歧視時(shí)則顯得捉襟見肘,不利于現(xiàn)實(shí)生活中的歧視現(xiàn)象規(guī)制。另外,規(guī)定過于原則化,不利于受害者獲得救濟(jì)以及實(shí)踐中的操作和執(zhí)行。

反之,平等原則和禁止歧視原則在聯(lián)合國九個(gè)核心人權(quán)條約中均有規(guī)定,其中消除對(duì)婦女一切形式歧視公約重點(diǎn)關(guān)注歧視婦女的現(xiàn)象,在公約第1條即明確“對(duì)婦女的歧視”的定義,涵蓋直接歧視和間接歧視,并敦促締約國為加速實(shí)現(xiàn)男女事實(shí)上的平等采取暫行特別措施。第11條要求締約國采取一切適當(dāng)措施消除在就業(yè)方面對(duì)婦女的歧視。國際勞工組織的就業(yè)和職業(yè)歧視公約(第111號(hào)公約),第1條也明確規(guī)定了歧視的定義,即具有取消或損害就業(yè)或職業(yè)機(jī)會(huì)均等或待遇平等作用的任何區(qū)別、排斥或優(yōu)惠,第2條要求會(huì)員國承諾宣布并奉行一項(xiàng)國家政策,旨在以適合本國條件和慣例的方法,促進(jìn)就業(yè)和職業(yè)方面的機(jī)會(huì)和待遇平等。中國分別于1980年11月和2005年8月批準(zhǔn)加入上述兩公約。

從其他國家或區(qū)域立法來看,我們可以知悉國外在反性別歧視的問題上,均將直接歧視和間接歧視明確加以規(guī)定,不僅在“形式”上予以規(guī)范,更注重“結(jié)果”意義上的平等。美國有關(guān)禁止就業(yè)中的性別歧視最重要的法律屬1964年民權(quán)法案,這部法案奠定了女性就業(yè)權(quán)平等保護(hù)的國家政策,第七章明確規(guī)定了包括性別歧視在內(nèi)的就業(yè)歧視的相關(guān)問題,設(shè)定了就業(yè)歧視的基本標(biāo)準(zhǔn)。法案要求“采取積極行動(dòng)保障不同性別的申請(qǐng)者都能夠得到平等對(duì)待”,廢止專門針對(duì)女性的所謂“保護(hù)性”立法,該法案的實(shí)施對(duì)女性就業(yè)權(quán)的實(shí)現(xiàn)產(chǎn)生重要影響。英國最重要的反性別歧視法律為1975年通過的性別歧視法,該法案的出臺(tái)標(biāo)志著就業(yè)領(lǐng)域的反性別歧視原則正式得到國家法律確認(rèn)。法律明確規(guī)定就業(yè)領(lǐng)域的性別歧視行為,禁止基于性別和婚姻狀況的理由實(shí)施歧視。對(duì)性別工資待遇歧視、性別就業(yè)待遇歧視以及舉證責(zé)任、救濟(jì)方式都有相應(yīng)規(guī)定。歐盟涉及反就業(yè)歧視的指令包括《75/ 117》《76/207》《2000/43》《2000/78》《2002/73》,其中最重要的是1976年男女平等待遇指令,但其僅作了原則性的規(guī)定。因此在2002年對(duì)該指令進(jìn)行細(xì)化修改,對(duì)性別歧視中的直接歧視與間接歧視明確界定,并且規(guī)定了相應(yīng)的司法救濟(jì)程序,有力地保障了平等就業(yè)權(quán)在歐盟的實(shí)現(xiàn)。

算法領(lǐng)域女性歧視規(guī)制

關(guān)于算法領(lǐng)域的性別歧視規(guī)制,我國于2021年通過實(shí)施的數(shù)據(jù)安全法、個(gè)人信息保護(hù)法形成了算法自動(dòng)化決策規(guī)制的基本框架,如根據(jù)個(gè)人信息保護(hù)法的相關(guān)規(guī)定,處理個(gè)人信息應(yīng)具有明確、合理的目的,遵循最小必要原則,且須征得個(gè)人同意。利用個(gè)人信息進(jìn)行自動(dòng)化決策的,應(yīng)當(dāng)保證決策透明和結(jié)果公平公正。個(gè)人有拒絕自動(dòng)化決策作出決定的權(quán)利。但其規(guī)定較為原則籠統(tǒng),且人力資源管理所必需的個(gè)人信息無須經(jīng)過個(gè)人同意即可進(jìn)行處理,因此對(duì)算法自動(dòng)化決策中存在的性別歧視有諸多難以規(guī)制之處。我國于2022年3月施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》主要規(guī)制利用算法推薦技術(shù)提供互聯(lián)網(wǎng)信息服務(wù)的行為,第三章用戶權(quán)益保護(hù)規(guī)定算法推薦服務(wù)提供者應(yīng)當(dāng)告知用戶算法推薦服務(wù)情況,公示其基本原理、目的意圖和主要運(yùn)行機(jī)制等,并且要求算法提供不針對(duì)個(gè)人特征的選項(xiàng)或者允許用戶關(guān)閉算法推薦服務(wù)。但該規(guī)定的適用領(lǐng)域和規(guī)制的算法類型較為局限,且沒有體現(xiàn)對(duì)女性的傾斜保護(hù)。

從國外的立法情況來看,美國一向重視隱私權(quán)的保護(hù),強(qiáng)調(diào)以倫理教育和隱私法規(guī)防范人工智能風(fēng)險(xiǎn)。2017年12月美國紐約州通過算法問責(zé)法案,旨在通過透明度和問責(zé)解決算法歧視問題。2022年,聯(lián)邦層面提出2022算法問責(zé)法案,要求應(yīng)用自動(dòng)化決策的公司測(cè)試算法是否存在錯(cuò)誤數(shù)據(jù)、偏見、安全風(fēng)險(xiǎn)、性能差距和其他問題,每年提交影響評(píng)估報(bào)告并留檔,以此來促進(jìn)算法的公平性、問責(zé)性和透明度。歐盟則積極推進(jìn)以人為本的人工智能倫理與治理。一方面,依據(jù)通用數(shù)據(jù)保護(hù)條例充分保障個(gè)人的信息安全,要求自動(dòng)化決策提供關(guān)于邏輯運(yùn)行的有意義的信息,解釋自動(dòng)化決策的重要性和預(yù)想的后果;另一方面,依托算法責(zé)任與透明治理框架提出將算法透明和責(zé)任治理作為解決算法公平問題的工具,分層次建立監(jiān)管機(jī)制。歐盟委員會(huì)還公布了關(guān)于制定人工智能統(tǒng)一規(guī)則的提案,旨在通過治理與監(jiān)管實(shí)現(xiàn)可信賴的人工智能。該法案對(duì)人工智能實(shí)行分類分義務(wù)管理,明確企業(yè)在人工智能開發(fā)、運(yùn)營過程中的強(qiáng)制性義務(wù),制定了包容審慎的技術(shù)監(jiān)管措施,對(duì)規(guī)制人工智能的潛在風(fēng)險(xiǎn)和不良影響具有深遠(yuǎn)意義。此外,電氣和電子工程師協(xié)會(huì)(IEEE)發(fā)布旨在推進(jìn)人工智能和自治系統(tǒng)倫理設(shè)計(jì)的IEEE全球倡議書,提出通過教育、培訓(xùn)和授權(quán),確保人工智能系統(tǒng)設(shè)計(jì)開發(fā)的利益相關(guān)方優(yōu)先考慮倫理問題。人工智能的全球治理趨勢(shì)已十分顯著,“算法霸權(quán)”是各國監(jiān)管者亟須面對(duì)的問題,但算法自動(dòng)化決策中存在的女性歧視問題并未得到重視,尚需各國法律調(diào)整完善,以適應(yīng)人工智能時(shí)代算法歧視規(guī)制的需要。

三、女性就業(yè)中算法歧視規(guī)制的重點(diǎn)面向

規(guī)制算法歧視,尤其是尚未被關(guān)注或者說關(guān)注度不足的女性就業(yè)中的算法歧視,需要對(duì)嵌入算法的女性歧視尋本溯源。人工智能的三大核心要素是數(shù)據(jù)、算法、算力。算法是數(shù)據(jù)驅(qū)動(dòng)型算法,數(shù)據(jù)是算法的“飼料”,只有經(jīng)過對(duì)標(biāo)注好的數(shù)據(jù)進(jìn)行大量訓(xùn)練,覆蓋盡可能多的場(chǎng)景才能得到一個(gè)良好的算法模型。大數(shù)據(jù)是社會(huì)的一種鏡像,當(dāng)前社會(huì)的既有格局與特征、偏見與結(jié)構(gòu)性不平等會(huì)映射到數(shù)據(jù)當(dāng)中。根據(jù)上述路徑,社會(huì)中的性別歧視與偏見會(huì)借由數(shù)據(jù)和代碼嵌入算法當(dāng)中,因此本文將以社會(huì)、數(shù)據(jù)、技術(shù)的三維視角剖析女性就業(yè)中的算法歧視,換言之,即規(guī)制算法自動(dòng)化決策中存在的女性就業(yè)歧視時(shí)應(yīng)重點(diǎn)關(guān)注的領(lǐng)域。

從社會(huì)底層邏輯出發(fā),算法歧視并非源自技術(shù)本身或技術(shù)創(chuàng)新,而是前沿科學(xué)技術(shù)賦能傳統(tǒng)社會(huì)矛盾的結(jié)果。第一,社會(huì)性別歧視和偏見的廣泛存在。第二,用人單位的男性化的理想工人規(guī)范。從用人單位的角度來說,理想工作者是從成年早期開始工作沒有任何中斷并獲得完整職業(yè)生涯的員工,這樣才能滿足其追求利潤最大化的目標(biāo)。第三,職業(yè)性別隔離現(xiàn)象。職業(yè)的性別隔離一詞最早由格羅斯提出,即由于社會(huì)系統(tǒng)性因素,不同的性別集中在不同的行業(yè)和職位上,主要表現(xiàn)為大部分女性勞動(dòng)力集中于一些“女性化”職業(yè),傳統(tǒng)上由男性占主導(dǎo)地位的職業(yè)保持為“男性化”職業(yè),這類職業(yè)具有高技能、高收入、高地位的特征,“女性化”職業(yè)則技術(shù)含量低、工資待遇低、社會(huì)地位低。從谷歌算法為女性提供相對(duì)男性更少的與高薪工作相關(guān)的廣告即可見一斑。

從數(shù)據(jù)謊言剖析出發(fā),大數(shù)據(jù)反映著主體的多元行為和人類現(xiàn)實(shí)社會(huì),卻也存在著歪曲和異化的風(fēng)險(xiǎn)。一方面,“大數(shù)據(jù)”的數(shù)據(jù)相對(duì)于萬物在同一時(shí)刻所釋放的所有數(shù)據(jù)來說,其能夠捕捉到的只是微不足道的“微數(shù)據(jù)”和淺層次的“表數(shù)據(jù)”,大多數(shù)大數(shù)據(jù)資源是不完整的。目前應(yīng)用于算法的神經(jīng)網(wǎng)絡(luò)只具備相關(guān)性學(xué)習(xí)能力,沒有因果邏輯推理能力,就導(dǎo)致算法極易受到復(fù)雜大數(shù)據(jù)中異質(zhì)性、虛假相關(guān)性、偶然內(nèi)生性的影響。因此,由傳統(tǒng)社會(huì)結(jié)構(gòu)矛盾導(dǎo)致的“數(shù)字性別鴻溝”,在人工智能時(shí)代便會(huì)加重女性歧視和數(shù)據(jù)偏見,科技進(jìn)程排擠女性發(fā)展的現(xiàn)象更為嚴(yán)重。另一方面,數(shù)據(jù)是客觀的,但應(yīng)用數(shù)據(jù)的人卻有主觀意圖。現(xiàn)階段人工智能算法應(yīng)用的數(shù)據(jù)須通過數(shù)據(jù)清洗、數(shù)據(jù)標(biāo)注方能使用,而數(shù)據(jù)清洗、標(biāo)注工作主要由人工完成。人工對(duì)文本、圖像、語音、視頻等原數(shù)據(jù)進(jìn)行歸類、整理、編輯、糾錯(cuò)、標(biāo)注和批注等操作,為機(jī)器學(xué)習(xí)訓(xùn)練提供可讀數(shù)據(jù)。若標(biāo)注人員存在單邊的技術(shù)性思維,受到忽視價(jià)值觀預(yù)設(shè)、樣本選擇性偏差和認(rèn)知局限等主觀因素的影響,則會(huì)加劇數(shù)據(jù)瓶頸和陷阱的障礙作用,算法及人工智能的發(fā)展也會(huì)偏離初衷和正常軌道。

從技術(shù)范式糾偏出發(fā),算法技術(shù)已成為數(shù)字時(shí)代不可忽視的力量,算法的歧視化風(fēng)險(xiǎn)也引致社會(huì)憂慮。從上層技術(shù)理論來說,技術(shù)中立論對(duì)科學(xué)技術(shù)的現(xiàn)狀和發(fā)展前途充滿樂觀主義和自信,崇尚技術(shù)統(tǒng)治;技術(shù)實(shí)體論對(duì)技術(shù)的發(fā)展則持悲觀態(tài)度,認(rèn)為技術(shù)排斥民主與自由,是一種極權(quán)性的社會(huì)力量,會(huì)贏下昂人的存在與人類文化;技術(shù)批判理論對(duì)科學(xué)技術(shù)進(jìn)行目的批判、過程批判和設(shè)計(jì)批判,認(rèn)為技術(shù)的發(fā)展能夠走向一條技術(shù)民主化的道路。我們應(yīng)當(dāng)摒棄技術(shù)崇拜和技術(shù)恐慌,理性客觀看待技術(shù)發(fā)展與進(jìn)步,以技術(shù)批判理論作為人工智能時(shí)代的技術(shù)哲學(xué)指導(dǎo)。從算法開發(fā)來說,算法要經(jīng)過提出問題、數(shù)據(jù)處理、數(shù)據(jù)集建構(gòu)、模型設(shè)計(jì)、模型訓(xùn)練、模型測(cè)試等流程才算開發(fā)完成,而這一過程的局限是需要大量人工干預(yù),如人工設(shè)定神經(jīng)網(wǎng)絡(luò)模型、人工設(shè)定應(yīng)用場(chǎng)景、人工采集和標(biāo)注大量訓(xùn)練數(shù)據(jù)。因此,算法開發(fā)過程是算法歧視入侵的主要陣地。從算法應(yīng)用來說,算法披著“技術(shù)性”和“客觀性”的外衣,卻因其高度專業(yè)性、不可解釋性和不透明性導(dǎo)致“算法黑箱”的存在。人工智能的深度學(xué)習(xí)更加凸顯了“算法黑箱”帶來的技術(shù)屏障,程序錯(cuò)誤和算法歧視在人工智能的深度學(xué)習(xí)中變得難以識(shí)別,法律主體制度、透明度原則和問責(zé)機(jī)制難以運(yùn)用。

四、反女性就業(yè)歧視良性算法重構(gòu)

通過分析女性就業(yè)算法歧視規(guī)制的重點(diǎn)面向,可以知悉算法歧視的治理若只關(guān)注算法內(nèi)部結(jié)構(gòu)則收效甚微,根植在其內(nèi)部的社會(huì)底層邏輯和數(shù)據(jù)謊言也是應(yīng)予規(guī)制的重點(diǎn)。比較參考國外相關(guān)立法,對(duì)我國法律制定和修改具有借鑒意義,本文關(guān)注到就業(yè)中存在的算法性別歧視問題,也希望對(duì)此提出有效的政策建議。

修正社會(huì)底層邏輯,釋放女性人口紅利

首先,借修訂婦女權(quán)益保障法之契機(jī),明確“對(duì)婦女的歧視”的定義,深化人們對(duì)性別歧視的認(rèn)識(shí),為精準(zhǔn)識(shí)別某項(xiàng)措施或某個(gè)行為是否具有歧視性提供準(zhǔn)繩和規(guī)范依據(jù),以期糾正社會(huì)性別偏見和性別刻板印象。只有明確將“對(duì)婦女的歧視”的定義涵蓋直接歧視和間接歧視,不僅關(guān)注“性別”,還要關(guān)注其造成的“結(jié)果”或負(fù)面影響,以此才能在治理人工智能時(shí)代的隱性歧視時(shí)發(fā)揮應(yīng)有作用。否則,僅靠現(xiàn)有法律規(guī)定,恐難以規(guī)制人工智能帶來的波及面廣、隱蔽性強(qiáng)的歧視問題。如何理解與界定對(duì)婦女的歧視是反性別歧視的核心問題,歧視定義的明確界定可以統(tǒng)領(lǐng)就業(yè)領(lǐng)域的性別歧視治理,有助于法律層面的可操作性和可執(zhí)行性的提升。

其次,糾偏男性化理想工人規(guī)范,肯定和分擔(dān)女性承擔(dān)的生產(chǎn)責(zé)任。馬克思在《德意志意識(shí)形態(tài)》中提出了兩種“生活的生產(chǎn)”的概念,包括通過勞動(dòng)進(jìn)行的自己生活的生產(chǎn)和通過生育進(jìn)行的他人生活的生產(chǎn)。恩格斯則進(jìn)一步將兩種生產(chǎn)解釋為“物質(zhì)資料的生產(chǎn)”和“人自身的生產(chǎn)”,充分肯定了婦女的作用和貢獻(xiàn)。在社會(huì)性別和發(fā)展的視角下,緩解女性的工作—家庭沖突不僅是女性的責(zé)任,更需要包括政府、社會(huì)、企業(yè)界和男女兩性在內(nèi)的多元主體參與和分擔(dān)。政府機(jī)關(guān)應(yīng)通過立法和政策指引推動(dòng)構(gòu)建良性的工人規(guī)范,不以無間斷的職業(yè)生涯為標(biāo)準(zhǔn);用人單位不能僅將利潤奉為“真理”,也須承擔(dān)相應(yīng)的社會(huì)責(zé)任。

跨越性別數(shù)據(jù)鴻溝,向高質(zhì)量數(shù)據(jù)轉(zhuǎn)型

一方面,為避免大數(shù)據(jù)時(shí)代女性就業(yè)數(shù)據(jù)的缺失,既要從根源上提升女性地位以增加女性就業(yè)數(shù)據(jù),消除“性別數(shù)據(jù)鴻溝”;也要認(rèn)識(shí)到大數(shù)據(jù)固有的異質(zhì)性、噪聲累積性、虛假相關(guān)性和偶然的內(nèi)生性。因此,要將重點(diǎn)從大數(shù)據(jù)轉(zhuǎn)移到高質(zhì)量數(shù)據(jù),更新數(shù)據(jù)觀念和處理方法,從根本上改變單向單邊思維,強(qiáng)化對(duì)數(shù)據(jù)的性別平等性檢驗(yàn)和定位范圍的縮小,才能確保“性別平等觀”在數(shù)據(jù)中得以體現(xiàn),由此數(shù)據(jù)訓(xùn)練的算法才能保證其具有平等完善的性別倫理觀。具體來說,在進(jìn)行數(shù)據(jù)分組時(shí),不簡單的以男性和女性為分類標(biāo)準(zhǔn),以排除數(shù)據(jù)異質(zhì)性對(duì)分析結(jié)果的影響,而是盡可能多的分組,在數(shù)據(jù)層面挖掘女性個(gè)體職業(yè)特征和需求;在選擇變量時(shí),應(yīng)注重獨(dú)立性篩選,以防過去職業(yè)數(shù)據(jù)中的虛假相關(guān)性和偶然同質(zhì)性影響人工智能深度學(xué)習(xí),避免其做出職業(yè)與性別間錯(cuò)誤相關(guān)性的判斷分析。

另一方面,加強(qiáng)數(shù)據(jù)質(zhì)檢,規(guī)避人工清洗和數(shù)據(jù)標(biāo)識(shí)過程中可能嵌入的性別歧視。由于現(xiàn)階段人工智能算法應(yīng)用的數(shù)據(jù)更多由人工進(jìn)行清洗和標(biāo)注,人類內(nèi)隱偏見驅(qū)動(dòng)的無意識(shí)歧視可能嵌入其中。因此,在數(shù)據(jù)清洗和標(biāo)注工作完成時(shí),數(shù)據(jù)的質(zhì)檢流程就更顯重要?,F(xiàn)在的數(shù)據(jù)質(zhì)量檢測(cè)主要注重在數(shù)據(jù)完整性、一致性和準(zhǔn)確性三方面評(píng)估是否達(dá)到預(yù)期的質(zhì)量要求。從注重性別平等觀念的視角來說,企業(yè)在進(jìn)行就業(yè)數(shù)據(jù)檢測(cè)時(shí)還應(yīng)當(dāng)注重性別平等性檢測(cè),通過女性就業(yè)數(shù)據(jù)分析判斷女性是否受到不應(yīng)有的區(qū)別、排斥或限制,或者產(chǎn)生妨礙、否認(rèn)女性依法享有和行使權(quán)利的后果。

以技術(shù)批判為指導(dǎo),深度規(guī)制算法歧視

通過上述分析,我們確立以技術(shù)批判理論作為對(duì)弱人工智能時(shí)代算法歧視規(guī)制的技術(shù)哲學(xué)指導(dǎo),理性看待算法并通過制定修改法律全面規(guī)制算法歧視。從比較視野來看,國外規(guī)制算法歧視均從算法倫理教育、透明度和解釋權(quán)、算法問責(zé)等方面展開。本文也將基于上述方面,并以算法設(shè)計(jì)、應(yīng)用、監(jiān)管、責(zé)任承擔(dān)全流程為規(guī)制對(duì)象,探討如何有效有針對(duì)性地規(guī)制就業(yè)領(lǐng)域中的算法性別歧視。

倫理規(guī)范是人工智能發(fā)展的糾偏機(jī)制,現(xiàn)階段預(yù)防人工智能的倫理風(fēng)險(xiǎn)應(yīng)從對(duì)研發(fā)者的拘束出發(fā),必要時(shí)可以采取教育培訓(xùn)等手段向研發(fā)者強(qiáng)調(diào)性別平等、尊重隱私等倫理觀念,使研發(fā)者意識(shí)到他們的工作存在用于惡意目的和性別歧視的風(fēng)險(xiǎn),作為人類未來世界設(shè)計(jì)工程師的一份子,應(yīng)當(dāng)承擔(dān)設(shè)計(jì)性別無偏、人類普遍受益的算法的責(zé)任。性別平等的算法倫理規(guī)范的養(yǎng)成對(duì)強(qiáng)人工智能時(shí)代甚至超人工智能時(shí)代的算法都是十分有益的,只有這樣才能確保人工智能健康可持續(xù)發(fā)展。

為避免“算法黑箱”中滋生的算法歧視,增加算法透明度和賦予個(gè)人“解釋權(quán)”成為一種可信且具有吸引力的規(guī)范措施。因此,在通過算法自動(dòng)化決策作出勞動(dòng)人事決策時(shí),算法設(shè)計(jì)目的、應(yīng)用過程是否考慮到性別因素以及可能暗含性別的因素及其所占的比重應(yīng)予公示,以確保此時(shí)性別信息的使用和處理符合合法、合理、最小必要原則的要求。另外,當(dāng)個(gè)人認(rèn)為在決策過程中受到算法性別歧視時(shí),應(yīng)確保其擁有要求決策者對(duì)其進(jìn)行個(gè)案解釋說明的權(quán)利。通過上述事前和事后規(guī)制,避免女性在勞動(dòng)人事決策過程中受到歧視。

即便為算法設(shè)定性別平等的倫理規(guī)范,謹(jǐn)慎運(yùn)行性別平等的算法邏輯,有時(shí)也未能有效阻止性別歧視的結(jié)果發(fā)生。此時(shí),應(yīng)注重算法運(yùn)行的審計(jì),對(duì)人工智能進(jìn)行性別歧視的運(yùn)行測(cè)試,對(duì)用人單位提出謹(jǐn)慎性義務(wù)。此外,還可以大力提倡算法性別平等的外部審計(jì),通過審計(jì)的用人單位可以獲得認(rèn)證標(biāo)志,為其吸引人才提供競(jìng)爭優(yōu)勢(shì)。

最后,關(guān)于算法性別歧視的歸責(zé)問題。算法侵害具有主體多元、因果追溯困難、主觀過錯(cuò)認(rèn)定困難、自主性引致決策失控的規(guī)則難題。本文認(rèn)為,無論如何,現(xiàn)有法律主體如人工智能的設(shè)計(jì)者、銷售者和使用者都應(yīng)該承擔(dān)相應(yīng)的歧視責(zé)任。由于算法的專業(yè)性和不透明性,受害者舉證困難,因此應(yīng)參照過錯(cuò)推定責(zé)任原則,由算法設(shè)計(jì)方或應(yīng)用方證明其沒有進(jìn)行性別歧視或盡力規(guī)避算法性別歧視但仍未能達(dá)到預(yù)想效果才能免責(zé)。

關(guān)于女性的性別歧視問題,本文所談及之處還遠(yuǎn)遠(yuǎn)不夠,在更深層次的社會(huì)結(jié)構(gòu)中有著難以根除的女性歧視問題。隨著大數(shù)據(jù)算法對(duì)我們的生活產(chǎn)生愈加深刻的影響,借由數(shù)字經(jīng)濟(jì)和智能社會(huì)的深入發(fā)展,人權(quán)發(fā)展格局邁向數(shù)字人權(quán)時(shí)代。但人工智能發(fā)展的不確定性也帶來了歧視數(shù)字化的法律風(fēng)險(xiǎn),不斷呈現(xiàn)出算法權(quán)力對(duì)人的規(guī)訓(xùn),算法“治理赤字”也愈加嚴(yán)重。消除對(duì)婦女一切形式歧視公約第11條第一款規(guī)定:“締約各國應(yīng)采取一切適當(dāng)措施,消除在就業(yè)方面對(duì)婦女的歧視,以保證她們?cè)谀信降鹊幕A(chǔ)上享有相同的權(quán)利”。因此,我國作為公約締約國應(yīng)當(dāng)注重人工智能歧視治理,加快反歧視法律數(shù)字化轉(zhuǎn)型,構(gòu)建以人為本、公正包容的反歧視法律制度。本文希冀借助人工智能時(shí)代的到來,引導(dǎo)算法向善發(fā)展,促進(jìn)性別平等而不是加劇性別歧視,釋放女性人口紅利而不是限制女性進(jìn)步發(fā)展,尊重保障女性人權(quán)而不是加劇數(shù)字性別暴力。