【“ZiDongHua”之自動化決策的人文觀察與思考】目前自動化決策算法的主要應(yīng)用場景有:定制信息的推送、顧問型服務(wù)(如智能投顧、機器人醫(yī)生)、自動化駕駛汽車、搜索引擎服務(wù)等;隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,自動化決策場景增多,引發(fā)的爭議也日趨激烈;算法解釋權(quán)可看作人類為捍衛(wèi)人的自我決定權(quán),對抗數(shù)據(jù)控制者和處理者的一種努力。

 

 

自動化決策的算法解釋權(quán)

——以合同義務(wù)為視角

 

 

  如果說網(wǎng)絡(luò)立法1.0時代美國《千禧年數(shù)字版權(quán)法》建立的安全港制度,旨在保護以信息網(wǎng)絡(luò)傳播權(quán)為主要服務(wù)內(nèi)容的互聯(lián)網(wǎng)企業(yè),那么網(wǎng)絡(luò)立法2.0時代則開啟了以個人數(shù)據(jù)和個人信息為重要保護對象的用戶權(quán)利時代。在這個圍繞數(shù)據(jù)收集、加工、利用和分發(fā)為核心的世界數(shù)據(jù)工廠中,網(wǎng)絡(luò)企業(yè)利益和個人利益的此消彼長既可能影響私法主體的個體利益,也可能影響不特定群體的利益,甚至?xí)|及作為社會基本行為規(guī)范邊界的法律制度。因此,一些早期網(wǎng)絡(luò)立法中不被重視的內(nèi)容才在人工智能技術(shù)圖景日漸擴大的版圖上再次顯露出來,并彰顯了越來越強的重要性。自動化決策的算法解釋權(quán)正是其中之一。

  目前自動化決策算法的主要應(yīng)用場景有:定制信息的推送、顧問型服務(wù)(如智能投顧、機器人醫(yī)生)、自動化駕駛汽車、搜索引擎服務(wù)等。盡管法律本體論專家正在努力將規(guī)范約束植入機器人的開發(fā)協(xié)議或計算機芯片之中,但客觀情況是,法律對產(chǎn)品型算法和服務(wù)型算法采取了完全不同的責(zé)任構(gòu)成要求。換言之,在具有實體基礎(chǔ)依歸或載體的算法責(zé)任事件中,人們過于依賴現(xiàn)行的產(chǎn)品侵權(quán)責(zé)任的立法,而沒有充分考慮自動化決策算法本身的侵權(quán)責(zé)任。盡管機器人醫(yī)生未必在接入互聯(lián)網(wǎng)的狀態(tài)下進行工作,但其所用以訓(xùn)練的數(shù)據(jù)集和執(zhí)行具體手術(shù)的深度學(xué)習(xí)算法,可以很容易地同步該領(lǐng)域最新的線上、線下研究成果。因此,建立在技術(shù)中立原則基礎(chǔ)上的網(wǎng)絡(luò)1.0立法,主要是一種責(zé)任免除型而非責(zé)任構(gòu)成型立法,意圖促進當(dāng)時正處于萌芽和發(fā)展期的互聯(lián)網(wǎng)企業(yè)。然而,隨著時間的推移,不僅資本大舉進入該行業(yè),人工智能技術(shù)的發(fā)展也令算法服務(wù)的相對人在服務(wù)中越來越處于客體化和被邊緣化的地位。算法解釋權(quán)可看作人類為捍衛(wèi)人的自我決定權(quán),對抗數(shù)據(jù)控制者和處理者的一種努力。

  與網(wǎng)絡(luò)立法1.0時代的接入、傳輸、轉(zhuǎn)發(fā)服務(wù)所引起的間接侵權(quán)不同,網(wǎng)絡(luò)立法2.0時代,算法服務(wù)提供者更多地以直接侵權(quán)行為主體的面目出現(xiàn)。算法服務(wù)提供者需要從網(wǎng)絡(luò)用戶的個人信息、行為軌跡,甚至投訴過程中,全方位將用戶作為機器學(xué)習(xí)的樣本、大數(shù)據(jù)的來源、人機交互的模仿對象和虛擬社會構(gòu)建的現(xiàn)實場景。在設(shè)計、制造和完善算法的過程中,在構(gòu)建獨立于現(xiàn)實經(jīng)濟社會之外的虛擬經(jīng)濟社會時,需要近距離觀察、研究、追蹤、分析,甚至是監(jiān)測(如各種傳感器、衛(wèi)星遙感技術(shù)、攝像頭等物聯(lián)網(wǎng)技術(shù))用戶的全場景的活動。這些數(shù)據(jù)的碎片共同構(gòu)成了以自動學(xué)習(xí)算法為代表的智能工業(yè)熔爐的燃料,以甄別、預(yù)測、激發(fā)用戶需求,從而為用戶定制服務(wù)或拒絕服務(wù)。用戶在服務(wù)中的主動權(quán)也不斷被弱化??梢?,上述代表性算法服務(wù)(產(chǎn)品)都可看作一種廣義的算法技術(shù)為核心的服務(wù)合同。由此,算法服務(wù)提供者便具有了合同法上的從給付義務(wù)和附隨義務(wù)。

  出于保護企業(yè)商業(yè)秘密和減輕負擔(dān)的角度,不可能要求提供算法服務(wù)的企業(yè)對所有算法均進行解釋。因此,歐盟對自動化決策的算法解釋權(quán)作出了限制。該制度最早見于歐盟《數(shù)據(jù)保護指令》第15條,由于該條僅規(guī)范特定類型的算法,而訴訟中爭議最大的是決策是否純粹由機器(人)做出。因此,該條款既沒有在歐洲法院受到太多重視,更鮮有被歐洲之外法律制度借鑒。隨著深度學(xué)習(xí)技術(shù)的廣泛應(yīng)用,自動化決策場景增多,引發(fā)的爭議也日趨激烈。

  歐盟《一般數(shù)據(jù)保護條例》在多個條款中規(guī)定了自動化決策算法的問題,包括“鑒于”的第71條(以下簡稱“第71條”),正文的第13條、第14條和第22條。作為同樣以“自動化決定”為標題的條款,第22條在第15條的基礎(chǔ)上沒有增加實質(zhì)性的內(nèi)容,只是補充了明示同意作為不受自動化決定的例外;并在第15條數(shù)據(jù)主體有權(quán)表達觀點之外,增加了對決定提出異議的權(quán)利,將二者概括為獲得人為干預(yù)的權(quán)利。這主要是機器學(xué)習(xí)算法的動態(tài)學(xué)習(xí)程度輸出結(jié)果不確定,人類難以有效監(jiān)督,而人工標簽等歧視性輸入變量,也有導(dǎo)致算法偏見潛在風(fēng)險??梢?,算法解釋權(quán)本質(zhì)是一種基于基本人權(quán)而衍生的意志自決權(quán)和受到公平對待的權(quán)利。有學(xué)者僅以第71條來理解算法解釋權(quán),也有學(xué)者將正式條文的第13條第2款f項和第14條第2款g項的算法邏輯、數(shù)據(jù)處理重要性和后果的告知義務(wù)看作解釋權(quán),還有學(xué)者把第22條解讀為反自動化決策權(quán)。誠然,這幾個與自動化決策算法有關(guān)的條文具有一定聯(lián)系,其區(qū)別于非自動化決策的算法,但它們也有顯著不同。

  《一般數(shù)據(jù)保護條例》第13條和第14條的算法邏輯、數(shù)據(jù)處理重要性和后果的告知義務(wù),是一種未產(chǎn)生不公平后果的一般性的、為保護知情權(quán)的說明義務(wù)。而第71條和第22條則是基于評估結(jié)果做出決定的保障措施及其例外條款。第71條和第22條均以將對數(shù)據(jù)主體產(chǎn)生法律后果或類似重大影響作為前提,并包含了該決定對雙方合同的達成和履行的必要性原則,或決定經(jīng)過數(shù)據(jù)主體明示同意的隱性條件??梢?,第71條承擔(dān)的更多是保護數(shù)據(jù)主體的權(quán)利的立法職能,而第22條則為自動化決策算法設(shè)置了必要性和同意的例外條款。從二者的關(guān)系來看,根據(jù)第71條,即使在例外條款存在時,數(shù)據(jù)主體依然享有解釋權(quán),僅應(yīng)受該決定的約束。如果將第71條第2段看成對算法透明原則進行事先規(guī)定的話,則第71條第1段所指的,對評估后作出的決定做出解釋的算法解釋權(quán),其實是內(nèi)含于對抗自動化決定算法的“適當(dāng)?shù)姆婪洞胧?rdquo;之一,是與明確告知相關(guān)信息并告知其有要求人工干預(yù)、表達觀點、異議權(quán)相并列的一種請求說明的權(quán)利。

  它不同于算法透明原則項下的知情權(quán)。根據(jù)美國計算機協(xié)會2017年公布的算法治理七項原則,知情權(quán)是應(yīng)該披露算法設(shè)計、執(zhí)行、使用過程中可能存在的偏見和可能造成的潛在危害。顯然,它未必與自動化決策和以個人敏感信息評估為前提的決定有關(guān)。而該解釋權(quán)不僅是一種被動性防御的權(quán)利,可視為與表達觀點、提出異議并列的權(quán)利,從而成為獲得人為干預(yù)等替代選擇的基礎(chǔ)。若按這個邏輯進行解釋,可將算法解釋權(quán)看成一種對合同履行行為符合雙方締約目的或合同基礎(chǔ)的說明義務(wù)。由此,作為提供算法服務(wù)的一方主體,根據(jù)《民法典》第496條,對于對方有重大利害關(guān)系的條款,除參考歐盟《一般數(shù)據(jù)保護條例》第13條、第14條進行告知外,還負有法定的說明義務(wù),否則對方可以主張該條款不構(gòu)成合同的內(nèi)容。故算法解釋權(quán)兼具算法服務(wù)者說明義務(wù)與數(shù)據(jù)主體自決權(quán)的雙重屬性。

  《個人信息保護法(草案)》第25條未規(guī)定例外條款,這可能使算法提供者失去了在對方提出異議時,根據(jù)必要性原則和明示同意進行抗辯的可能性。更為重要的是,第25條將限縮了解釋權(quán)的適用場景,僅規(guī)定了產(chǎn)生重大影響,未規(guī)定產(chǎn)生法律效力,且將證明是否重大的舉證負擔(dān)分配給了數(shù)據(jù)主體。這對于數(shù)據(jù)主體行使解釋權(quán)十分不利。第54條要求信息處理者對自動化決策進行事前風(fēng)險評估,并對處理情況進行記錄,這是一種事前的行政性的算法風(fēng)險評估措施,只能從算法設(shè)計角度起到一定的預(yù)防性作用,但不能與個人的具體解釋權(quán)的權(quán)利請求相結(jié)合,仍難以實質(zhì)上成為主張算法服務(wù)提供者進行人工干預(yù),或提供不針對個人特征的選項的條件。盡管第25條第2款規(guī)定了算法服務(wù)提供者進行商業(yè)營銷、信息推送時,提供無個人特征選項的義務(wù),但信息推送服務(wù)以外的人工干預(yù)可能性很難通過對該款的擴張解釋,或根據(jù)第54條的算法評估來實現(xiàn)。

 

  (作者單位:北京化工大學(xué)法律系)