學術堂首頁 | 文獻求助論文范文 | 論文題目 | 參考文獻 | 開題報告 | 論文格式 | 摘要提綱 | 論文致謝 | 論文查重 | 論文答辯 | 論文發表 | 期刊雜志 | 論文寫作 | 論文PPT
學術堂專業論文學習平臺您當前的位置:學術堂 > 畢業論文 > 本科畢業論文 > 法學畢業論文

刑事審判中人工智能技術的權力演化與規制路徑

來源:未知 作者:杜老師
發布于:2021-03-25 共14382字

  摘    要: 刑事智能辦案系統是人工智能技術進入刑事司法場域中的主要表現形式。當前,刑事智能辦案系統主要集中在證據審查判斷、輔助精準量刑、類案推送和案件偏離預警等領域。隨著人工智能技術與刑事司法的深度融合,人的“代具性”原理、自動化偏差認知機制、國家權力的背書與支持、技術外包的研發模式以及系統架構的運行機制等因素推動著智能辦案系統從“工具”向“權力”的演化。同時,刑事審判中人工智能技術的權力化可能會引發規訓風險、排斥風險與誤判風險。為了有效規避刑事審判場域中人工智能技術引發的正當性風險,應當樹立權力規制理念,從智能辦案系統的適用機制、參與機制以及研發機制三方面進行規制。

  關鍵詞: 刑事審判; 人工智能; 技術權力; 智能辦案; 正當程序; 司法裁判權;

  Abstract: Criminal intelligence case handling system is the main manifestation of artificial intelligence technology in the criminal justice field. At present, the criminal intelligence case handling system is mainly concentrated in the fields of evidence review and judgment, auxiliary accurate sentencing, delivery of category cases and warning of case deviation. As the deep integration of artificial intelligence technology and criminal justice deeply, the "prothèse" of technological philosophy , automation bias recognition mechanism, endorsement and support of state power, the model of technology outsourcing and system architecture and so on are driving the transformation of the intelligent case handling system from “tools” to “power”. At the same time, the power of artificial intelligence technology in criminal trials may cause disciplinary risks, rejection risks, and misjudgment risks. In order to effectively avoid the legitimate risks caused by artificial intelligence technology in the criminal trial, the idea of power regulation should be established,and the three aspects of application mechanism of criminal intelligent case handling system,participation mechanism and research and development mechanism should be regulated.

  Keyword: criminal trial; artificial intelligence; technical power; intelligent handling of cases; due process; judicial jurisdiction;
 

刑事審判中人工智能技術的權力演化與規制路徑
 

  2017年初,一則南京中院決定引入智能機器人以提高審判質量與審判效率的新聞刷爆朋友圈1,一時間關于“法官是否會被機器人取代”“機器人審理案件”“案件審理的自動售賣機”等話語成為網絡中的高頻詞匯。這一話題的輿論關注度從側面顯示出了人工智能在刑事審判中應處于何種地位、發揮何種功能的問題,牽動著整個社會的神經。關于這一問題,無論是司法決策層還是學界,都將人工智能技術定位為輔助司法的工具。具體而言,這一觀點的論證思路,即司法案件的裁判并非簡單的三段論式推理,其中仍然蘊含著案件審理法官對案件事實的感官直覺、對法律條文的理解、邏輯思維的應用以及聯想、頓悟等多種心理活動,而當前的人工智能技術尚不具備感性判斷的能力,因而刑事審判中人工智能、大數據技術的應用應當定位于輔助地位。然而,這種論證思路尚處于應然層面的邏輯推演,忽視了辦案法官與智能系統交互過程中面對智能系統自動化決策的心理認知等實然因素,面對智能辦案系統的自主化、智能化不斷提升、人與智能辦案系統聯系愈加緊密的趨勢,智能辦案系統是否依然發揮的是以“工具主義”為核心的輔助功能,以及我們該如何審視與規制刑事審判中的智能辦案系統是本文所要討論的主要內容。

  一、刑事審判中人工智能的應用現狀

  當前,司法領域中的人工智能、大數據技術具體表現為智能辦案系統,例如上海“刑事案件智能輔助辦案系統”、貴州“政法大數據系統”、北京“睿法官”系統等等。根據不同的功能指向,我國當前刑事審判中的人工智能主要應用于以下三個領域。

  (一)輔助證據審查判斷

  上海“刑事案件智能輔助辦案系統”(206系統)是這一功能的典型代表。這一系統主要包括證據標準、證據規則指引,單一證據校驗以及證據鏈和全案證據審查判斷三項功能。首先,就證據指引而言,主要分為證據標準的指引和證據規則的指引,其運行原理是根據不同案件類型,分門別類地對各類案件所應收集的證據形式、證據內容以及收集程序等注意事項進行歸納和總結,形成諸如《上海刑事案件證據收集、固定、審查判斷規則》等文本規則,將其嵌入到智能系統中,在辦案人員的辦案過程中對其進行指引。其次,就證據校驗而言,主要是針對單一證據的審查,主要集中在書證領域,其運行原理是依托人工智能深度學習、智能識別技術,對過往案件中被掃描進系統的相關證據種類進行自主學習,進而能夠定位、識別并提取出各種證據的簽名、印章、手印等,然后再根據相關的證據標準或證據規則校驗其證據的形式、收集是否規范。最后,就證據審查判斷而言,主要是綜合全案證據的審查判斷,其運行原理是智能識別技術定位并抓取證據中曾經出現的相關人物、物品、時間以及地點等要素,在此基礎上分析這些要素之間的相互關系,理清人物關系、運動軌跡以及物品流動軌跡,從而形成關于某一具體案件的具體故事模型,憑此對各項證據之間是否有內在聯系、是否相互印證以及是否有矛盾或疑問進行研判,最終將分析結果提供給司法人員。

  (二)輔助精準量刑

  輔助精準量刑的原理一般是通過“正則表達式、上下文無關文法、命名實體識別等方式提取法律文書的情節信息,之后對提取的信息進行結構化,用數學模型來描述數據的特點和規律,算出與其最相符的數學模型或算法,人工智能通過模擬算法,根據情節推導量刑結果”[1]。以法律智能公司華宇元典公司研發的“元典量刑輔助系統”為例,通過整合人民法院的公報案例、指導案例以及裁判文書網收錄的刑事裁判文書,根據案由和影響量刑的案件要素,對當地法院的生效判決進行過濾篩選,最終由系統給出所選取時期內當地法院就該類型案件和類案的量刑區間分布、集中量刑值、平均量刑值等,如類似情節案件的刑期的“眾數”、最低刑期、最高刑期及平均刑期。讓辦案人員根據具體案件通過界面勾選與自定義檢索相組合的方式進行操作,輔助量刑參考結果更為精確2。

  (三)類案推送與案件偏離預警

  類案推薦、偏離預警是實現同案同判的重要保障。一方面,當前各地法院的智能系統中,類似案件的推薦功能是最為常見的功能之一,北京、上海、江蘇等地法院均有使用。類案推薦功能實現的前提是構建同類案件的知識庫(數據庫),一般是通過搜集同類案件海量的裁判文書,提取其中最為相似的案件情節的方式完成。在此基礎上,類案數據庫根據法官所辦的具體案件,為其推送與之最為相似的歷史案件以供法官參考。另一方面,偏離預警是指人工智能依據算法推測的結果與法官裁判的裁判結果進行比較,在上海、江蘇、浙江、貴州、云南等地的法院的智能輔助系統中,都包含著案件偏離預警的功能模塊。主要分為實體偏離預警與程序偏離預警。前者是智能系統對案件實體裁判,例如罪名認定是否正確、證據形式是否合法、證據鏈條是否完整以及量刑幅度是否合理等與案件實體判決相關的問題進行比對的偏離預警。后者是智能輔助系統對法官辦理案件的時限、步驟等程序性規定,與系統的相似案件辦理的程序性規定比對,對案件辦理的全流程進行預警。

  總而言之,目前智能辦案系統是技術與司法深度融合的產物。一方面,智能辦案系統與系統操作者之間的關系更為緊密,二者呈現出相互依存、彼此塑造的交互關系。智能辦案系統的運行離不開系統操作者與系統之間的雙向問答,智能辦案系統根據操作者的勾選指令進行即時反饋,以滿足系統操作者的預期需求。另一方面,目前的刑事司法人工智能已經擴展到證據審查判斷、類似案件推送、社會危險性審查以及案件辦理糾偏預警等領域,逐步深入到法官的心證及自由裁量的過程。面對人工智能在刑事司法領域高歌猛進的態勢,難免引發人們對智能辦案系統分割甚至架空司法裁判權的隱憂,“法庭正暗地里將做出裁判的權力托付給沒有政治合法性的外人。難道法庭名義上的助手成了它背后的主宰者嗎?”[2]210在權力理論的視角里,這一擔憂似乎正在成為可能。

  二、刑事審判人工智能技術的權力演化

  進入數據社會之后,數據逐漸成為資源、財產甚至社會的建構力量,而處理海量數據所需要的計算能力已經遠超人工計算水平,因而人類對這些數據資源的利用與分配逐漸讓位于智能算法,在這一過程中算法呈現出具有支配性力量的權力化趨勢。這種權力更傾向于福柯眼中的權力范式,身處權力場域中的人對這種權力難以察覺,這種網絡化、彌散化的權力猶如毛細血管一樣滲入到刑事審判場域的各個角落,通過對人進行監控、規訓以及控制的方式實現支配控制。

  (一)人的“代具性”:人工智能技術權力演化的哲學根基

  從技術哲學的角度而言,人對技術的依賴從哲學層面解釋了人工智能技術可能對人產生的支配關系。法國當代技術哲學家貝爾納·斯蒂格勒在論述人與技術的關系時提出了人的“代具性”概念,代具(prothèse) 原意是指用于替代人肢體的器具(例如肢體殘疾的人所使用的假肢),斯蒂格勒借此概念來泛指用于補遺的、人身體之外的一切技術物。斯蒂格勒認為沒有屬性就是人的第一屬性,這種天生的、原始性的缺陷是人之所以為人的本質屬性,這就要求人不得不發明和利用技術來補救、超越自身的天生缺陷,所以說超越這種缺陷是人之為人的首要條件[3]312,進而人也成為技術性的存在。因而,人與技術則形成一種既相連又相離的關聯,離開技術,人就不存在,因為人的生命的延續需要以生命之外的技術為前提。反之,離開人,技術也不存在,因為技術的存在,需要人的能力作為超前動力[4]。“人的代具性”為審視裁判者與刑事審判智能系統的關系提供了新的視角,人對技術天生的依賴性使得裁判者在應用智能系統時,它們之間所形成的并非是一種“法官—輔助工具”的二元關系,而是法官與刑事審判輔助系統協作互補的一體關系,智能系統所擁有的文書自動生成,類似案例推薦、證據形式審查、證據標準、規則指引等功能補救了法官作為個人在面對繁瑣海量復雜的審理業務時體力與腦力的不足與缺陷,同時這種智能辦案系統的功能在潛移默化中成為如同辦案法官手足的一部分。

  (二)自動化偏差:人工智能技術權力演化的認知基礎

  計算機技術、人工智能等一批具有自主性技術的普及與出現,推動了傳統的認知科學、計算機科學以及工效學的交叉融合,以應對自動化時代人機關系研究的需要,從而催生出了“認知工程學(Cognitive Engineering)”。認知工程學中的“自動化偏差”現象揭示了人對智能機器的偏信心理。具體而言,自動化偏差指的是人們一般傾向于將計算機生成(computer generated)的結論認定是正確的,并且不進一步探究或者直接忽視可能與計算機系統生成結論相異的其他信息[5]。在刑事司法領域,美國學者的一項實驗[6]也驗證了智能系統的“自動化偏差”心理對裁判者決策的影響3。

  (三)國家權力:人工智能技術權力演化的權力基礎

  一方面,國家權力為刑事審判人工智能的正當性提供話語保障。2016年7月,在由中共中央辦公廳、國務院辦公廳印發的《國家信息化發展戰略綱要》中,“智慧法院”成為國家信息化發展戰略的重要組成部分,“建設智慧法院,提高案件受理、審判、執行、監督等各環節信息化水平,推動執法司法信息公開,促進司法公平正義”。2017年5月,周強在全國法院第四次信息化工作會議上指出:“建設智慧法院,是順應新一輪科技革命浪潮的必然選擇,是提升司法公信力的重大舉措,是提升人民群眾獲得感的有效手段,是深化人民法院司法改革的重要支撐。”從政治系統到司法高層都為刑事審判中智能辦案系統的應用提供了充分的話語準備,為其運行的合正當性與合法性提供了背書。

  另一方面,國家權力為算法權力提供司法數據保障。算法的運行離不開數據的“喂養”。在萬物皆可數據化的時代,刑事司法大數據成為司法機關握有的特殊權力資源。司法領域內形成的數據資源不同于以社會為背景的大數據資源。一是司法大數據的占有主體具有單一性,司法大數據的占有主體僅為司法機關,辯護律師、訴訟當事人以及其他社會組織能夠通過裁判文書公開網等司法公開途徑獲取司法數據,但是這樣獲取的司法數據是十分有限的,例如裁判文書公開網公開的僅僅是判決書與裁定書,而與案件相關的其他訴訟文書,如審判委員會的會議紀要、合議庭會議記錄以及法院的案件審結報告等文件則未予公開。二是司法數據與社會數據之間數據流動的單向性。為保障案件認定的準確性,司法大數據能夠主動吸納與犯罪嫌疑人、被告人有關的社會數據,而司法數據因其特殊性并不會流向社會為公眾所知,例如刑事被追訴人的軌跡數據信息、賬單數據信息以及音視頻數據信息等會因刑事訴訟的進行而進入司法場域,成為案件辦理的重要數據資源,在此基礎上形成的數據信息則在圈存在司法場域內。

  (四)技術外包:人工智能技術權力演化的知識基礎

  技術“外包”(outsource)是目前刑事司法領域智能系統所采取的普遍的研發模式。所謂技術“外包”是司法機關將審判智能系統研發所依賴的專業技術交由司法機關以外的數據服務商或者科技公司等主體,司法機關主要提供司法活動中產生的大數據,同時向技術公司準確描述智能系統所應具備的目標需求。

  當前各地法院智能辦案系統合作研發情況如表1所示。

  表1 法院智能辦案系統合作研發情況
表1 法院智能辦案系統合作研發情況

  技術“外包”的研發模式是智能系統研發中公私主體的一次合作,但更為重要的是,這一過程中存在著法學專業知識與智能技術知識兩套知識體系的分野,這種專業精細的學科知識為刑事審判場域算法權力的產生提供了知識基礎。法國哲學家福柯認為權力與知識二者密不可分,相互勾連,知識造就權力,權力生產知識[7]20-25,可以說掌握專門知識的人就是掌握權力的人。

  從目前刑事審判智能系統的研發實踐來看,科學技術知識與法學專業知識之間在一定程度上處于隔絕的狀態[8],法學專業知識與智能算法的契合度較低,這兩套知識體系的差異形成了智能算法技術對司法人員的支配和控制。辦案法官并不了解智能系統的運行原理,智能辦案系統在收集、篩選以及處理數據時因“黑箱原理”難以完整呈現其具體運算過程,加之前文提及的“自動化偏差”認知機制的影響,法官無法對智能系統生成的結論進行深刻的批判與質疑,最終使得法官臣服于智能系統算法決策的結果。這種技術“外包”研發模式所導致的法學知識與智能算法知識之間的不平等性,推動了刑事審判場域中智能系統的權力化。

  (五)系統架構:人工智能權力演化的現實動力

  架構,又稱軟件架構(software architecture),是計算機科學中的專業術語,架構并非軟件,而是軟件設計的宏觀策略,為特定問題提供抽象解決方案。架構的本質是其所包含的解決特定問題的既定路徑或預設步驟所產生的剛性效力,核心在于對架構內行為主體的規制作用。人工智能時代,算法搭建了諸如淘寶、亞馬遜以及臉書等一系列電商平臺、社交媒體等系統架構,這些系統架構規范著系統內用戶的具體行為。以亞馬遜公司的“混沌存儲算法管理倉庫”為例,在此智能倉庫內,貨物先由算法根據其體積、種類以及貨架空間進行擺放、存儲,人工通過算法定位所需貨物,根據架構指引進行取貨調貨,這一過程可以說是人的行為受到了系統架構的支配[9]。

  具體到刑事審判領域,以“上海刑事案件智能輔助系統”為例,這一系統也可以看作是一個系統架構,該系統為實現刑事證據標準的指引功能,預先設定了實現該功能的路徑與規則,例如先根據地方司法機關制定的類案證據標準構建不同案件的證據模型,根據不同模型形成刑事案件證據指引的知識庫,在此基礎上根據刑事訴訟活動不同階段的不同證據標準,將知識庫嵌入系統,對辦案人員的證據收集行為進行引導。在這一過程中,智能辦案系統產生了對辦案人員的約束力,這一系統會對辦案人員收集的證據進行校驗和審查,如果證據出現瑕疵,除非司法辦案人員能夠對瑕疵證據進行補正或說明,那么該系統就會自動阻斷證據進入下一個階段。在司法實踐中可能出現辦案人員為了使證據標準能夠符合系統要求,不得不按照系統的要求再次進行證據收集與補正,在這一過程中,刑事審判智能系統憑借架構優勢所形成的規范效力,支配著辦案人員現實的證據審查行為。

  三、刑事審判人工智能權力化的正當性風險

  人工智能技術作為不同于刑事司法的社會系統,其并不具備傳統刑事審判的中立、公開、準確等正當性品格,反而可能會對其造成侵蝕或不當干預。因而,有人將數據時代的人工智能算法稱為“數字殺傷性武器”,隨著人工智能技術與刑事司法的深度融合,其引發的正當性風險也將逐漸顯現。

  (一)規訓風險

  人工智能技術權力作為一種彌散于刑事審判場域的權力范式,其與作用主體之間形成了“泛在”的權力關系,表現為對人或主體無處不在的引導或操縱,這種“無意識”的權力治理術規訓著法官在裁判過程中的自主性。

  一是智能辦案系統對法官裁判行為的引導作用。智能辦案系統的證據指引、量刑輔助以及類案推送功能通過構建數據模型實現對法官辦案行為的導引,這種數據模型形塑了法官辦案的行為。法官在智能辦案系統中無外乎一個助推系統運行的“零件”,無論辦案法官自身有著怎樣的辦案慣習,在智能辦案系統整齊劃一的運行指令下,他們認知案件事實的步驟必須滿足智能辦案系統的要求,司法辦案人員的行為受到智能辦案系統的調控與約束,法官的主體性在這一過程中可能會遭受消解,導致機械司法的出現。

  二是智能辦案系統對法官裁判行為的監督作用。大數據技術能把法官在辦案過程中所生成的全部數據悉數保存,形式不僅局限于以往審結率、上訴率等以數字呈現的數據,同時也包括如法官的庭審視頻、語音記錄以及電子卷宗等等,法官無異于置身巨量數據所形成的“數據牢籠”之中。仍以上海206系統的偏離預警功能為例,“在法官決定判決時,寫好判決書放入系統里,系統會自動提示跟本院以及上級法院有將近85%的類似情況下的判決是不一樣的,問法官是否堅持這樣做,若堅持該判決,那么系統將自動把判決推送給庭長以供討論。”4這種智能辦案系統的監測預警功能與辦案法官之間形成了微妙的控制關系,智能辦案系統通過對法官判決的監測,可能成為規訓法官裁判符合其預警標準的調控技術。

  (二)排斥風險

  隨著智能辦案系統逐漸深入刑事審判程序的關鍵領域,諸如刑事證據審查、輔助量刑等關切刑事被追訴人程序性權利與實體性權利的決策由智能系統作出,然而智能辦案系統排斥刑事被追訴人參與到司法決策的程序中。

  一是算法黑箱限縮了刑事被追訴人行使程序性權利。智能辦案“算法黑箱”的封閉性加劇了刑事審判中控辯雙方信息不對稱的狀況,使本就處于弱勢地位的刑事被追訴人難以行使程序性權利。以質證權為例,最高人民法院《刑事訴訟法解釋》第六十三條規定:“證據未經當庭出示、辨認、質證等法庭調查程序查證屬實,不得作為定案的根據,但法律和本解釋另有規定的除外。”證據質證是被追訴人程序參與,實現庭審實質化的重要方式,被告人行使質證權的前提是能夠提前獲知控方證據的具體信息,作為質證意見的依據。但是,面對控方借由智能系統生成的指控證據,由于算法黑箱的存在,被追訴人難以獲知智能系統生成結論依賴的海量數據及智能算法,即便能夠獲知這些信息,被追訴人也缺乏相關知識進行計算和理解。例如在一起涉稅案件中,整個案件涉及的資金流水數據達到上億條,賬戶數據上萬個,憑借人力難以進行梳理與分析,檢察機關通過搭建數據模型,利用數據挖掘等技術刻畫了資金來源和去向的案件網絡[10],面對這一案件中數據模型生成的關于資金網絡的證據材料,數據量巨大,數據關系復雜,被告人及辯護律師難以對其有效進行質證。

  二是智能系統的商業秘密特免權排斥刑事被追訴人獲知智能辦案系統的代碼信息,被追訴人難以參與到事關自身權益的決策程序中。這一現象在國內并未引發爭議,在國外已經成為智能辦案系統妨礙被追訴人正當程序權利的爭論焦點[11]。當受智能辦案系統決策影響的刑事被追訴人提出公開智能辦案系統源代碼(source code)的請求時,這些商業科技公司以這些代碼屬于本公司的商業秘密,應享有商業秘密特免權(trade secret privilege)保護為由拒絕公開智能辦案系統的代碼信息,并且這一主張得到了法院的支持。今后,商業秘密特免權在我國很可能成為橫亙在智能辦案系統與刑事被追訴人之間的鴻溝。2014年以來,我國人工智能專利授權量增速較快,國家知識產權局發布的最新數據顯示,截至2017年我國人工智能專利授權量達到17 477件,其中基礎算法專利授權量為1 378 件,占比7.9%,同比增長 71.6%,從人工智能專利的申請主體而言,2017年排名前20的中國申請人僅中國科學院為科研單位,其余均為企業申請人5。同時,我國刑事訴訟法第五十四條第三款規定:“對涉及國家秘密、商業秘密個人隱私的證據,應當保密。”這種商業秘密特免權在今后可能成為被追訴人參與智慧司法決策的阻礙。

  (三)誤判風險

  科技系統與司法系統分屬兩個不同的社會子系統,二者在目標利益與運行邏輯上差異較大,例如科技注重對效率的追求,司法更強調公平而兼顧效率,這在刑事司法領域可能導致誤判的風險。

  一是智能辦案系統的轉譯模式導致的誤判風險。在刑事司法場域,為了保障智能算法能夠識別法律文本,需要對其進行代碼化轉譯。一方面,從法律文本的轉譯主體而言,智能系統的設計工程師和程序員將法律規范及相關司法解釋轉譯為能夠被算法識別運算的程序代碼。但是,程序員并非法定的立法主體和法律解釋主體,同時其也缺乏相關的法律知識,在轉譯的過程中程序員可能會曲解、簡化法律文本,存在著被程序員簡化或誤讀而改變立法原意的風險。例如,在美國,從2004年9月到2007年4月之間,程序員將900多條理解錯誤的法律規范編寫嵌入到科羅拉多州的公共福利系統(CMBS)中,這一失誤波及所有受該系統影響的人群,造成了成千上萬受該系統配給社會福利的人喪失了公共福利待遇[12]。另一方面,法律文本轉譯的遲滯性問題可能會帶來智能辦案系統的準確性降低。政策法規向計算機代碼的轉換之間具有一定的時間差,一些新近修訂的政策法規無法及時嵌入自動化決策系統從而導致系統決策準確性降低。

  二是智能辦案系統的數據處理方式導致的誤判風險。一方面,在數據輸入層面,刑事司法人工智能離不開司法大數據的喂養,在數據與智能的關系上,即“rubbish in,rubbish out”(垃圾進,垃圾出),司法大數據的質量一定程度上決定了司法人工智能決策的質量。我國目前司法大數據仍然存在著不充分、不真實、不客觀以及結構化不足的特點[13],匱乏且低質的數據輸入難以保障智能辦案系統的準確性。另一方面,在數據處理層面,如果說數據是人工智能運行的“燃料”,那么處理數據的算法即是人工智能的“引擎”。在智能時代,算法已經逐漸脫離“技術中立”的價值立場,一些對性別、地域、種族等因素的預設觀念在進行算法設計的同時也被植入到智能辦案系統中,由此導致的“算法偏見”“算法歧視”問題也成為掣肘智能系統辦案準確性的重要因素。

  四、刑事審判中人工智能技術的規制路徑

  面對刑事審判場域中人工智能的權力化趨勢,人工智能規制更應注重技術的權力傾向以及由此引發的對相關主體的引導與操控。因而,刑事審判場域中人工智能技術的規制應主要從智能系統的操作主體——裁判者、智能系統的作用對象——辯護方以及智能系統自身三方面展開。

  (一)裁判自主化的適用機制

  首先,根據案件類型合理安排智能系統的適用。目前,我國刑事輔助辦案智能系統主要具備證據標準指引查驗、量刑輔助以及案件裁判偏離預警等功能,但是目前刑事智能系統的發展尚不完善,仍舊存在著案件情節提取準確度不足、類案識別準確率偏低以及模型訓練的樣本瑕疵等問題。為了保障準確審判案件,保障被追訴人的合法權利不受智能系統決策的影響。一方面,根據案件的復雜程度以及量刑幅度決定是否適用智能系統輔助決策。倘若案件情節復雜、量刑可能偏高的案件應當減少智能系統的使用。另一方面,根據案件中被告人及辯護人的認罪態度決定是否適用智能輔助系統。若被告人不認罪或者辯護人做無罪辯護的,法院不宜使用智能系統,防止智能系統產生的決策在認知偏差的作用下使法官產生預判從而導致未判先決的情況發生[14]。

  其次,根據智能辦案系統的功能合理選擇智能系統的適用。根據目前智能系統的功能,可以將其分為預警性功能與引導性功能,前者如案件審判偏離預警、量刑幅度預警,主要提醒裁判者案件審理的程序或實體性事項,注重防錯糾偏,這種功能往往集中于事后糾偏,對裁判自主性影響相對較小;后者如證據審查指引、量刑輔助以及類案指引等,這類功能傾向于事前引導,可能會對裁判者產生心理錨定,影響司法權的自主運行。因此,對于預警性功能而言,裁判者要認真比對、核查人工決策與系統預警之間的差異,依據系統的預警提示作出的更改應當標注留痕。對于引導性功能而言,可以借鑒美國法院使用COMPAS系統的經驗,可以對裁判者提供辦案系統局限性的書面提示(written advisement of its limitation),告誡智能系統的操作者(法官)該系統的準確性、透明性尚不完備,系統決策僅具有參考意義,在參照決策時應當審慎。

  最后,裁判者應提升自身的綜合素養。刑事智能系統對裁判者的控制支配源于裁判者的法學知識與算法的編碼知識之間的專業槽,這種專業之間的差距形成了算法對裁判者的相對權威,破解這種權力關系的途徑即是裁判者在自身的專業技能之外,能夠對大數據、智能算法以及辦案過程中應用到的智能系統的工作原理有一定的了解,提高對刑事司法智能系統決策的認知水平,逐漸破除因知識權威而形成的對智能系統的神秘感與依賴感。

  (二)辯方平等化的參與機制

  首先,拓寬智能辦案系統的公開途徑。一是制作并公開刑事司法智能系統的操作指南。美國刑事司法領域中COMPAS系統的操作指南(Practitione’s Guide to COMPAS Core)即面向全社會公開,這份指南由Northpointe公司編寫,一共分為六部分,對COMPAS系統的歷史發展、系統構成、主要功能、運行原理、系統估值含義以及系統決策的正確率與可靠性作了全面詳細的介紹與論證6。我國的刑事司法智能系統目前尚未有公開的操作指南,可以根據智能系統的具體功能制作并公開完備的系統操作指南。二是設置智能系統的算法研發聽證程序。可以設立刑事司法智能系統算法評估委員會,委員會里應當有技術專家、法學專家、社會公眾代表等人員的參與,就數據來源、數據提取和刪除標準、數據賦權比重、算法種類選取、算法運行一般原理以及智能系統主要功能指向等問題展開介紹與討論,這樣可以在一定程度上增強智能系統的透明性,同時也使自身利益受智能算法影響的訴訟當事人更易接受智能辦案系統的決策結論。三是關于智能辦案系統代碼商業秘密保護的問題。根據我國《刑事訴訟法司法解釋》第六十八條規定:“公開審理案件時,公訴人、訴訟參與人提出涉及國家秘密、商業秘密或者個人隱私的證據的,法庭應當制止。有關證據確與本案有關的,可以根據具體情況,決定將案件轉為不公開審理,或者對相關證據的法庭調查不公開進行。”這一規定旨在通過不公開審理等程序性技術措施緩解因商業秘密保護帶來的訴訟困難,因此當刑事被追訴人提起公開智能辦案系統相關涉及商業秘密信息的請求時,可以通過不公開審理、不公開法庭調查等方式將商業秘密規制于庭審范圍內,保障智能辦案系統的核心算法信息僅在控辯之間公開。

  其次,保障刑事被追訴人能夠有效參與智能系統的權利。從數據層面而言,被指控人的辯護律師可以請求查看、修改、更正以及解釋智能系統中與自身權益相關的數據。我國刑事訴訟法第四十條規定:“辯護律師自人民檢察院對案件審查起訴之日起,可以查閱、摘抄、復制本案的案卷材料。其他辯護人經人民法院、人民檢察院許可,也可以查閱、摘抄、復制上述材料。”這一規定賦予辯護律師的閱卷權可以作為刑事被追訴人要求獲知智能系統內相關數據的依據。例如辯護律師可以對系統中所錄入的前科信息、戶籍信息、工作信息以及教育水平等信息進行核查與校正,保障數據的真實性與準確性。從算法層面而言,可以賦予被指控人算法解釋權。算法解釋權是誕生于民商事糾紛領域內的請求性權利,其在自動化決策領域維護著雙方地位平等的法律價值,在刑事司法領域,由于智能系統導致控辯審在信息收集、分析能力上的不對稱的現象,司法機關應當對智能系統的算法進行解釋。具體而言,解釋的主體包括智能系統的使用者和研發者;解釋的內容應當主要包括輸入的數據類型、算法的運行原理、智能辦案系統的主要功能、智能辦案系統的結論與現實決策之間的關聯性等;解釋的標準是以受系統決策影響的被指控人及其辯護律師能夠理解為限度,鑒于算法黑箱與技術專業性,解釋主體不必確切描繪系統運算的具體過程細節;解釋的方式可以通過口頭解釋或者通過可視化的動畫演示。

  最后,司法機關應當履行告知義務。刑事被指控人應對智能系統抗辯權的行使離不開司法機關的有效告知。司法機關在應用刑事智能系統之前,尤其是在影響被指控人權利的領域,例如輔助量刑時,應當告知犯罪嫌疑人、被告人其司法決策的決定過程摻入了智能系統的計算結論。例如公訴機關應用智能系統量刑輔助功能制作量刑建議書時應當告知犯罪嫌疑人,法官在應用智能系統進行證據查驗、量刑輔助或者被告人的再犯可能性審查時,也應當告知報告人。如果犯罪嫌疑人、被告人及其辯護律師明確表示不愿意適用智能系統的自動決策結論,應當尊重其選擇,退出依靠智能系統輔助司法決策的決議過程,進行人工審查決策。

  (三)決策可靠化的研發機制

  首先,提高刑事司法智能系統的技術研發水平。一是提高司法大數據數量與質量。目前我國刑事司法智能系統的可輸入運算的數據量仍較小,上海刑事案件智能輔助辦案系統僅學習了1.5萬份卷宗材料,這一問題應當給予司法機關和技術部門一定的時間尋求技術上的突破,中國的司法數據是較為豐富的,我國法院系統也正在不斷地將過往裁判文件數據化。同時,應當注意輸入系統內的數據與案件事實的相關性、地域差異性等因素。二是保障法律文本向程序代碼轉譯的準確性。一方面,司法機關要主動對嵌入系統中的法律文本進行篩選,對已經失效或修訂過的法律規范進行剔除與校正,對智能系統進行周期性評測,保障系統運算結果的準確性。另一方面,應當促進法學知識與算法知識的融合,技術人員對法律文本進行代碼化的過程中,司法人員應當介入并對相關專業術語作出解釋,將司法專業知識與司法實踐知識結合,將司法理論知識與計算機科學知識結合,確保辦案系統研發的專業性與準確性。

  其次,對刑事司法領域中的智能系統進行第三方評估監管。第三方監管評測是國外規制刑事司法風險評估工具的常見舉措。例如,哈佛大學法學院開展了對美國若干州內審前風險評估工具效能評估的項目,對美國若干州內的公共安全評估(public safety assessment,PSA)系統的功效進行評測,目的是為了測試風險評估工具生成的審前羈押決策(pretrial incarceration decisions)的準確性和實效性7。我國可以考慮將科研院所、高校以及非盈利機構作為智能辦案系統評估的主體,將智能系統的數據采集、算法模型選取以及系統決策錯誤率作為評測的主要內容,對國內刑事智能辦案系統的可靠性進行評測。此外,應當注意的是第三方評估的周期性,應當定期開展系統評估,為司法機關與技術部門提供長效穩定的評估報告。

  參考文獻

  [1] 王祿生.司法大數據與人工智能開發的技術障礙[J].中國法律評論,2018(2):46-53.
  [2] 達馬斯卡.漂移的證據法[M].李學軍,等譯.北京:中國政法大學出版社,2003.
  [3] 貝爾納·斯蒂格勒.技術與時間:愛比米修斯的過失[M].裴程,譯.上海:譯林出版社,2000.
  [4] 顧世春.斯蒂格勒人的代具性思想研究[J].創新,2017(2):54-58.
  [5] CUMMINGS M L .The social and ethical impact of decision support interface design [C]// Waldemar K.International encyclopedia of ergonomics and human factors, London and New York: Taylor and Francis, 2006.
  [6] STARR S B. Evidence-based sentencing and the scientific rationalization of discrimination [J]. Stanford Law Review, 2014, 66(4):867-869.
  [7] 福柯.規訓與懲罰[M].劉北成,楊遠嬰,譯.上海:上海三聯出版社,2012.
  [8] 王祿生.大數據與人工智能司法應用的話語沖突及其理論解讀[J].法學論壇,2018(5):137-144.
  [9] 張凌寒.算法權力的興起、異化及法律規制[J].法商研究,2019(4):63-75.
  [10] 何家弘,鄧昌智,張桂勇,等.大數據偵查給證據法帶來的挑戰[J].人民檢察,2018(1):54-57.
  [11] WEXLER R. Life, liberty, and trade lecrets: intellectual property in the criminal justice system [J]. Stanford Law Review, 2018,70(3):1343-1429.
  [12] CITRON D K.Technological due process [J].Washington University Law Review, 2008(6):1249-1313.
  [13] 左衛民.關于法律人工智能在中國運用前景的若干思考[J].清華法學,2018(2):108-124.
  [14] 馬靖云.智慧司法的難題及其破解[J].華東政法大學學報,2019(4):110-117.

  注釋

  1南京法院擬引入機器人輔助判案:“阿爾法”是替身還是幫工?[EB/OL].(2016-12-30)[2021-01-24].https://www.thepaper.cn/newsDetail_forward_1590536.
  2量刑建議法院采納率97%,元典量刑輔助系統助力認罪認罰從寬改革[EB/OL].(2019-05-09)[2020-07-10].https://mp.weixin.qq.com/s/lYtqemeZncaHABZNsnR8zg.
  3 “再犯風險預測工具”(Recipism Risk Prediction Instrument,RRPI)是美國刑事司法為保障量刑的準確性而采取的、對被告人的再犯風險進行預測的智能化工具。該工具根據被告人的職業背景、婚姻狀況以及教育程度等因素將被告人的再犯風險量化為低中高三種檔次,法官在量刑時根據具體的量化風險作為其量刑決策的參考。美國密歇根大學法學院斯塔爾教授為了考察RRPI對司法決策的影響,將83位法學生分為A、B兩組,其中A組43人,B組40人,并將智能系統與案件背景等相關情況對兩組學生進行了告知,唯一不同的是:A組在進行量刑決定時不會獲取RRPI的計算結果,B組在進行量刑決定時會參考RRPI的計算結果。斯塔爾教授提供了兩則案例,羅伯特與威廉分別是實驗中兩例案件的被告人,他們所犯刑事案件的案由相同,即盜竊價值十萬美元的珠寶。他們都被判處相同的罪名(重大盜竊罪),兩人皆無犯罪前科(只不過其中一人之前因未到法定飲酒年齡飲酒被判處過輕罪),兩人都是男性并且二者的種族并未告知被測試者。但是羅伯特與威廉兩人的個人情況差別極大:羅伯特,中年人,已婚,大學學歷,珠寶連鎖店主管,犯罪動機是為自己的女兒籌集大學學費,其犯罪經過精心策劃,將珠寶首飾盜取后,又用贗品予以代替并售賣,掩飾其犯罪行為;威廉,21歲,單身未婚,無業,酗酒,最近被父母趕出家門,在商場尋找零售工作時看到珠寶展示柜臺被打開,遂生歹意,因而當即決定盜取大量珠寶首飾。經過RRPI的計算,羅伯特的再犯風險等級處于“低等”,威廉的再犯風險等級處于“中高等”。最終,在A組中,17人決定判處羅伯特更長的刑期,13人決定給予判處二人相同的刑期,13人決定判處威廉更長的刑期;在B組中,僅有8人決定判處羅伯特更長的刑期,9人決定判處二人相同的刑期,23人決定判處威廉更長的刑期。
  4最高法司改辦何帆:中國法院正努力把人工智能引入辦案系統[EB/OL].(2017-07-29)[2021-1-24].http://finance.sina.com.cn/roll/2017-07-29/doc-ifyinryq7012174.shtml.
  5國家知識產權局規劃發展司.2017年我國人工智能領域專利主要統計數據報告[EB/OL].(2018-10-18)[2021-01-24]https://www.cnipa.gov.cn/20181114100805476353.pdf.
  6Practitioner’s guide to COMPAS core , northpointe[EB/OL](2015-03-19)[2021-01-24].https://assets.documentcloud.org/documents/2840784/Practitioner-s-Guide-to-COMPAS-Core. pdf.
  7Pre-trial release, access to justice lab at Harvard Law School[EB/OL].[2021-01-24]http://a2jlab.org/current-projects/ signature-studies/pre-trial-release/.

作者單位:中國政法大學證據科學研究院
原文出處:衛晨曙. 刑事審判人工智能的權力邏輯[J]. 西安交通大學學報(社會科學版),,:1-10.
相關標簽:
  • 報警平臺
  • 網絡監察
  • 備案信息
  • 舉報中心
  • 傳播文明
  • 誠信網站
学生的妈ma中韩双字免费观看