張凌寒 中國政法大學數據法治研究院教授、博士生導師
翁音韻 上海市人民檢察院第四檢察部三級高級檢察官
編者按:人工智能是新一輪科技革命和產業變革的重要驅動力量,自其步入大眾視野后,深刻影響并惠及人們生活的方方面面,但同時也產生前所未有的挑戰。如何確保人們的隱私和個人信息安全?新技術會引發哪些法律風險?對科技犯罪應該如何治理?帶著這些問題,本刊邀請專家學者和檢察官進行深入探討,以期更好地理解科技、防范風險和應對挑戰。
【資料圖】
記者:隨著ChatGPT的出現,公眾在欣喜于科技帶來便捷的同時,也發現人工智能技術在運用中不可避免地會對倫理、法律等方面帶來挑戰。請舉例說明。
張凌寒:以Deepfake、ChatGPT、元宇宙等為代表的深度合成技術與應用場景展現了強大的能量和可能性,但其帶來效率和便利的同時,也帶來了伴生風險。深度合成的技術與應用,不僅不能化解算法治理一直致力解決的算法黑箱、算法歧視等傳統問題,而且由于其技術特點,還會給我們帶來更多的治理挑戰。其一,深度合成改變了信息生成方式,會帶來潛在的安全問題。其二,深度合成的發展對現有數據、算法、算力分而治之的治理體系提出嚴峻挑戰,網絡安全、個人信息、數據保護、數據跨境流動的制度都需要作出相應調整。其三,深度合成會強化技術壟斷和技術競爭,不僅使數據共享共用愈加難以實現,而且會加深國家、地區、人群間的數字鴻溝。
翁音韻:近期人工智能生成內容的相關技術大火,其所帶來的商業價值和應用前景備受關注,但其可能關聯的風險也迅速呈現,值得警惕。以ChatGPT等大模型的運用為例,首先,大模型的數據被反復訓練打散和整合,數據源的所有權和保護權就可能會被架空。其次,若用戶在大模型中輸入問題請求時,可能會無意或有意輸入含有個人信息、金融、商業秘密等在內的各種信息,則可能導致相關數據泄露。最后,大模型訓練使用的數據源可能存在不合法、不合規、虛假甚至是完全錯誤的內容,生成的內容會引發相關的法律風險,甚至可能被用于犯罪,如用于生成犯罪腳本、虛假信息的網絡“釣魚”和欺詐活動,以及生成惡意代碼等行為,可能會對用戶設備和數據造成損害。
記者:數據是人工智能產業發展的核心生產要素,人工智能引發的諸多問題也主要來自于數據,如何看待人工智能廣泛應用背景下的數據合規問題?
張凌寒:傳統人工智能背景下的數據合規,合規主體聚焦于平臺,即深度合成服務提供者。在生成式人工智能廣泛應用與發展背景下,上游的深度合成技術支持者與下游的深度合成服務使用者的數據合規也應當受到重視,既要加強深度合成技術支持者的數據合規體系建設,確保訓練數據合規;又要重視深度合成服務使用者的數據合規體系建設,確保輸入數據合規。此外,在用戶與生成式人工智能明文互動的情況下,如何通過技術加強對用戶行為的合法性約束,是下一步技術開發和制度設計應認真對待的問題。
翁音韻:在我看來,一方面,要鼓勵和支持相關企業建立企業自身數據合規體系,督促企業加強對數據的管理和監控,規范企業數據獲取、存儲、傳輸、處理等行為,確保數據安全和合規。另一方面,監管部門要幫助企業劃定數據合規相關基線,對照法律政策和業務特點,及時掌握市場變化和監管政策,明確需要遵守的合規義務,引導企業制定合規方案。考慮到可行性,可以對各類數據分級分類逐步落實合規措施,如對個人隱私數據優先采取更為嚴格的保護措施,保證重要數據的安全和合規。
記者:惡意濫用人工智能技術對技術的生存與發展造成巨大阻礙,整治濫用人工智能亂象,需多方施策。對于科技犯罪應該如何治理?如何形成合力,讓全社會都參與到對此類人工智能黑科技的治理與抵制中?
張凌寒:人工智能技術的發展與應用,極大降低了專業知識與特定技能的獲取門檻。ChatGPT類的生成式人工智能具備了無代碼編程能力,降低了攻擊代碼編寫的技術門檻,可能會導致更多的網絡安全攻擊發生。人工智能時代的科技犯罪治理更加強調多方協同,需由國家把握頂層設計,加快出臺與非法利用人工智能技術相關的禁止性規定,嚴厲打擊利用人工智能技術實施的違法犯罪行為;以平臺為治理樞紐,積極履行自身安全管理義務,主動承擔對上游技術支持者和下游服務使用者的管理責任;重視行業協會組織在人工智能技術犯罪治理中的作用,激勵行業協會充分發揮其在人工智能技術領域的專業優勢,主動參與到科技犯罪偵查活動中;動員公民個人積極參與到網絡犯罪、數據犯罪防控過程中,健全違法犯罪活動舉報獎勵機制,拓寬犯罪發現與線索追查渠道。
翁音韻:首先,應當在法律政策層面明確對違法犯罪行為的懲治要求和標準,對人工智能濫用行為進行打擊要實現有法可依。其次,應當加強對人工智能技術的監管,對人工智能技術進行安全審核和評估,對濫用人工智能技術及時進行監測,有效遏制濫用人工智能的行為。再次,還應該加強對人工智能安全技術的研究,提高人工智能技術的智能化和安全性,及時發現和防范安全風險,從技術層面對抗人工智能技術濫用。最后,通過宣傳教育,加強社會公眾對濫用人工智能問題的認知和理解,引導社會公眾增強自我保護意識,正確使用人工智能技術,形成對抗濫用人工智能的社會共識和合力。
記者:人工智能法律挑戰的背后是機器智能對現有以人類智能為中心的法律秩序的挑戰。新技術引發的沖擊是否意味著法律真空的出現?是否需要在人工智能立法層面予以跟進?
張凌寒:面對深度合成中的生成式人工智能等具有一定通用性質的新型人工智能技術,應及時調整治理方案,搶抓規則制定權,推動我國在該領域的本土化制度建設和制度引領。應以ChatGPT為代表的生成式人工智能發展為契機,推動深度合成治理成為人工智能治理的專門領域。從長遠來看,加強深度合成治理專門立法是必然趨勢。在對深度合成治理作出專門性制度探索的基礎上,推進人工智能基礎性立法,解決人工智能領域的通用問題。一是算法、算力與數據的規則制度必須在人工智能治理的框架下統籌協調。二是法律層面上的統籌,將我國現行的有關數據、算法和人工智能問題的探索,統一納入未來人工智能的基礎性立法當中。
翁音韻:新技術的出現可能會出現更細分領域的法律無法第一時間跟進對其規范的問題,但法律是分層級、分類型的,并不意味著新技術的出現,就一定會出現法律真空。如近期國家互聯網信息辦公室起草的《生成式人工智能服務管理辦法(征求意見稿)》,就是要進一步促進生成式人工智能技術的健康發展和規范應用。當然,如果在當前法律體系逐步完善的前提下,對于確實觸犯刑法的人工智能技術使用行為,在現有刑事法律體系通過擴大解釋仍不能解決其法律適用問題時,個人認為,有必要通過刑事立法予以規制。
記者:目前,我國網絡安全的保障主要依靠技術升級和相關的法律法規等。在人工智能技術應用如此普遍的情況下,普通民眾應該如何做好自我保護和有效防范?
張凌寒:一方面,應當提升自身甄別信息真偽的能力。以ChatGPT為代表的生成式人工智能基于海量數據生成合并結果,可達到從無到有、以假亂真的效果。這就要求用戶既要對通過生成式人工智能互動獲取的信息進行人工甄別和交叉驗證,又要有意識地分辨社交媒體平臺上所發布新聞信息的真實性,有效甄別虛假新聞,理性參與輿論表達。另一方面,應當提升個人信息、隱私安全的防護意識。人工智能技術的訓練數據主要來源于互聯網,其中可能包括個人隱私數據,而此前ChatGPT-2就發生過隱私泄露的問題。因此,用戶在使用生成式人工智能等具有一定通用性質的新式人工智能技術時,要不斷提升安全防護意識,避免個人信息或隱私泄露。
翁音韻:一方面,普通民眾應對人工智能技術下所產生的如圖片、視頻等產物的真實性不斷加強信息甄別意識及能力。在面對人工智能換臉等相關技術運用下的圖片等信息時,一定要注重甄別信息內容的來源渠道以及它的客觀性、真實性和準確性,切記不盲從、不盲信、不盲轉發一些所謂的小道消息或營銷號等自媒體消息。另一方面,普通民眾應當對人工智能技術所產生的技術風險有所防范,尤其要注意涉及個人生物識別的信息安全。對于涉及人臉識別、人聲識別、指紋、瞳孔等生物識別信息時,需要充分了解信息的采集、使用與存儲流程以及信息采集目的的必要性和使用情況,謹慎使用生物識別信息。如果發現可能存在泄露個人生物識別信息隱患,或者已經發現具有泄露生物識別信息的,應及時向有關監管部門反映和舉報。
[版面見習編輯:高航] [責任編輯:劉蕊]關鍵詞:
關于我們 廣告服務 手機版 投訴文章:435 226 40@qq.com
Copyright (C) 1999-2020 www.ymshequn.com 愛好者日報網 版權所有 聯系網站:435 226 40@qq.com