■ 專欄
在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監(jiān)管的細節(jié),遠比亡羊補牢更好。
近日,意大利宣布禁止使用ChatGPT,并限制OpenAI處理意大利用戶信息,同時,個人數據保護局開始對此前ChatGPT立案調查。這也使得以ChatGPT為代表的人工智能大模型還未全面進入普及應用,就迎頭撞上了數據安全的質疑。
要看到,海量數據的積累帶來了人工智能的生產力質變,同時,從互聯網誕生起就始終縈繞左右的數據安全、隱私保護等問題,也成為了人工智能大模型無法回避的伴生難題。
歐洲的個人數據保護走在前列
從歷史來看,ChatGPT在歐洲率先遭遇數據安全的質疑幾乎是必然。
自進入互聯網時代以來,歐洲在個人數據保護方面就始終走在全球前列,相關監(jiān)管堪稱全球最早最嚴。
1981年開始,歐洲議會就通過了世界上第一個個人數據保護條例,此后,相關的監(jiān)管條例始終緊跟技術變化,甚至始終領先技術一步。例如,1995年,歐盟進一步針對個人數據隱私和流動通過了新的立法,而此時,互聯網時代也只是剛剛開啟而已。
今時今日,關于個人數據保護的概念,多是在歐洲被率先定義,例如,數據的知情同意權、被遺忘權、數據攜帶權等等。因此,意大利援引全世界最嚴格的數據保護條例,對現在仍在測試階段的ChatGPT進行封禁,既顯得突然,同時又順理成章。
客觀上說,當前的ChatGPT在數據隱私、合規(guī)、倫理等領域的確處在測試探索階段,用戶在使用的同時,也在不斷提供新的數據來訓練該模型。
正因為仍處在黑盒測試之中,這些數據的合法性來源、用戶數據尤其是隱私的保護、黑盒中的數據與知識產權沖突等問題,都給法律、監(jiān)管帶來了新的挑戰(zhàn)。因此,審慎為上的歐洲才決定采取一刀切的封殺政策。
安全與創(chuàng)新之間的平衡挑戰(zhàn)
如何確保數據授權、界定數據安全的責任與科技公司的義務,規(guī)避隱私泄露、知識產權等風險,這些都將是人工智能在大規(guī)模介入公共領域后,必須首先解決的問題。
但與此同時,意大利這種一刀切的政策也并不值得鼓勵。
過于嚴格且一刀切的監(jiān)管政策,曾扼殺了歐洲在互聯網時代的科技創(chuàng)新能力。今天,在關于歐洲為何錯過移動互聯網時代的討論中,過于嚴苛缺少彈性的監(jiān)管政策,一直被視為重要原因。
例如,2016年歐盟通過了史上最嚴格的個人數據保護法之后,多家全球科技企業(yè)在歐洲均卷入了在數據上的反復博弈。
2019年,美國信息技術和創(chuàng)新基金會下屬的數據創(chuàng)新中心曾發(fā)布報告指出,歐盟的數據保護條例并未產生預期的積極效果,反而增加了企業(yè)的數據合規(guī)成本、損害科技公司創(chuàng)新和競爭力,同時增加了消費者獲取在線服務的成本和不信任感。
回到人工智能領域,在全球大賽跑的背景下,既要提前設定紅線和規(guī)則以保護公民數據安全,同時,又要防止監(jiān)管過度帶來的創(chuàng)新不足問題,這是各國共同面對的政策難題,需要不斷尋找兩者之間的平衡。
唯一可以確定的是,從人類近百年來科技創(chuàng)新與倫理沖突的經驗來看,在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監(jiān)管的細節(jié),遠比亡羊補牢更好。
□馬爾文(互聯網從業(yè)者)
版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。