黄网站免费人口观看,亚洲天堂国产,日本在线视频精品,a黄视频,黄色福利午夜视频,亚洲免费综合色在线视频,嫩草视频一区二区三区在线观看

中國西藏網 > 即時新聞 > 博覽

意大利禁用ChatGPT 數據安全再次被擺上臺面

專欄 發(fā)布時間:2023-04-04 09:44:00來源: 新京報

  ■ 專欄

  在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監(jiān)管的細節(jié),遠比亡羊補牢更好。

  近日,意大利宣布禁止使用ChatGPT,并限制OpenAI處理意大利用戶信息,同時,個人數據保護局開始對此前ChatGPT立案調查。這也使得以ChatGPT為代表的人工智能大模型還未全面進入普及應用,就迎頭撞上了數據安全的質疑。

  要看到,海量數據的積累帶來了人工智能的生產力質變,同時,從互聯網誕生起就始終縈繞左右的數據安全、隱私保護等問題,也成為了人工智能大模型無法回避的伴生難題。

  歐洲的個人數據保護走在前列

  從歷史來看,ChatGPT在歐洲率先遭遇數據安全的質疑幾乎是必然。

  自進入互聯網時代以來,歐洲在個人數據保護方面就始終走在全球前列,相關監(jiān)管堪稱全球最早最嚴。

  1981年開始,歐洲議會就通過了世界上第一個個人數據保護條例,此后,相關的監(jiān)管條例始終緊跟技術變化,甚至始終領先技術一步。例如,1995年,歐盟進一步針對個人數據隱私和流動通過了新的立法,而此時,互聯網時代也只是剛剛開啟而已。

  今時今日,關于個人數據保護的概念,多是在歐洲被率先定義,例如,數據的知情同意權、被遺忘權、數據攜帶權等等。因此,意大利援引全世界最嚴格的數據保護條例,對現在仍在測試階段的ChatGPT進行封禁,既顯得突然,同時又順理成章。

  客觀上說,當前的ChatGPT在數據隱私、合規(guī)、倫理等領域的確處在測試探索階段,用戶在使用的同時,也在不斷提供新的數據來訓練該模型。

  正因為仍處在黑盒測試之中,這些數據的合法性來源、用戶數據尤其是隱私的保護、黑盒中的數據與知識產權沖突等問題,都給法律、監(jiān)管帶來了新的挑戰(zhàn)。因此,審慎為上的歐洲才決定采取一刀切的封殺政策。

  安全與創(chuàng)新之間的平衡挑戰(zhàn)

  如何確保數據授權、界定數據安全的責任與科技公司的義務,規(guī)避隱私泄露、知識產權等風險,這些都將是人工智能在大規(guī)模介入公共領域后,必須首先解決的問題。

  但與此同時,意大利這種一刀切的政策也并不值得鼓勵。

  過于嚴格且一刀切的監(jiān)管政策,曾扼殺了歐洲在互聯網時代的科技創(chuàng)新能力。今天,在關于歐洲為何錯過移動互聯網時代的討論中,過于嚴苛缺少彈性的監(jiān)管政策,一直被視為重要原因。

  例如,2016年歐盟通過了史上最嚴格的個人數據保護法之后,多家全球科技企業(yè)在歐洲均卷入了在數據上的反復博弈。

  2019年,美國信息技術和創(chuàng)新基金會下屬的數據創(chuàng)新中心曾發(fā)布報告指出,歐盟的數據保護條例并未產生預期的積極效果,反而增加了企業(yè)的數據合規(guī)成本、損害科技公司創(chuàng)新和競爭力,同時增加了消費者獲取在線服務的成本和不信任感。

  回到人工智能領域,在全球大賽跑的背景下,既要提前設定紅線和規(guī)則以保護公民數據安全,同時,又要防止監(jiān)管過度帶來的創(chuàng)新不足問題,這是各國共同面對的政策難題,需要不斷尋找兩者之間的平衡。

  唯一可以確定的是,從人類近百年來科技創(chuàng)新與倫理沖突的經驗來看,在科技即將帶來生產力革命的前夜,提前思索、討論和商定包容審慎監(jiān)管的細節(jié),遠比亡羊補牢更好。

  □馬爾文(互聯網從業(yè)者)

(責編: 王東)

版權聲明:凡注明“來源:中國西藏網”或“中國西藏網文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網和署著作者名,否則將追究相關法律責任。