黄色片一级免费,国产网址在线,亚洲午夜网站,黄色在线播放网址

地方頻道:
您的當前位置:首頁>法制
專家釋疑人工智能時代各項法律爭議 人工智能須以法律和倫理為界
2019-05-24 14:57:22   來源:新華網(wǎng)

  以深度學習為代表的人工智能算法近年來取得突破性進展,應用越來越廣泛。但“人工智能的主體性與侵權責任”“人工智能與知識產(chǎn)權”“人工智能產(chǎn)業(yè)發(fā)展與個人信息保護”“人工智能與法律倫理”等問題也隨之而來。

  圍繞上述問題,“人工智能:科學與法學的對話”研討會近日在重慶舉行。此次研討會由中國知識產(chǎn)權法學研究會、西南政法大學主辦,西南政法大學知識產(chǎn)權學院、重慶知識產(chǎn)權保護協(xié)同創(chuàng)新中心、北京陽光知識產(chǎn)權與法律發(fā)展基金會承辦。

  作品判斷存在爭議

  滿足獨創(chuàng)性是關鍵

  關于人工智能是否擁有主體資格以及同時伴有的侵權責任問題,目前仍然存在很大的爭議。

  近日,北京互聯(lián)網(wǎng)法院一審公開宣判北京菲林律師事務所訴北京百度網(wǎng)訊科技有限公司侵害署名權、保護作品完整權、信息網(wǎng)絡傳播權糾紛一案,判決認定計算機軟件智能生成的涉案文章內容不構成作品,但同時指出其相關內容亦不能自由使用。

  此案的判決是人民法院首次對涉計算機軟件智能生成內容的著作權保護問題進行回應。

  中南財經(jīng)政法大學知識產(chǎn)權學院教授黃玉燁提出,人工智能生成作品的著作權保護問題存在兩種困境,一是其是否具有獨創(chuàng)性、是否反映了人的個性;二是其權利主體為誰,假設人工智能生成作品受著作權保護,人工智能能否成為著作權主體。

  “依據(jù)現(xiàn)行法律和傳統(tǒng)著作權理念,人工智能不能成為著作權主體,因為著作權主體應當是民事主體,即自然人、法人和非法人組織,動物、機器都不能成為權利主體。”黃玉燁說。

  中國社科院法學所研究員管育鷹認為,創(chuàng)作過程是一種精神上的智力活動,受保護的作品應當具有自然人的獨創(chuàng)性表達。人工智能生成物迄今為止仍是算法直接轉換、系統(tǒng)自動生成的結果,這一過程并非創(chuàng)作,其結果也不是作品。并不否認人工智能可作為創(chuàng)作的輔助工具,人工智能系統(tǒng)、算法應用和財產(chǎn)利益也可獲得其他知識產(chǎn)權法的保護。

  華東政法大學知識產(chǎn)權學院教授叢立先則認為,如果在人工智能開發(fā)、利用和轉移的過程中有合同,不違反合同法基本規(guī)則,那么合同要優(yōu)先。在版權法語境下,目前用現(xiàn)代規(guī)則體系和思維模式可以解決問題,當問題無法解決時,再討論主體性。

  在北京理工大學計算機學院副教授馬銳看來,人工智能算法對數(shù)據(jù)的依賴、不確定性、不可解釋性等,導致人工智能應用存在潛在的安全風險。

  而針對現(xiàn)階段關于人工智能立法還不完善的狀況,西南政法大學民商法學院副教授曹偉認為,可以通過知識產(chǎn)權對人工智能技術的創(chuàng)新進行保護。目前亟需考慮的問題有3個方面,即數(shù)據(jù)的產(chǎn)權定性;數(shù)據(jù)的采集、整理和使用規(guī)則;人工智能研發(fā)的規(guī)范與引導。

  規(guī)制企業(yè)倫理道德

  有效保護個人信息

  隱私利益是什么?清華大學法學院副教授吳偉光認為,隱私利益是競爭中產(chǎn)生的信息獨占關系,只要有競爭關系就有隱私利益。

  吳偉光認為,人的合作效率越高,其隱私利益越小。勞動合同法明確要求勞動者必須提供相關信息,只要合作,就必須信息交換。在人工智能時代,人的社會合作廣度和深度都會有巨大的提升,必須與大量陌生人交換信息,隱私期望一定要下降。

  中國科學院大學法律與知識產(chǎn)權系副教授尹鋒林稱,隨著科技進步,個人信息內容不斷發(fā)展豐富。在人工智能時代,行業(yè)規(guī)范對個人信息保護至關重要,個人信息保護要借助于行業(yè)規(guī)范。在我國,個人信息保護如果僅靠個人,可能會面臨能力不足問題。行業(yè)、政府、相關企業(yè)應加強合作,共同建立合理的個人信息保護強制性或準強制性標準。

  重慶市公安局電子物證司法鑒定中心主任田慶宜認為,人工智能要想更好地為人提供服務,需要融入與了解人的生活,在服務獲得與隱私保護之間取得平衡。過于嚴苛的個人信息保護,可能阻礙人工智能的發(fā)展,他建議立足國內發(fā)展實踐進行立法保護。

  人工智能發(fā)展如此迅速,能不能將人工智能應用到司法審判當中?杭州實在智能科技有限公司創(chuàng)始人孫林君認為,如果在司法判決時運用人工智能做輔助,可能面臨嚴肅性悖論。由于存在嚴肅性悖論,當前階段把人工智能輔助決策的技術嵌入到審判環(huán)節(jié),很難提升案件審理的質量和效率。

  人工智能到底會不會幫助法官或律師減輕負擔?孫林君提出,打官司會經(jīng)過咨詢、評估、調解、仲裁、審判幾個階段,而老百姓最關心的是勝的概率是多少,可以依據(jù)哪些法律法規(guī),有沒有相關的案例參考。

  也有很多專家和科技界人士對人工智能的發(fā)展提出擔憂。騰訊公司法務平臺部總經(jīng)理謝蘭芳認為,人工智能并不一定100%為人類帶來福利。人工智能有了自己的意識后,可能會作惡,成為壞的人工智能。因此,需要將規(guī)則、倫理、價值觀嵌入其中,規(guī)制人工智能的發(fā)展。

  清華同方集團法務總監(jiān)蘇云鵬建議,企業(yè)應加強倫理道德方面的規(guī)制,在企業(yè)成立倫理道德委員會,所有高科技產(chǎn)品推向市場之前,先經(jīng)過倫理委員會的論證,并賦予其一票否決權。由于思維視角存在局限性,這個委員會要由不同學科的專家,如社會專家、政府專家、學術專家等共同組成。(記者 吳曉鋒)


技術支持:湖北報網(wǎng)新聞傳媒有限公司

今日湖北網(wǎng)版權所有 鄂ICP備2020021375號-2 網(wǎng)絡傳播視聽節(jié)目許可證(0107190) 備案號:42010602003527 違法和不良信息舉報中心