摘要: 日本新聞協(xié)會認為,使用新聞內(nèi)容必須獲得媒體許可,不能允許ChatGPT搭便車。
10月18日,日本第76屆報業(yè)大會在長野縣召開,大會每年舉行一次,主辦方是日本新聞協(xié)會。除了常規(guī)的頒獎活動之外,今年大會的一個重頭戲是“集體討伐”生成式人工智能,380 位與會代表通過一項聲明,呼吁盡快修改版權法,限制ChatGPT等人工智能對新聞產(chǎn)品免費使用的規(guī)定。
今年初以來,關于生成式人工智能的討論成為社會熱點,以ChatGPT為代表的人工智能的發(fā)展進入了快車道,新聞生產(chǎn)無疑是最快面臨此項技術挑戰(zhàn)的領域之一。在ChatGPT之前,許多互聯(lián)網(wǎng)媒體巨頭已經(jīng)在新聞分發(fā)環(huán)節(jié)大規(guī)模引入了人工智能技術,不過新聞生產(chǎn)領域的應用比較緩慢。但是,ChatGPT的引入改變了這一局面,如果沒有外部限制的話,相信很快會在新聞采編中扮演重要角色,甚至會取代很多記者和編輯的工作。
在這個巨大的挑戰(zhàn)面前,日本媒體集體對ChatGPT說“不”,長野會議就是一次公開的“討伐”。
首先,聲明批評了日本目前的版權法,認為該法對媒體的知識產(chǎn)權保護不力。日本2018年修改版權法時引入了“第三十條第四款”的內(nèi)容,其中規(guī)定:“……對作品的利用并非為了使自己或他人享受作品所表達的思想或情感時,在使用的必要范圍內(nèi),可以以任意方式使用作品。”這個規(guī)定為人工智能公司利用新聞作品進行技術開發(fā)和信息分析提供了比較有力的保護,因為此類應用通常不意味著人們通過感官享受這些作品,如此一來,新聞機構的知識產(chǎn)權就被無償拿走了。對此,日本媒體認為,2018年版權法修訂時,生成式人工智能的發(fā)展遠沒有到今天的地步,法律修訂沒有跟上技術創(chuàng)新的速度,在ChatGPT已經(jīng)如此強大的今天,政府不應僅僅專注于促進數(shù)據(jù)的利用,而應從權利保護的角度制定與技術快速發(fā)展相適應的規(guī)則,其中就包括進一步修改版權法。
其次,聲明認為,日本已經(jīng)有一些網(wǎng)絡媒體利用ChatGPT抄襲報紙的內(nèi)容,這樣的操作顯然屬于非法行為。這些網(wǎng)絡媒體將搜索引擎和生成式人工智能結合,總結歸納互聯(lián)網(wǎng)上的信息,然后生成所謂自己的內(nèi)容。在很多情況下,這些內(nèi)容是以接近原始信息的形式生成的,根本就是在抄襲報紙文章,這是一種侵犯報社權利的行為。此外,雖然也有生成式人工智能生成的內(nèi)容顯示稿件來源,但顯示的不是報業(yè)公司網(wǎng)址,而是其他網(wǎng)址,如此一來,作為信息最初來源的報業(yè)公司的網(wǎng)站就不能被有效訪問,報業(yè)公司失去了本來應該有的流量,并繼而失去了訂閱量或者廣告量,對報業(yè)公司的運營帶來直接的損失。這些都屬于“不公正地損害版權人的利益”的行為。
最后,日本新聞協(xié)會認為,ChatGPT的過度使用給整個社會帶來了負面影響,使人們陷入虛假和錯誤信息的“幻覺”(hallucination)之中,而學習了虛假信息和錯誤信息的人工智能將進一步傳播這些信息。慶應義塾大學教授山本龍彥在長野會議上指出,個人的自主決策正在被“注意力經(jīng)濟”所破壞,“注意力經(jīng)濟”更注重吸引人們的注意力,而不是信息的準確性。他表示,人工智能產(chǎn)生大量看似合理的虛假信息“可能會使問題變得更加嚴重”。
聲明最后說,高質(zhì)量的新聞內(nèi)容是民主的基礎,也是文化發(fā)展的基礎。如果人工智能未經(jīng)授權的無序使用對新聞機構造成影響并最終延遲了信息提供,結果就是妨礙人們的“知情權”。這對整個社會的健康發(fā)展來說,將是一個巨大威脅。
當然,日本新聞協(xié)會是一個行業(yè)組織,該協(xié)會對ChatGPT的批評以及對版權法修訂的呼吁代表的是日本媒體的看法,這可能也是一個“偏見”,并非全社會的共識。比如,IT界就可能持相反的看法,因為對比美國等國家,日本在人工智能發(fā)展上處于落后狀態(tài),日本現(xiàn)有版權法的規(guī)定對人工智能開發(fā)者來說更加有利。本文截稿之時獲悉,日本新聞協(xié)會11月2日向內(nèi)閣府提交了書面意見,表示“隨著技術的進步,有必要制定適當保護知識產(chǎn)權的立法”。11月7日,內(nèi)閣府與新聞協(xié)會舉行了專門會議討論相關問題。
(作者為復旦大學新聞學院教授,高級記者,本刊學術顧問)
來源:青年記者2023年11月下
編輯:范君