美國(guó)版權(quán)局正在就生成人工智能使用受版權(quán)保護(hù)的材料的潛在新規(guī)則征求公眾意見(jiàn),世界上較大的人工智能公司有很多話要說(shuō)。我們收集了來(lái)自Meta、Google、Microsoft、Adobe、Hugging Face、StabilityAI和Anthropic的論點(diǎn),以及Apple的回應(yīng),重點(diǎn)關(guān)注人工智能編寫的代碼的版權(quán)。
他們的方法存在一些差異,但大多數(shù)人的總體信息是相同的:他們認(rèn)為他們不應(yīng)該付費(fèi)來(lái)訓(xùn)練受版權(quán)保護(hù)的作品的人工智能模型。
版權(quán)局于 8 月 30 日開(kāi)啟征求意見(jiàn)期,并于 10 月 18 日截止日期就其正在考慮的圍繞人工智能模型訓(xùn)練使用受版權(quán)保護(hù)的數(shù)據(jù)、人工智能生成的材料是否可以在沒(méi)有人類參與的情況下獲得版權(quán)以及人工智能等方面的變化提出書面意見(jiàn)。版權(quán)責(zé)任。去年不乏版權(quán)訴訟,藝術(shù)家、作者、開(kāi)發(fā)商和公司都在不同案件中指控侵權(quán)行為。
以下是各公司回復(fù)的一些片段。
Meta:版權(quán)所有者無(wú)論如何也拿不到多少錢
現(xiàn)在實(shí)施首創(chuàng)的許可制度,在事后很久,將會(huì)造成混亂,因?yàn)殚_(kāi)發(fā)商試圖識(shí)別數(shù)以百萬(wàn)計(jì)的權(quán)利持有者,而幾乎沒(méi)有什么好處,因?yàn)殍b于考慮到任何公平的特許權(quán)使用費(fèi)都將非常小,人工智能訓(xùn)練集中的任何一項(xiàng)工作都是微不足道的。
谷歌:AI訓(xùn)練就像讀書一樣
如果培訓(xùn)可以在不創(chuàng)建副本的情況下完成,那么這里就不會(huì)有版權(quán)問(wèn)題。確實(shí)是“知識(shí)收獲”的行為。用 Harper & Row 法院的比喻來(lái)說(shuō),就像閱讀一本書并了解其中的事實(shí)和想法的行為,不僅不侵權(quán),而且會(huì)進(jìn)一步實(shí)現(xiàn)版權(quán)法的目的。作為一個(gè)技術(shù)問(wèn)題,需要制作副本才能從受版權(quán)保護(hù)的作品中提取這些想法和事實(shí),這一事實(shí)不應(yīng)改變這一結(jié)果。
微軟:改變版權(quán)法可能會(huì)傷害小型人工智能開(kāi)發(fā)者
任何需要獲得同意才能將無(wú)障礙作品用于培訓(xùn)的要求都會(huì)阻礙人工智能的創(chuàng)新。即使作品及其所有者的身份已知,要達(dá)到開(kāi)發(fā)負(fù)責(zé)任的人工智能模型所需的數(shù)據(jù)規(guī)模也是不可行的。此類許可計(jì)劃還將阻礙初創(chuàng)企業(yè)和沒(méi)有資源獲得許可的進(jìn)入者的創(chuàng)新,將人工智能的開(kāi)發(fā)留給少數(shù)有資源運(yùn)行大規(guī)模許可計(jì)劃的公司或已擁有大規(guī)模許可計(jì)劃的國(guó)家的開(kāi)發(fā)商。認(rèn)定使用版權(quán)作品訓(xùn)練人工智能模型不構(gòu)成侵權(quán)。
人擇:現(xiàn)行法律沒(méi)問(wèn)題;不要改變它
健全的政策始終認(rèn)識(shí)到需要對(duì)版權(quán)進(jìn)行適當(dāng)?shù)南拗?,以支持?chuàng)造力、創(chuàng)新和其他價(jià)值觀,我們相信現(xiàn)有法律和所有利益相關(guān)者之間的持續(xù)合作可以協(xié)調(diào)不同的利益攸關(guān)方,釋放人工智能的好處,同時(shí)解決問(wèn)題。
Adobe:這是合理使用,就像 Accolade 復(fù)制世嘉代碼一樣
在世嘉訴 Accolade 案中,第九巡回法院認(rèn)為世嘉軟件的中間復(fù)制屬于合理使用。被告在逆向工程中制作了副本,以發(fā)現(xiàn)使游戲與世嘉游戲機(jī)兼容的功能要求(未受保護(hù)的信息)。這種中間復(fù)制也使公眾受益:它導(dǎo)致世嘉游戲機(jī)上獨(dú)立設(shè)計(jì)的視頻游戲(其中包含功能和創(chuàng)意方面的混合)數(shù)量的增加。這種創(chuàng)造性表達(dá)的增長(zhǎng)正是《版權(quán)法》旨在促進(jìn)的。
Anthropic:復(fù)制只是中間步驟
對(duì)于克勞德來(lái)說(shuō),如上所述,訓(xùn)練過(guò)程會(huì)復(fù)制信息以進(jìn)行數(shù)據(jù)統(tǒng)計(jì)分析。復(fù)制只是一個(gè)中間步驟,提取整個(gè)作品語(yǔ)料庫(kù)中不受保護(hù)的元素,以創(chuàng)建新的輸出。這樣,對(duì)原始版權(quán)作品的使用是非表達(dá)性的;也就是說(shuō),它不會(huì)重復(fù)使用受版權(quán)保護(hù)的表達(dá)方式來(lái)將其傳達(dá)給用戶。
安德森霍洛維茨:投資者已經(jīng)花費(fèi)了“數(shù)十億美元”
在過(guò)去十年或更長(zhǎng)時(shí)間里,人工智能技術(shù)的開(kāi)發(fā)投入了數(shù)十億美元的巨額投資,前提是人們認(rèn)識(shí)到,根據(jù)現(xiàn)行版權(quán)法,提取統(tǒng)計(jì)事實(shí)所需的任何復(fù)制都是允許的。這一制度的改變將嚴(yán)重?cái)_亂這一領(lǐng)域的既定預(yù)期。這些期望是私人資本對(duì)美國(guó)人工智能公司進(jìn)行巨額投資的關(guān)鍵因素,而這反過(guò)來(lái)又使美國(guó)成為人工智能領(lǐng)域的者。破壞這些預(yù)期將危及未來(lái)的投資以及美國(guó)的經(jīng)濟(jì)競(jìng)爭(zhēng)力和國(guó)家安全。
抱臉:受版權(quán)保護(hù)的材料的培訓(xùn)屬于合理使用
在訓(xùn)練中使用特定的工作具有廣泛有益的目的:創(chuàng)建獨(dú)特且富有成效的人工智能模型。該模型不是取代初始作品的特定交流表達(dá),而是能夠創(chuàng)建與底層的受版權(quán)保護(hù)的表達(dá)完全無(wú)關(guān)的各種不同類型的輸出。出于這些和其他原因,生成式人工智能模型在訓(xùn)練大量受版權(quán)保護(hù)的作品時(shí)通常是合理使用的。然而,我們故意使用“一般”,因?yàn)槿藗兛梢韵胂笠恍┦聦?shí)模式會(huì)引發(fā)更嚴(yán)厲的呼吁。
StabilityAI:其他國(guó)家稱AI模型訓(xùn)練合理使用
包括新加坡、日本、歐盟、韓國(guó)、臺(tái)灣、馬來(lái)西亞和以色列在內(nèi)的一系列司法管轄區(qū)已經(jīng)改革了版權(quán)法,為人工智能培訓(xùn)創(chuàng)造安全港,從而達(dá)到類似的合理使用效果。” 在英國(guó),首席科學(xué)顧問(wèn)建議“如果的目標(biāo)是促進(jìn)英國(guó)創(chuàng)新型人工智能產(chǎn)業(yè),就應(yīng)該能夠挖掘可用數(shù)據(jù)、文本和圖像(輸入)并利用[原文如此]現(xiàn)有的版權(quán)和知識(shí)產(chǎn)權(quán)法對(duì)人工智能成果的保護(hù)。
蘋果:讓我們對(duì)人工智能代碼進(jìn)行版權(quán)保護(hù)
在人類開(kāi)發(fā)人員控制輸出的表達(dá)元素以及修改、添加、增強(qiáng)甚至拒絕建議代碼的決策的情況下,開(kāi)發(fā)人員與工具交互產(chǎn)生的較終代碼將具有足夠的人類作者權(quán)以受版權(quán)保護(hù)。