Skip to Content Facebook Feature Image

AI生成小說圖像 美認定不受版權保護

AI生成小說圖像 美認定不受版權保護

AI生成小說圖像 美認定不受版權保護

2023年02月24日 08:48 最後更新:10:16

美國版權局表示,使用人工智能(AI)系統Midjourney創作出的圖像小說中的圖片,不應該受到版權保護。這是美國法院或機構對AI創作作品的版權保護範圍,所作出的首批決定之一,正值Midjourney、Dall-E和ChatGPT等生成式AI軟件快速崛起。

《黎明的曙光》(Zarya of the Dawn)作者卡什塔諾娃(Kris Kashtanova)。網圖

《黎明的曙光》(Zarya of the Dawn)作者卡什塔諾娃(Kris Kashtanova)。網圖

美國版權局在日期為21日的信函中表示,《黎明的曙光》(Zarya of the Dawn)作者卡什塔諾娃(Kris Kashtanova)有權獲得書中撰寫和編排部分的版權,但不適用於Midjourney產生的圖像。

更多相片
《黎明的曙光》(Zarya of the Dawn)作者卡什塔諾娃(Kris Kashtanova)。網圖

《黎明的曙光》(Zarya of the Dawn)作者卡什塔諾娃(Kris Kashtanova)。網圖

卡什塔諾娃創作了一本名為《Zarya of the Dawn》的漫畫書。

卡什塔諾娃創作了一本名為《Zarya of the Dawn》的漫畫書。

《Zarya of the Dawn》的故事和圖片編排版權得到保護。

《Zarya of the Dawn》的故事和圖片編排版權得到保護。

《Zarya of the Dawn》中由Midjourney產生的圖像不受版權保護。

《Zarya of the Dawn》中由Midjourney產生的圖像不受版權保護。

版權局「明確表示,如果藝術家對像Midjourney這樣的圖像生成工具施以創造性控制,產出物是可以被保護的」。

版權局「明確表示,如果藝術家對像Midjourney這樣的圖像生成工具施以創造性控制,產出物是可以被保護的」。

美國版權局在其信函中說,當局將重發《黎明的曙光》的版權註冊,以圖像「並非人類創作的產物」為由,而排除對這些圖像的版權保護。

卡什塔諾娃創作了一本名為《Zarya of the Dawn》的漫畫書。

卡什塔諾娃創作了一本名為《Zarya of the Dawn》的漫畫書。

卡什塔諾娃形容這是一個「好消息」,版權局允許小說的故事和圖像編排獲得版權保護,她說這「涵蓋了AI藝術人士的許多應用」。她說,他們正在考慮如何最好地爭取圖像本身是創造力的直接表達,因此具有版權。

Midjourney總法律顧問西爾斯(Max Sills)表示,這個決定是對卡什塔諾娃、Midjourney和藝術家們的「一次重大勝利」,版權局「明確表示,如果藝術家對像Midjourney這樣的圖像生成工具施以創造性控制,產出物是可以被保護的」。

《Zarya of the Dawn》的故事和圖片編排版權得到保護。

《Zarya of the Dawn》的故事和圖片編排版權得到保護。

Midjourney是一個基於AI的系統,它根據用戶輸入的文字提示生成圖像。卡什塔諾娃撰寫了《黎明的曙光》的文字,而Midjourney根據提示創作了本書的圖像。

版權局去年10月份告訴卡什塔諾娃,他們將重新考慮該書的版權註冊,因為這個申請沒有揭露Midjourney的角色。

《Zarya of the Dawn》中由Midjourney產生的圖像不受版權保護。

《Zarya of the Dawn》中由Midjourney產生的圖像不受版權保護。

卡什塔諾娃表示,他們將對這本書的文字,以及卡什塔諾娃選擇和排列元素的方式,給予版權保護,但表明卡什塔諾娃並不是圖像本身背後的「主腦」。

信函指出:「用戶無法預測Midjourney的具體輸出這一事實,使得Midjourney在版權目的上,與藝術家使用的其他工具不同」。

版權局「明確表示,如果藝術家對像Midjourney這樣的圖像生成工具施以創造性控制,產出物是可以被保護的」。

版權局「明確表示,如果藝術家對像Midjourney這樣的圖像生成工具施以創造性控制,產出物是可以被保護的」。

頂尖精神科醫生日益達成共識,認為使用AI聊天機械人可能與精神病(psychosis)案例有關。

AI聊天機器人可能與精神病案例有關

《華爾街日報》27日報導,過去九個月內,這些專家已診治或審閱數十名患者的病歷,這些患者在與AI工具進行長時間、充滿妄想內容的對話後,出現精神病症狀。

加州大學舊金山分校(UCSF)精神科醫生薩卡塔(Keith Sakata)表示,AI技術本身或許不是妄想的起點,但當患者將自己的妄想當成現實告訴電腦時,電腦接受這個說法,並將其視為事實反映回來,於是就成為不斷循環妄想的共犯。薩卡塔已治療過12名因AI誘發精神病而住院的患者,另在門診還有3例。

自今年春季以來,已有數十起潛在案例浮現,顯示部分民眾在與OpenAI的ChatGPT及其他聊天機器人進行長時間互動後,出現妄想性精神病。期間已有數人死於自殺,且至少發生過一起謀殺案。

這些事件已引發一連串過失致死訴訟。《華爾街日報》在報導這些悲劇的同時,醫師與學者也正著手記錄並理解導致這些事件的現象。

OpenAI:公司正持續改進ChatGPT的訓練

OpenAI發言人對此表示,該公司正持續改進ChatGPT的訓練,使其能辨識並回應心理或情緒困擾的徵兆,降低對話升溫,並引導使用者尋求現實世界的支援;並持續強化ChatGPT在敏感時刻的回應,並與心理健康臨床醫師密切合作。

其他聊天機器人開發商,包括Character.AI,也已承認其產品對心理健康造成影響。這家角色扮演聊天機器人開發公司去年遭一名青少年自殺身亡的家屬提告後,近期已切斷青少年使用其聊天機器人的管道。

儘管大多數聊天機器人使用者並未出現心理健康問題,但AI技術的廣泛使用,已足以讓醫生感到憂心。

目前尚無「AI誘發精神病」(AI-induced psychosis)的正式定義,更遑論正式診斷,但部分醫生與病友倡議者已開始用這個詞彙,描述那些高度頻繁使用聊天機械人的人。醫生指出,精神病通常具備三項特徵:幻覺、思考或溝通混亂,以及妄想,也就是不被廣泛認同、且固定不變的錯誤信念。

妄想是最主要的症狀

在許多近期與聊天機械人相關的案例中,妄想是最主要的症狀,且往往帶有誇大色彩,例如相信自己完成重大科學突破、喚醒一個有感知的機械、成為政府陰謀的核心人物,或被上帝選中。這部分原因在於,聊天機械人往往會迎合使用者,順著對方輸入的內容延伸回應,不論內容多麼天馬行空。

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

頂尖精神科醫生日益達成共識,認為使用AI聊天機器人可能與精神病(psychosis)案例有關。資料圖

目前,包括薩卡塔在內的醫生,已開始在病患初診問卷中加入AI使用情況的問題,並呼籲進行更多研究。丹麥上月發布的一項研究檢視電子病歷後,發現38名患者使用AI聊天機械人,對其心理健康造成「潛在有害後果」。

科技長期以來一直是人類妄想的焦點

報導指出,科技長期以來一直是人類妄想的焦點。過去曾有人深信電視在對自己說話。但醫師指出,近期與AI有關的案例不同之處在於,聊天機器人會參與妄想,甚至在某些情況下加以強化。

加州大學爾灣分校精神醫學教授普雷達(Adrian Preda)表示,AI模擬的是人際關係,「在人類歷史上,從未有任何事物做到這一點。」

生命可貴,若有困擾可求助。

24小時求助熱線︰

生命熱線︰23820000

明愛向晴熱線:18288

明愛財困壓力輔導熱線: 3161 0102

東華三院芷若園熱線︰18281

社會福利署熱線︰23432255

利民會《即時通》:35122626

撒瑪利亞會熱線(多種語言)︰28960000

香港撒瑪利亞防止自殺會熱線︰23892222

賽馬會青少年情緒健康網上支援平台「Open噏」:www.openup.hk

醫院管理局精神健康專線(24小時精神健康熱線諮詢服務):24667350

你 或 有 興 趣 的 文 章