生成式 AI 剋星「Glaze」助創作者作品免遭 AI 剽竊,有哪些特色功能?
能保護創作者,抵抗生成式 AI 的工具誕生了!美國芝加哥大學 (University of Chicago) 研究團隊近期推出一款名為「Glaze」抗 AI 機器學習的工具,它擁有能干擾 AI 讀取作品畫風與內容的特殊遮罩 (cloaking) 技術。
經實測,套用 Glaze 保護的作品在被 AI 模型讀取學習時,最後輸出的圖像和原生作品有明顯的差異,這對未來創作者及藝術家來說,是一個跳脫智慧財產權下的另一道保護措施。
Glaze 可將創作者作品「加工」保護,以此躲避 AI 模型學習、剽竊
Glaze 研究團隊指出,Glaze 會先掌握各 AI 模型對藝術風格的掃描、理解方式,在了解機器學習模型的語言之後,就會針對 AI 模型看到的圖像、內容做「擾動 (perturbations)」;也就是在原作品上蓋上一層保護措施,以此干擾 AI 模型判讀作品。創作者在使用 Glaze 時可設定自己想要「加工」風格;如藝術家梵谷 (Vincent van Gogh),這類可供二次創作的無版權應用,能降低創作者原作被 AI 模型盜取的可能。
從 Glaze 釋出經擾動保護後由 AI 模型讀取做出的圖像內容會發現,原圖和二創產出的圖像有明顯的不同,不過 Glaze 在面對較單色、風格極簡的作品時擾動的效果就會降低,因為這類創作能被 Glaze 處理的元素比較少的緣故。
然而並非所有生成式 AI 都有開放原始碼,所以外界好奇 Glaze 是不是能應用的 AI 模型範圍就因此受限?Glaze 研究團隊指出因 AI 模型彼此間具可轉移性,所以 Glaze 還是可以應用到沒有開放原始碼的 AI 模型。雖然這套軟體看似能阻擋創作被抄襲問題,研究團隊承認 Glaze 不會是永久的解決方案,因為終有一天也可能被其他有意抄襲人士攻破,往好處想至少現今已有相關的技術,能直接對抗生成式 AI 的崛起。
目前這套 Glaze 為免費測試版,有意測試使用的讀者可到官方網站下載。