每週話題
無處不在的AI 令人擔憂的未來
近年來,人工智慧(AI)變得更易使用,許多人可透過網站或APP生成圖片、影片,但也導致假影音在網路上大量流傳。
對此流行趨勢,YouTube近日宣佈了針對合作夥伴計畫(YPP)營利政策的一項重要更新:要求創作者必須上傳「原創」和「真實」內容,此更新於7月15日生效,未來也將更準確識別重複與大量製作內容,以強化對「非原創」內容的打擊,特別針對那些透過AI輕易生成的「垃圾內容」。
搭便車的粗製濫造
隨著AI興起,製作影片成本大幅下降,導致YouTube充斥大量低品質AI影片。許多頻道利用AI音樂配上AI生成圖像,吸引數百萬訂閱者。為此,YouTube制定新政策,防止此類內容擴散,並對相關創作者實施禁令,以減少低品質內容。
新政策指出,常見違規內容包括:AI配音搭配圖片輪播、僅簡單剪輯他人影片,以及缺乏評論或創意的作品。雖然這些內容早已不符營利標準,新政策將加強偵測與執行,使平台更有效控管此類影片。這波更新背後也反映出內容氾濫問題:假新聞、合成訪談、無人講解懶人包影片層出不窮,不僅影響觀眾體驗,也令廣告商憂心品牌安全。YouTube曾封鎖一支與美國歌手Diddy有關的AI假新聞影片,儘管毫無根據,點閱卻突破百萬。
即便加強控管,YouTube仍鼓勵創作者加入評論、原創劇情、深度分析或明顯改編。例如結合真人講解或個人觀點的AI影片,仍有機會獲利。它重申關鍵不在於是否使用AI,而是是否具創意與價值。政策核心在於「打擊濫用、缺乏創意的AI內容」,而非全面否定AI。平台未來可能區分「人類參與創作」與「全自動生成內容」,後者將面臨更高門檻,甚至下架風險。
雖然YouTube稱此次更新為「微調」,但若它繼續允許AI垃圾內容獲利,將損害平台聲譽與價值,因此期望透過明確規範,禁止依賴AI產製內容的創作者參與營利。觀察人士認為,這項政策將終結大量複製AI內容賺取廣告的「罐頭頻道」,鼓勵創作者回歸「內容為王」的本質,提升觀眾信任與平台價值。
AI顛覆創作模式
作為全球主要影片分享平台,YouTube母公司Google歷來重視內容原創。以往貨幣化規則已要求創作者提供獨創內容,但隨AI技術迅速發展,平台出現大量AI生成內容,挑戰審核機制,也引發內容品質與創意保護的討論。因此,新政策也反映平台未來發展的核心目標——保障創作者的原創權與創意價值。
AI應用在詩歌、小說、作曲、繪畫與影像製作等領域,讓藝術創作變得輕鬆且門檻降低,不再專屬於人類。過去拍攝電影、電視劇被視為耗時耗力的大工程,如今有了AI,每個人都能擁有自己的「虛擬劇組」:只需一個想法與一台電腦,即可製作出「電影級」畫面與劇情。
一部30集短劇,傳統團隊需耗時三個月,AI僅需三天完成。這種效率差距正在改變全球短劇市場。隨著AI影像技術爆發,中國短劇出海效率創新高,同時也引發關於原創性、文化適配與倫理的激烈討論。生成式AI的答案來自演算法匹配既有語料,實際是「借用」他人知識產權並重新組合,因此內容並非真正原創,也難以產生創新突破。
AI依賴預訓練與資料餵養,能實現從「1」到「99」的推演,卻難以跨越從「0」到「1」的創造力門檻,真正發明出前所未有的概念。這點可以從近年中國短劇在YouTube及其他影音平台的氾濫現象中看出端倪:大量影片在風格、劇情與對白上高度重複,甚至由AI或模板驅動,追求「快產快推」,卻缺乏創新與深度。同樣在生成式AI問世之前,科技界早已有許多「複製貼上」的案例,例如微信初期的介面與功能便與WhatsApp高度相似,反映出從現有素材進行改編與優化遠比從無到有來得容易。
儘管AI在某些技能上例如計算、記憶或資訊整合可能表現得比人類更「聰明」,但缺乏情感與自主意識的演算法終究無法真正具備原創能力。它可以處理並優化流程,例如資料分析與自動化作業,卻無法體會人類情感背後的複雜經驗、細微情緒與文化脈絡,這些都是數據與模型難以捕捉的。

AI對藝術與就業的雙重挑戰
除了資訊真偽與人機關係的深思,AI在操作層面也對傳統職場與創意產業施壓。。在藝術領域,不少創作者早已提出警告:當AI模型未經授權地從網路上擷取數以十億計的圖片進行訓練,是否構成對人類原創勞動的剝削?
2023年,美國三位藝術家訴訟知名AI圖像生成平台如Stable Diffusion與Midjourney,稱其「吸走了整個互聯網上的藝術」,卻未給予任何補償或告知。正如藝術家Karla Ortiz所言:「我們的作品不是公開資源,更不是免費教材。」
在這場爭議中,焦點不僅在於著作權的歸屬,更在於創作者的尊嚴與自主權是否能在演算法時代獲得尊重。許多藝術家認為,雖法律未明確規範資料來源,這種訓練仍是『道德傷害』:他們被迫參與一場技術革新,卻從未擁有選擇權。部分研究人員嘗試設計如「風格隱形披風」(style cloak)等工具,讓作品難以被AI識別與學習,但這些技術尚未成熟,效果也有限。
勞動市場同樣遭遇轉型浪潮。客服、行銷、編輯、設計和聲音演出等職位,正被AI取代。雖然AI提升了生產效率,卻也讓許多基層勞動者與中小型創作者面臨生計危機。當「被取代」的速度遠遠快過「再訓練」的資源分配,數位落差與社會不平等只會進一步擴大。Lexology近期評論指出,若不及早制定補償與授權制度、強化技能轉型與政策干預,AI對就業的衝擊將不只是產業問題,更是社會問題。
AI生成內容的深層危機
AI內容的危機,遠不止於「真假難辨」。生成式AI以驚人速度改寫我們對資訊和真相的信任。當AI可以一鍵生成語音與影像,模仿任何一位名人、政治人物或媒體發言人,真相不再憑證據與邏輯說服,而是憑「畫面與聲音」製造可信幻覺。正如歐盟在其《AI法案》中所警示,深偽(deepfake)技術若未受到嚴格規範,可能會在選舉、公共健康、金融市場等敏感領域,造成嚴重的誤導與操控。
在社群媒體高速擴散與演算法推薦機制的雙重影響下,偽造影片、照片或語音能在數小時內引發輿論風暴或政治對立。這種「內容氾濫、真相消失」的現象,不僅使公共討論失焦,也讓民主社會的核心: 資訊透明與責任制陷入動搖。
同時,AI生成內容的商業風險也不容忽視。Upwork報告指出,企業依賴AI撰寫內容將面臨三大風險:資訊重複或錯誤損害品牌形象、搜尋引擎排名下滑,以及潛在的著作權爭議。許多AI工具會「挪用」訓練資料庫中的語句與創意,一旦被原作者發現,企業可能面臨法律訴訟與聲譽損失。
更嚴重的是,生成內容的低成本與高產出,讓部分勢力有機會大量釋放經過包裝的謠言與情緒操作資訊,形成「工業化洗腦」的新形態,讓人陷入AI打造的資訊牢籠,卻無從察覺。當我們無法分辨新聞真假,甚至懷疑記憶與感知時,社會的信任根基將全面動搖。
真相在哪里?
隨著AI生成技術的發展,其以假亂真的內容的能力也越來越強,從最初的換臉與換聲,逐步進展到可生成任何圖像,甚至直接製作完整影片。目前AI生成視頻技術尚不成熟,常有bug,但未來效果將越來越逼真,難以分辨真偽。以前我們常說「有圖有真相」,當AI會畫圖之後,我們還可以說「有視頻有真相」,那麼當以後AI能生成以假亂真的視頻之後,我們該如何獲取真相呢?
一旦AI視頻生成技術成熟,整個社會的信任體系將受到巨大的挑戰。尤其是我們辛苦多年建設起來的這套基於互聯網的資訊獲取管道,將面臨前所未有的信任危機。如果不採取措施應對,虛假資訊將會氾濫成災。個性化推薦系統製造了「資訊繭房」,讓每個人得到的資訊都是片面的。而在未來,AI生成內容可能將每個人都困在「資訊牢房」中,而得到的資訊都是虛假的。想想都覺得可怕。
好在很多機構、平臺已經意識到了這種風險:YouTube此次推出的新政策旨在為平臺構建更加健康、有序的創作生態,同時提醒創作者在追求流量和收益的同時,必須堅守原創和真實性原則。而對AI生成內容的監管並非YouTube一家的行為,全球範圍內,歐盟等機構也在積極推進相關法規的制定。近期,歐盟AI法案的最新進展也顯示出各國管理層對AI技術監管的高度重視。從技術角度來看,諸如text-to-video工具和deepfake技術正受到越來越嚴密的監控,這對於業內秉持「人工智慧術語規範」的標準化工作也提出了更高要求。
人類準備好和AI共處了嗎?
AI在文藝和娛樂的應用,是時代新浪潮中的小浪花。更可怕的是,一旦有一天AI發展出自我意識,脫離了人類的控制,該怎麼辦?機器擁有自我意識的想法,早已在科幻作品中被廣泛探討。對人工智慧的擔憂,可追溯到近百年前電影《大都會》,其中機器人偽裝成女性。目前,科技界的共識是,大型語言模型目前並不具備像人類那樣的意識體驗,甚至可能完全沒有任何形式的意識。只是這種情況是否會改變呢?
如果AI真的發展出了自我意識,人類應該如何與之相處?這是一個涉及倫理、法律和社會學的複雜問題。目前,雖然AI還沒有真正的自我意識,但提前思考這個問題仍然具有重要意義,比如,尊重AI的自主權,建立平等的互動關係,確立明確的倫理框架,與AI進行共同探索和合作,等基本原則都有利於幫助人類更好地準備和應對未來可能出現的情況。
可以預見的是,人類之間的關係將越來越多地被AI所模仿,它們將被用作老師、朋友、電玩中的對手,甚至是浪漫伴侶。這究竟是好是壞,一時難以判斷,但這件事將會發生,而且人類無法阻止這一趨勢。提前思考人類如何與有意識的AI相處,本質是在幫助人類自身深入地理解自我意識的本質和意義。既然變化無法避免,與其逃避,不如主動迎接。
文/本刊編輯部
圖/網路
