生成式AI技術快速發展帶來多重挑戰
2024-12-26 中國質量萬里行 點擊:次
隨著科技的日新月異,生成式AI(人工智能)技術正以驚人的速度蓬勃發展,成為推動全球產業升級的關鍵力量。2024年,多位諾貝爾獎獲得者的目光聚焦于AI領域,進一步凸顯了AI在全球范圍內的深遠影響。同時,由OpenAI、谷歌、微軟等100多家企業共同簽署的《人工智能公約》也彰顯了全球范圍內對AI技術發展的高度重視和規范化追求。
中國作為科技大國,積極響應全球AI技術的發展趨勢,提出了“人工智能能力建設普惠計劃”。在這一背景下,生成式AI技術在中國取得了顯著成果,為各行各業帶來了前所未有的變革和機遇。然而,正如硬幣有兩面,生成式AI技術的快速發展也伴隨著一系列不容忽視的問題。
AI“魔改”經典影視作品現象嚴重
近年來,隨著AI技術的不斷發展和應用,一些短視頻制作者開始利用AI技術對經典影視作品進行“魔改”,創作出大量荒誕不經的內容。例如,《紅樓夢》變成了“武打戲”,孫悟空和魯智深成為好朋友,唐僧抽煙、談戀愛,諸葛亮品紅酒、玩手機……這些“魔改”內容與原著精神內核相悖,且涉嫌構成侵權,不僅破壞了經典作品的完整性和藝術價值,也損害了粉絲的感情和利益。
來源/央視新聞截圖
近日,廣電總局針對AI“魔改”經典影視作品亂象發布了《管理提示(AI魔改)》,要求各相關短視頻平臺排查清理AI“魔改”影視劇的短視頻,并限期反饋工作情況。同時,要求平臺嚴格落實生成式人工智能內容審核要求,對平臺開發的大模型或AI特效功能等進行自查,對相關技術產品嚴格準入和監看,并對AI生成內容作出顯著提示。
然而,盡管廣電總局已經采取了積極措施進行整治,但AI“魔改”現象仍然存在,這反映了技術監管的難度和挑戰。
AI“魔改”現象不僅帶來了版權和聲譽等方面的法律爭議,還引發了社會對于文化傳承和價值觀的擔憂。一些專家認為,AI“魔改”會顛覆新生代對傳統文化的理解,解構傳統嚴肅文學,影響網絡視聽環境的健康和文化傳承的嚴肅性。同時,“魔改”還可能會影響青少年的歷史觀、價值觀,導致未成年人對歷史文化認知的曲解。這不僅不利于青少年健康成長和全面發展,也不利于社會文化的傳承和發展。
不可忽視的法律風險與司法難題
北京大學武漢人工智能研究院副院長、中國科學技術法學會常務副會長兼秘書長張平指出,生成式AI的研發與應用帶來了一系列法律風險及司法適用難題。這些問題不僅涉及知識產權保護、個人隱私保護,以及內容的真實性和可靠性等,還因其智能化的特點而可能引發AI法律主體地位、侵權責任認定等新的法律議題。
深度偽造技術是生成式AI技術帶來的首要法律風險之一。借助生成式對抗網絡(GANs)等先進技術,深度偽造技術能夠創造出高度逼真的虛假內容。這種技術一旦被濫用,極易導致虛假信息的泛濫,損害社會信任,破壞公共利益。例如,今年韓國曝出的“首爾大學版N號房”事件和另一起涉及未成年女孩的“Deepfake”事件,便是深度偽造技術被濫用的典型例證。
在前端數據訓練環節,生成式AI技術需要海量數據作為支撐。但在實際操作中,未經著作權人許可擅自使用作品數據的情況時有發生,侵犯了著作權人的合法權益。全國首例生成式AI侵權案便是一個典型例證,該案不僅引發了社會各界的廣泛關注,也促使人們開始深入思考如何有效防范和應對生成式AI技術帶來的知識產權風險。
此外,在模型訓練與應用階段,由于數據集可能未經充分脫敏處理,包含了相關隱私信息或敏感個人信息,這大大增加了隱私泄露的風險。同時,生成式AI在生成內容時,可能會不當使用這些個人信息,從而在用戶交互中無意中泄露隱私,對用戶的個人信息安全構成嚴重威脅。這種風險不僅影響個人用戶,還可能對企業和國家安全造成潛在威脅。
張平還介紹,在司法實踐中,生成式AI技術同樣帶來了諸多難題。首先,真人驅動型數字虛擬人的法律主體地位問題成為焦點。隨著AI技術的不斷發展,真人驅動型數字虛擬人在娛樂、商業等領域的應用越來越廣泛。然而,在司法實踐中,對于真人驅動型數字虛擬人的法律主體認定仍持否定態度,認為其并非法律意義上的自然人。這一立場雖然反映了法律對于新興技術現象的適應性和審慎性,但也暴露了法律在AI主體認定上的困境和滯后性。
其次,現有制度規范與實踐之間存在不適應問題。生成式AI技術的出現引發了知識產權侵權、隱私與個人信息保護等法律問題的廣泛探討。這些法律問題的根源在于現有制度規范的缺失與實踐對相應制度規范的需求之間的矛盾。如何在推動技術發展與保護合法權益之間尋求平衡,已成為實踐關注的焦點和亟待解決的問題。
最后,生成式AI侵權責任認定同樣成為司法實踐中的一大難題。由于AI所生成的內容包含用戶指令與AI服務提供者技術工具的雙重貢獻,導致在著作權侵權糾紛中難以準確界定侵權的行為主體。這不僅增加了司法審判的難度和復雜性,也加劇了相關利益方的矛盾和沖突。
來源/AI繪圖生成
應對生成式AI技術挑戰的措施
面對生成式AI技術帶來的法律風險與司法難題以及其他方面的挑戰,專家建議相關部門要采取積極有效的措施進行應對。
一是要完善法律法規體系,明確生成式AI技術的法律地位和監管要求。通過制定專門的法律法規或修訂現有法律法規,將生成式AI技術納入法律監管范疇,明確其法律責任和侵權責任認定標準。同時,加強法律法規的宣傳和普及工作,提高公眾對生成式AI技術法律風險的認知和防范意識。
二是要加強監管和自律機制建設。建立健全生成式AI技術的監管體系,加強對相關企業和平臺的監管力度。同時,鼓勵企業和平臺加強自律機制建設,完善內部管理制度和技術手段,提高風險防范和應對能力。此外,還需要加強跨部門、跨地區的協同監管和合作機制建設,形成合力共同應對生成式AI技術帶來的挑戰。
三是要加大技術研發和創新力度。通過加大技術研發和創新投入,推動生成式AI技術的不斷發展和完善。同時,加強技術研發與創新成果的轉化和應用推廣力度,促進生成式AI技術在各個領域的廣泛應用和深度融合發展。在推動技術發展的同時,注重保護合法權益和平衡各方利益訴求,實現技術與社會的和諧共生。
專家表示,生成式AI技術的快速發展帶來了一系列挑戰和問題,需要正視這些挑戰和問題并積極應對。通過完善法律法規、加強監管與自律、提升公眾意識與素養等多方面的努力,共同推動生成式AI技術的健康發展與廣泛應用。

掃碼投訴