“大家好,我是你們的嬋寶,今天有事請大家幫忙。嬋妹就想著幫助媽媽,讓家里的生活過得更好一點,同時把老家的土雞蛋分享給粉絲們嘗嘗……”
在網絡上,奧運冠軍的“聲音”突然開始推銷農產品;知名演員的“聲音”24小時不間斷在直播間與粉絲互動……當這些熟悉的聲音能被輕易竊取和濫用,隨之而來的侵權亂象頻繁上演。
事實上,備受這類侵權亂象困擾的,不只是奧運冠軍等名人名家。無論你是誰,只要你在網上有了一定關注度和流量,讓一些不法分子看到了有流量可蹭、有利可圖的機會時,你我的聲音以及肖像等信息就都可能被盜用。
用AI克隆奧運冠軍聲音帶貨,掀開了AI侵權亂象的冰山一角,其背后涉及法律、道德、倫理和技術層面等多重問題。當下,除了侵犯聲音權等合法權益,AI克隆目前最大的隱患是被別有用心者利用,一旦與AI換臉等技術結合,生成高度逼真的“數字人”實施詐騙,其危害非常嚴重。
隨著AI時代來臨,各種AI應用多如牛毛。這些作品不僅使用相關名人的聲音,還配上他們一些公開的視頻素材,具有一定的隱蔽性和迷惑性,再加上AI技術進步飛快,這些AI侵權現象正在從“一聽就假”到“真假難辨”直至“以假亂真”。另外,當一項技術帶來“廣參與度”時,其不可控性自然飆升。每一次“技術平權”實現后,帶來便捷和美好的同時,也會進一步放大監管和治理的難度。
針對此類亂象,我們的法律和治理也在進步。比如,《民法典》將人格權獨立成編,首次以立法形式將保護“聲音”寫入其中,并明確規定,對自然人聲音的保護,參照適用肖像權保護的有關規定。將于今年9月1日起施行的《人工智能生成合成內容標識辦法》也明確規定,服務提供者應當對文本、音頻、圖片、視頻、虛擬場景等生成合成內容添加顯式標識等。中央網信辦近日也在全國范圍內部署開展“清朗·整治AI技術濫用”專項行動。
法律規定和治理措施的落地,需要一個循序漸進的過程,任何監管也都具有一定滯后性。由此,一方面需要提升網民辨別能力和防騙意識,另一方面,也要倒逼越軌者強化自我約束。同時,監管部門要進一步提升善治、智治、法治的水平和力度,再輔之以行業自律和市場自我凈化,AI智能向善定會戰勝AI侵權亂象。(王彬)
編輯:郭成