近日,一些短視頻平臺涌現(xiàn)了大量某知名企業(yè)家吐槽的視頻。在視頻中,該企業(yè)家對堵車、調休、游戲等熱門話題進行調侃,甚至還有不雅詞匯穿插其間,引發(fā)熱議。事實上,這是由網友利用AI軟件采集該企業(yè)家原音生成的配音,但逼真的效果讓不少人信以為真。(見10月28日《工人日報》)
AI生成信息從“一眼假”到“深度偽造”,僅僅過了幾年時間。幾年前,網絡上流行上傳個人照片生成各類主題海報或視頻的游戲,令人們對AI融入生活抱有了更多期待。比如,通過AI換臉實現(xiàn)的“螞蟻呀嘿”搞笑視頻,曾一度霸榜熱搜。同時,AI技術應用于天氣預報、新聞播報、醫(yī)療、手機地圖等領域,讓生活更加便利。然而,也產生了一些新的問題。有人用自己的照片與某女星素材合成親密視頻,引發(fā)爭議;某知名辦公軟件將用戶文檔用作AI訓練文本,引發(fā)反對聲浪;還有一些人的聲音、人臉被AI學習,生成虛假信息用于電信詐騙、造謠……
AI為人們提供新體驗的同時,伴隨的風險成本越來越高,不僅侵犯了一些人的合法權益,也擾亂了網絡空間秩序。比如,AI生成音頻技術的濫用可能侵犯個人的人格權。自然人的聲音具有唯一性、獨特性,是自然人人格的重要組成部分。今年4月,北京互聯(lián)網法院宣判的全國首例AI生成聲音侵權案,判決侵權方賠償原告25萬元。又如,AI生成的虛假音視頻很容易引發(fā)誤解,甚至造成惡劣影響,破壞網絡信息的可信度和網絡空間的秩序。今年9月,網上流傳某網絡平臺負責人的負面“酒后”音頻,給該平臺招致風波,結果警方調查發(fā)現(xiàn),音頻內容系AI偽造。
規(guī)范AI技術發(fā)展是公眾的共同呼聲。為此,社會各界提出建議,如完善法律法規(guī),明確AI生成技術的使用范圍,加大對濫用AI技術的打擊和處罰;技術研發(fā)應用者要在識別和過濾虛假內容上有所作為,建立有效的甄別、審核機制,防止技術被濫用,等等。
這些“追著AI跑”的規(guī)范手段必不可少,但從AI生成內容的邏輯看,還需從前端發(fā)力,即在“投喂”素材訓練AI大模型環(huán)節(jié)做好必要的規(guī)制。AI自主學習需要有大量的“學習對象”作為基礎,包括聲音、文字、語法、圖像、熱力分布等,這些素材越豐富,AI就“吃”得越飽,生成的內容就越自然逼真。當前,網友使用AI軟件上傳聲音、人臉等個人生物信息時,幾乎是不設防狀態(tài)。此外,AI在獲取訓練素材時還缺乏一定的規(guī)范,比如用戶為一次娛樂活動而上傳的素材能不能被儲存和多次利用?相關信息該如何使用?都應有明確的說法。
以手機APP過度索權為例,近年來,很多APP開發(fā)運營者為了獲取更豐富的用戶數(shù)據(jù),后臺過度索權問題飽受詬病。2021年初,工信部出臺文件,明確了“知情同意”和“最小必要”兩項個人信息保護基本原則,要求從事APP個人信息處理活動,應當由用戶作出自愿、明確的意思表示,同時不得從事超出用戶同意范圍或者與服務場景無關的個人信息處理活動。同理,AI自主學習也應被劃定明確、具體的邊界范圍。比如,用戶上傳的信息將被用于什么用途、如何儲存及使用,要有類似“知情同意”“最小必要”的規(guī)定。
簡言之,從源頭“投喂”素材的環(huán)節(jié)做到丁是丁卯是卯,AI自主學習及應用才會更加向上向善。眼下,AI技術發(fā)展如火如荼,未來充滿無限機遇和可能。正因如此,技術別被玩壞、信任別被玩丟,與技術本身的發(fā)展同等重要。