剎住AI“盜聲”的歪風
2025-08-22 08:59:22? ?來源:新華每日電訊 責任編輯:孫勁貞 我來說兩句 |
據央視新聞報道,某社交平臺上,有博主利用AI仿冒奧運冠軍全紅嬋的聲音賣土雞蛋;孫穎莎、王楚欽的聲音也被“克隆”,用來給“嬋寶家土雞蛋”高調帶貨……評論區(qū)顯示,不少網友誤以為這就是奧運冠軍本人,紛紛下單購買。此外,還有博主“克隆”演員靳東等的聲音,進行24小時語音直播。 隨著AI技術的普及,“盜聲”正成為越來越嚴重的問題。與普通網民相比,名人或者配音演員的音源豐富,比較容易獲取,是聲音侵權的重災區(qū)。對普通人來說,AI克隆聲音如果被詐騙分子利用,危害將非常嚴重。聲音侵權行為的泛濫,不僅會對個人生活造成影響,還可能侵蝕社會信任的基礎。因此,必須采取切實措施打擊此類行為,維護安全、清朗的網絡空間。 民法典第1023條明確了對自然人聲音的保護。任何自然人的聲音未經許可使用或授權他人使用權利人的聲音均屬侵權。但是,由于取證困難且過程繁瑣,一些受害者往往會出于無奈放棄維權。侵權者也正是鉆了這個空子,更加肆無忌憚地使用AI“盜聲”。 剎住“盜聲”的歪風,不能簡單地對侵權行為一禁了之。《生成式人工智能服務管理暫行辦法》明確規(guī)定,提供和使用生成式人工智能服務,不得侵害他人肖像權、名譽權、榮譽權、隱私權和個人信息權益。從技術層面,“聲音克隆”軟件在開源過程中,需要對聲音的使用時長、應用場景等做具體限制,從源頭堵住侵權行為。平臺層面,要切實履行監(jiān)管責任,建立健全審核和侵權舉報機制,及時發(fā)現并攔截相關內容。 即將于9月1日施行的《人工智能生成合成內容標識辦法》,明確要求AI服務提供者在生成內容中添加標識,防范利用人工智能技術制作傳播虛假信息等風險行為,推動人工智能健康有序發(fā)展。公眾自身也要增強保護意識,一旦發(fā)現自己的聲音被盜用,要勇于拿起法律武器維護權益。 只有明確使用AI技術的底線與紅線,才能真正讓科技向上、向善,為人類造福。(黃佳瑜) |
相關閱讀:
![]() |
![]() |
打印 | 收藏 | 發(fā)給好友 【字號 大 中 小】 |
信息網絡傳播視聽節(jié)目許可(互聯(lián)網視聽節(jié)目服務/移動互聯(lián)網視聽節(jié)目服務)證號:1310572 廣播電視節(jié)目制作經營許可證(閩)字第085號
網絡出版服務許可證 (署)網出證(閩)字第018號 增值電信業(yè)務經營許可證 閩B2-20100029 互聯(lián)網藥品信息服務(閩)-經營性-2015-0001
福建日報報業(yè)集團擁有東南網采編人員所創(chuàng)作作品之版權,未經報業(yè)集團書面授權,不得轉載、摘編或以其他方式使用和傳播
職業(yè)道德監(jiān)督、違法和不良信息舉報電話:0591-87095403(工作日9:00-12:00、15:00-18:00) 舉報郵箱:jubao@fjsen.com 福建省新聞道德委舉報電話:0591-87275327