以上是日本設計師Hirokazu Yokohara的作品,是透過「Stable Diffusion」生成。除了可以輕易將人改頭換面,騙徒更可利用相關技術,模仿任何人的樣貌、聲音行騙。除了提高警覺慎防騙徒;保護自己的面容、聲音同樣重要。不少市民近期接連收到陌生電話打來的Whatsapp的視像通話(Video call)邀請,綜合網民反映,電話號碼字頭顯示來自中國大陸、美國、英國、印尼等,不過大部分人都不敢接聽。有意見分析,一旦接通,騙徒會取得用戶的容貌和聲音,可以透過上述的AI技術,合成受害人的影像,再用以詐騙其他聯絡人。市民應避免接聽來歷不明的來電。
香港警方8月瓦解一個利用人工智能(AI)換臉程式犯案的集團,當中有犯罪份子瞞過金融機構的人臉辦析系統,用人工智能換臉程式冒認已報失身分證的市民,成功騙取7萬元貸款。不單上述事件,用AI的影像和聲音的深度偽造(Deepfake)技術去行騙,在科技發展下變得愈來愈容易,市民要多加提防隨時出現在電話中的「親友」,提高警覺。
AI動画で中年男性を美少女化。第2弾。おっさんの面影ないくらい顔を変更。前回よりも大幅にチラツキは減ったはず。もうすぐオッサンもなりたい顔になれるよ pic.twitter.com/O1jI8kF46L
— Hirokazu Yokohara (@Yokohara_h) May 13, 2023
應用深度偽造技術的門檻不斷降低,圖片、影片移花接木的像真度愈來愈高,網上隨處可見軟件、手機應用程式等,免費、收費的都有,亦大大減低犯罪成本。以下列出近期在大陸發生的數宗案例,或可略窺騙徒手法。
盜取影片中肖像假冒朋友 視像通話短時間
浙江溫州市公安局5月稱,陳先生收到身處國外的好友「阿誠」發來的私信,在添加對方的新微信後,對方表示自己最近準備回國,不過購買機票時遇到困難。對方聲稱已經付出8,000元(人民幣,下同)訂金,但受到國際漫遊限制,聯絡不上國內航空公司的經理,希望將剩餘的錢轉給陳,請他幫忙聯絡經理付款。
陳懷疑此人身份,但對方隨後打來視像電話,當中「阿誠」跟陳先生揮手打招呼,顯得親切,不過沒過多久,對方就掛斷,稱國外網路很不暢順。陳先生漸漸打消心中的顧慮,並在「阿誠」的指導下加了「航空公司經理」的微信,為「阿誠」支付4.9萬元。經過當地警方核實,騙徒用AI換臉技術,利用阿誠社交平台上先前發布的影片,截取臉部圖像並「換臉」,從而詐騙陳先生。
短時間被騙百萬元計款項
今年5月8日,內蒙古包頭市公安局公布,福建省福州市一間科技公司法人代表郭先生,在4月20日收到「好友」的微信視頻聯絡,稱自己的朋友在外地投標,需要保證金需要公司對公司帳戶過帳,所以想要借用郭先生公司的帳戶。
對方取得郭的銀行卡號後,聲稱已轉帳到郭的帳戶,並發出銀行轉帳截圖;但郭,因為之前曾與「好友」的視頻聊天,並未核實是否到帳,就陸續轉給對方共計430萬元,後來才發現在短短10分鐘間被騙。
另外,在4月27日,安徽安慶的何先生遭遇同類事件。他的「好友」突然發起視像通話,何見到對方正在一間會議室內,正當準備進一步詢問時,「好友」掛斷電話,並表示在會議中有重要事情交代,需要加何先生的QQ溝通。
何當時因為對方「打了影片電話又是熟人」,沒多想就轉帳245萬到對方指定的帳戶上,到事後撥打對方電話才得知被騙。
當地警方後來追蹤帳戶,拘捕3名疑犯,扣押涉案手機26部,但只追回100餘萬元。
通訊帳號被盜 錄音、視像通話做齊
另外,江蘇常州警方亦發布過類似案例。《北京青年報》5月報道,小劉的中學同學「小韓」透過QQ聯絡小劉,先發來一條語音,聲音很像本人,稱想借6,000元人民幣,後來「小韓」又同小劉視像通話。
匯款後,小劉愈想愈不對勁,認為視像通話中的「小韓」表情僵硬,打電話給小韓後,發現對方的QQ帳號被盜。
敲詐手法 中港一致
5月,溫州市民陳先生收到一條來自「私家偵探」的勒索短信,並附上一張所謂陳先生與一名女子的不雅影片截圖,要求陳盡快聯絡他,並著陳「不要抱持僥倖心理」,並威脅若不聯絡則要將影片散播到網路上。陳隨後向當地警方求助。
另一方面,香港警方曾經公布在3月,一名25歲男子在交友平台被誘裸聊,並下載對方指定的手機直播App展開對話。該男子之後發現其肖像被移花接木到色情影片,對方要求他購買一萬元點數卡,他終力保不失並報警。
扮俄國士兵賣貨 30萬網民追隨
另一方面,有人窺準商機,在「換臉」後於網上推銷貨品。
今年最知名的,莫過於一個網名為「保爾・柯察鐵」的大陸男子,在抖音上騙到不少「小粉紅」與俄粉。他稱自己是一名在烏克蘭前線作戰的車臣特種部隊的士兵,又在核電站前取景,稱自己在烏克蘭哈爾科夫的核電站,後來被揭發是河南洛陽的一家發電廠。
「保爾・柯察鐵」在抖音上聲稱自己扣押了烏克蘭總統澤連斯基的汽車、打敗英國的「皇家坦克營」、活捉過美軍士兵(即使英國、美國沒有派兵到烏克蘭)等。他並在自己的網店賣俄羅斯的伏特加酒、蜂蜜、奶粉等貨品,即使其IP位址顯示為河南,影片中並帶有河南口音,破綻處處,但他仍然在兩個月左右就吸引30多萬粉絲。後來他終被發現假冒身分,遭到抖音封鎖。
當紅女星竟直播帶貨?
既然名不經傳的一個「士兵」都能如此有號召力,有騙徒更加肆無忌憚,盜用名人肖像,用AI實時換臉技術,在大陸各大直播間裏帶貨,涉及「楊冪」、「劉亦菲」、「迪麗熱巴」、「angelababy」等大陸藝人。有消息指,該技術只要花費幾萬元就可以購買現成的模型,即時替換容貌。
據提供「換臉軟件」的網站介紹,使用者自己從零開始訓練模型,如果24小時掛機不停地訓練模型,需要經過半個月到一個月的時間,才能達到可以合成影片的效果。
AI換臉造成的騙案在大陸屢見不鮮,除了提高警覺,驗證所見所聞是否真確,更應慎防自己的聲音和臉部訊息被盜用。
市民日常應該注意避免接聽陌生的視像通話;如果收到「親友」的視像通話,亦應觀察對方面部表情是否生硬或有破綻,也可問對方一些比較個人的問題核實身分,並在對方提出匯款等要求時,再三核實,例如再聯絡對方確認,如果有需要便報警。@
------------------
🏵️《九評》20周年
https://hk.epochtimes.com/category/專題/退黨大潮
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand