登入以檢視影片內容

逐字稿

有一個年輕人啊,他在上班的時候啊,接到了一個他南部的媽媽的電話,他媽媽在電話中告訴他,說他父親啊,開車出去的時候,因為不小心闖紅燈啊,把一個行人撞傷啦,現在對方啊,在醫院治療啊,對方說要十萬塊才能和解啊,所以他請他兒子啊,匯十萬塊到這個人的指定戶頭裡面,因為他媽媽說他們出來的時候啊,沒有帶任何的證件,所以就直接匯到對方的戶頭啊,啊當下他兒子聽到這個,
消息啊,覺得這是詐騙嘛,可是又怕說萬一是真的,於是他就回撥,注意是回撥喔,回撥然後,並且開視訊,視訊你對面確定是他媽媽沒有錯,他媽媽在電話中告訴他說,對方的家人已經來到醫院了,他堅持要告你父親過失傷害啊,只有十萬塊他才願意和解啊,當時警察也在現場啊,叫他兒子趕快匯錢到那個對方的指定戶頭,
他兒子呢,掛完電話之後,也認為說啊,既然是他母親這麼急,然後他就趕快去銀行匯了十萬塊,後來到了晚上的時候,他打電話去給他媽媽,想要問那個後續的情況怎麼樣,他媽媽覺得很莫名其妙,告訴他說,他沒有收到他的十萬塊,而且他也沒有打電話給他啊,他媽媽還嘲笑他說,他是不是遇到詐騙了啊,於是他趕快到醫院去告案,他也很當下他覺得很莫名其妙,
第一個,電話是他媽媽的沒有錯,第二個,視頻中確定是他媽媽也沒有錯,他為什麼會被詐騙,於是那個警察就告訴他說,現在有一種很新的詐騙手法,就是詐騙集團,他用各種方法取得了你家人的聲音跟影像,或者是照片,他就能夠完全利用AI智能科技,完全的複製出對你家人的聲音跟影像,
並且預先設定好你可能問的問題,然後他們怎麼回答,至於電話的部分,他們可以利用這個信號遮蔽器,遮蔽了你家人這個時段,他沒有辦法接收電話,然後透過轉接的方式,轉接到詐騙集團預設的AI智能科技系統裡面,那至於你會覺得說,這個要怎麼去破解,其實他只能複製聲音跟影像,
這個動作卻沒有辦法破解,注意各位粉絲,你一定要記得,未來AI智能科技是勢必的趨勢,這種科技利用在詐騙,其實對他們來講是非常有利,那我們要怎麼去破解,其實很簡單,
他們沒有辦法複製動作,並且沒有辦法預設你會提什麼樣的動作,所以你在跟家人通電話的時候,你懷疑這個會不會是詐騙的時候,你可以請他舉手,又或者是抬腳,做任何一個你想要指定的動作,這個是他們沒有辦法去預設的,還有聊一些過去小時候的一些發生的事情,這個都是能夠破解的,因為現在的科技真的是防不勝防,AI智能科技的
發生,恰恰給這個詐騙集團一個很好的詐騙機會,所以我們一定要不斷的更新這個詐騙的手法,我們怎麼去預防,這個是很重要的,各位。
後來這個年輕人就打電話問他媽媽說,最近是不是有一些陌生人出現,後來他媽媽才想起說,前一陣子一些老人在公園,有一些年輕人藉著訪問知名說他們是一個慈善機構來這邊關懷老人,
然後透過訪問給他們獎品,並且留下個人資料,告訴他們說,過一陣子以後都會陸陸續續通知他們,並且贈送獎品給他們。
所以我們一定要特別小心,也要把這個方法,詐騙手法告訴老人家,請他們務必小心陌生人。
近 31 日
0 次瀏覽
本訊息有 1 則查核回應
米露露 認為 含有正確訊息
引用自 米露露 查核回應
若民眾曾接到類似的詐騙訊息,請撥打警政署165反詐騙專線或前往鄰近派出所諮詢。此外,也可以追蹤臉書粉絲專頁「165全民防騙」、「臺北波麗士」和「反詐騙小金剛」,以獲取最新的防詐知識。在這個科技進步的時代,保護個人隱私和避免成為犯罪的受害者,我們每個人都有責任保持警惕,加強對科技犯罪的認識,並採取必要的預防措施。

資料佐證

所見所聞皆非真實 AI換臉變聲詐騙解析
https://tw.news.yahoo.com/所見所聞皆非真實-ai換臉變聲詐騙解析-022736134.html

所見所聞皆非真實 AI換臉變聲詐騙解析

科技的進化往往帶來令人意想不到的改變,如同雙面刃般,為文明帶來創新與變革的同時,卻也讓歹徒動起歪腦筋,進而催生出更加可怕的犯罪手法。近期相當火紅的AI人工智慧,有一種名為「深偽」技術的應用,其結合了深度學習和影像合成,能以逼真的方式替換或操縱現有的媒體內容,以達到換臉、變聲等效果。早期「深偽」技術犯罪主要與偽造成人影片或模仿政治人物、名人進行宣傳有關,可能涉及假訊息散布、誹謗以及侵犯個人隱私等罪刑

https://tw.news.yahoo.com/所見所聞皆非真實-ai換臉變聲詐騙解析-022736134.html

以上內容「Cofacts 真的假的」訊息回報機器人與查證協作社群提供,以 CC授權 姓名標示-相同方式分享 4.0 (CC BY-SA 4.0) 釋出,於後續重製或散布時,原社群顯名及每一則查證的出處連結皆必須被完整引用。

加 LINE 查謠言
加 LINE 查謠言
LINE 機器人
查謠言詐騙