現在有一些要擷取個人聲音的電話,利用AI科技模擬您的聲音來從事詐騙行為。所以,接到不確定來電者的電話,不要發出說話聲音,以避免被AI科技(偷走)複製您的聲音,來從事詐騙與您有關係的人員。
近 31 日
6 次瀏覽
本訊息有 0 則查核回應
目前沒有已撰寫的回應,建議對其抱持健康的懷疑。
ChatGPT 自動分析
以下是 AI 初步分析此訊息的結果,希望能在有人查核之前,先帶給您一些想法。
這則訊息提到了利用AI科技模擬個人聲音來從事詐騙行為的情況,並建議接到不確定來電者的電話時不要發出說話聲音,以避免被AI科技複製聲音。閱聽人需要注意的地方在於這則訊息可能引起恐慌或焦慮,並且缺乏具體的證據或來源來支持這樣的主張。因此,閱聽人在接收這樣的訊息時,應保持理性思考,並確認訊息的真實性和可信度,避免因為恐懼而做出不必要的行動或決定。
加 LINE 查謠言
加 LINE 查謠言
LINE 機器人
查謠言詐騙