亲耳听到的声音也不是真的 |
近期 AI 应用发展风生水起,但让有心人士有机可趁,现在诈骗型态日趋复杂,最新诈骗即是 AI 语音复制诈骗。
《9to5mac》报导,AI 语音复制技术只需 3 秒人声即可制作逼真语音,这项技术如果与行之有年的来电显示诈骗结合,就会形成更严重的诈骗问题,因听起来就是认识或信任的人在呼救。 举例假设有诈骗犯利用两项技术打电话给你,声称绑架亲人,要求你不得报警立刻汇款,又让「亲人」与你通话,但这「亲人」其实是用 AI 语音复制亲人声音再来诈骗,紧张下大多数人都会相信亲人真被绑架。🏮🤐👏 不过这诈骗真的无敌吗?有四个方法可帮忙保住你的钱: 1.拨电话确认 假设接到这种诈骗电话,若想确认来电者是否伪造亲人电话号码,最快速就是挂断打给亲人确认,罪犯不太可能直接拦截你打电话。 👎🎢🦀♊🦖 2.问对方有困难度的问题 先确定这问题答案只有亲人知道,千万不要问在社群媒体或网路就找得到答案的问题。 3.不要接听不明来源电话🧑⚕️💄🦯😈✌ 美国 FCC 建议,不要接听未知来电,应直接转入语音信箱再听;但现在很多诈骗来电都会伪装成亲人来电。 4.如果可以,永远不要在社群媒体、网路公开电话号码,也鼓励亲人不要在任何地方公开电话号码。 电话诈骗已是相当普遍的问题,FCC 也提醒,如果接到这类来电,千万不要透露任何个资。 👦🧦🛏😪👂 但高阶罪犯将来可能使用更厉害技术取得民众信任,就是上述两项技术加上 Deepfake,用视讯通话取得民众信任。但不管罪犯用哪些 AI 诈骗,接到这类电话(绑架、亲人受伤)时,只要切记上述 4 个方法,就有较高机率可保住你的钱。
帖子热度 2517 ℃
|
|