AI机器人用声优技术骗骗英国人

近年来,一种新型诈骗手段悄然兴起,令人防不胜防:利用人工智能(AI)技术进行声音克隆,冒充亲友或公司高管实施诈骗。这种诈骗方式在英国迅速蔓延,已经成为打击犯罪的新难题。

AI声音克隆诈骗之所以令人震惊,在于它突破了传统诈骗依赖文字或视频的局限,直接利用“声音”这种感情极强的交流媒介。诈骗者通过抓取受害者的亲友、同事甚至企业负责人的声音样本,利用AI技术模拟出极为逼真的语音,使得电话听起来几乎没有差别。

具体来说,现代AI模型只需15秒左右的音频录制,就能生成极为相似的语音,如OpenAI等技术所提供的此类工具已经广泛普及且成本极低。这让犯罪分子得以轻松“变声”——一个看似平常的电话,瞬间变成了令人心惊的求助呼声。信任基础被此技术击碎,使骗局的成功率大大增加。

在英国,多起典型案例如此浮出水面。Jennifer DeStefano便是受害者之一,她接到一个假冒其15岁女儿的电话,对方声泪俱下称遭绑架,恐慌之下几乎应声汇款。幸运的是,该事件最终被揭穿,但她所经历的恐惧和精神创伤却不可忽视。更为严重的是,企业界同样成为受害者。某能源公司CEO曾遭遇AI深度伪音电话诈骗,损失约24.3万美元。这是已知首例公开的利用AI生成声音进行企业诈骗的案例,直接敲响了高管安全的警钟。

最新调查显示,英国超过四分之一的人在过去一年内遭遇过此类骗局,事件频率有增无减。NatWest银行研究也表明,AI声音克隆诈骗在2024年是增长最快的诈骗类型之一,成为威胁公众财产安全的“头号杀手”之一。

面对这股技术黑暗潮流,个体和社会都不得不采取应对。首先,保持警惕至关重要:接到声称亲友遇险的紧急电话,务必通过多种渠道核实信息,不可轻易汇款。其次,家庭成员间可设置“秘密暗语”,为通话身份验证增加一道防线。社交平台需加强语音数据保护,避免被恶意采集并利用。政府方面同样应加强监管力度,严惩利用AI技术进行犯罪的行为,同时广泛提高公众防骗意识。

有趣的是,同样的AI技术也正在被用来对抗诈骗。多家公司正研发检测AI合成语音的系统,帮助辨别真假电话。BBC One《The One Show》也曾展示AI复制声音实验,警示公众这股技术“利剑”的双重面向。

总的来看,AI声音诈骗提供了犯罪利用高科技的最新范本。它深刻暴露了现代社会信任机制的脆弱性,也让“听声音”这一本能的人际交往方式置于新威胁之下。唯有公众高度警觉,企业和政府携手推动技术与法规并进,才能遏制这场日益隐秘但极具破坏力的诈骗风暴,令技术复归利人而非伤人。

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注