奇异果体育新闻中心

以AI对抗AI金融行业如何利用奇异果体育提高安全水位?

2024-12-22
浏览次数:
返回列表

  今年5月,AI诈骗在全国爆发的话题冲上热搜第一,引发网友热议。湖北网警巡查执法称,AI技术正在改变诈骗,某些新骗局诈骗成功率接近100%。

  在金融行业,如何以AI对抗AI,最终在AI时代的攻防对抗中取胜?12月6日,2024首届腾讯云金融安全峰会上,腾讯安全副总裁、玄武实验室负责人于旸表示,随着大模型技术被黑灰产恶意使用,金融行业面临更“定制化、针对性”的安全威胁。但与此同时,大模型技术也可提升安全人员在漏洞挖掘、渗透分析等方面的效率。

  “安全运营不是新的需求,并非依靠AI能实现0到1的提升,在细分领域需要慢慢积累行业性的沉淀,数据的准备、对接、场景的颗粒度细化将实现步步推进,不断达成进步。”腾讯安全副总经理、科恩实验室专家聂森告诉澎湃新闻记者,以AI对抗AI是金融行业保障安全的必经之路,攻防双方只有在同一起跑线,才能达到“势均力敌”的效果。

  说起AI带来的金融风险,在2024年世界互联网大会乌镇峰会上,业内人士曾将AI带来的安全危机总结为“三化”,即黑箱化、黑产化、武器化。黑产化强调了深度伪造的危害。在AI的加持下,深度伪造越来越贴近真实,无论是公众还是企业,都很难逃脱深伪诈骗的陷阱。

  黑箱化指的是在生成AI大模型的过程中存在黑箱,模糊了攻击者可能采取的具体破坏手段,从而导致有害内容及错误信息的泛滥。

  武器化指的是人工智能可以生成恶意软件、钓鱼邮件,也可以快速发现目标系统中的漏洞,大幅降低网络攻击门槛,让不懂代码、不懂技术的普通人也能成为黑客,使攻击数量大幅增加。

  不过,在业内人士看来,AI带来的更多是帮助,既能用推理能力应对繁重工作,也能通过其潜力提高决策的智能化。

  腾讯安全威胁情报产品规划负责人高睿告诉记者,在AI+威胁情报的实际应用中,效果最为显著的是降噪功能。从现实来看,降噪的过程相当于将最基础、每天需要人工重复处理的任务交给了AI,从而解放了人力资源,这样安全运营人员就能转向研究更深入、更具挑战性的安全问题。

  此外,AI在安全运营方面还能起到进一步的帮助。腾讯安全提出以AI辅助安全运营,将端侧、流量侧的数据汇总到“安全湖”,再利用AI大模型技术对“安全湖”进行综合研判,将威胁和指标、响应相结合,输出成为自动的指令,从而实现自动化、闭环的响应和处置流程。

  “在我的观察中,金融机构正在变得越来越有信心,在真正使用国产软硬件后,发现不仅‘可用’也是‘好用’的,事情越来越靠谱了。”对于AI产品的具体应用,腾讯金融云副总经理王丰辉谈到了自己的感受。

  他介绍,腾讯安全已经推出腾讯云数据安全审计(DSAudit),通过大模型来保障金融行业的数据合规和安全。

  对于金融机构来说,其拥有的数据大多是敏感数据,包括信息数据(如姓名、身份证奇异果体育app官网等)、金融资产特征信息、股票账号信息,还包括了微信号奇异果体育、GPS定位、QQ号码等新型身份特征,以及新能源车辆信息等等。因此,保障数据安全不仅是合规需要,还是对自身业务的有力保障。

  腾讯的云数据安全审计基于大数据+AI,构建一个全面的数据安全监控、异常行为分析和细粒度安全审计体系。产品自研了规则引擎、语义引擎、UEBA行为分析引擎这三大安全引擎,预置了700+规则模型,通过对事中数据风险监测和事后异常行为审计能力,切实有效地保护数据的安全,防止数据泄露和滥用。

  在规则引擎中,当监测到的操作或行为与规则相匹配时,引擎会触发相应的告警动作。在语义引擎中,可以深度解析SQL语句,理解数据操作的真实意图和目的,从而更准确地识别潜在的安全威胁、不合规操作,减少误报和漏报。

  当前中国已经步入数字经济时代,银行99%的业务都可以在线上完成,金融行业的重点也从业务变成服务。近年来,银行等金融机构正在面临着新增零售信贷业务风控难与存量零售风控业务风险上升的双重挑战。

  具体来看,零售信贷业务风控主要围绕在贷前调查和贷中、后管理。在这期间,随着深度伪造技术的泛滥,银行在风控过程中容易面临借款人主体资格不合规、提供虚假申请资料或还款能力不足等欺诈风险。

  面对这一现状,腾讯安全提出了天御金融风控大模型,这也是业内首个针对金融风控的大模型。

  据了解,腾讯云天御金融风控大模型以腾讯安全20多年与黑产对抗经验以及海量安全数据为基础,集成了大模型、迁移学习和蒸馏学习等业界先进技术,融合了多模态金融风控数据与知识的强大生成式智能风控模型。

  对于金融行业来说,既然拥抱AI技术是一种必然,那么保障AI大模型的安全也是一种必然。

  AI安全已成为业内最重要的风险之一,主要包括三个方面:首先是模型训练阶段,高风险、违规数据需要剔除,高质量、连贯的对话需要审校。其次是内容生成阶段,包括新风格的违规内容、伪造类内容和版权风险。最后是事后阶段,对舆论不适或者内容违规要及时改进和响应。

  如果大模型在运转过程中出错,无疑将带来高额的成本。在监管方面,国家也在重拳出击,重点提升AI安全。4月11日,国家互联网信息办公室发布关于《生成式人工智能服务管理办法(征求意见稿)》公开征求意见的通知,规定AIGC内容不得含有暴恐、低俗、歧视、侵权等违法违规内容,明确提出“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”。

  对于金融行业来说,更要兼顾政策合规等宏观环境的制约,腾讯安全在AI内容安全上的实践可以作为很好的参考对象。

  在内容安全方面,腾讯安全推出了AIGC全链路内容安全解决方案,提供包含审校服务、安全专家服务、机器审核服务、版权保护服务四大能力板块,包含风险场景定义、风险语料库服务、语料版权检测、输出价值观检测、业务传播风险监测等能力,覆盖生成式AI应用从模型训练到内容生成到事后运营全过程的内容安全建设。这套方案覆盖AIGC类应用从模型训练到内容生成再到事后运营全过程的内容安全建设,并已在多个场景实践落地。

  在数据合规和安全方面,为防范数据安全问题造成的隐私侵犯、经济损失、法律责任、声誉损失等系列问题,需要对数据工程师、算法工程师等人员做好身份认证、数据访问控制以及操作管控,对数据做好防篡改、敏感数据去标识化、以及数据行为审计和异常监测。腾讯安全打造了数据安全治理解决方案,通过对大模型的用户、实体、模型文件实施分级别的访问控制,实现权限分离。同时,腾讯云通过数据安全治理中心、数据安全防护网关、机密计算平台等产品能力,实现大模型业务全流程从数据采集、数据处理、训练、精调、发布、推理到应用的过程中,海量数据和大模型的完整性和保密性。

  目前,腾讯安全已经在AI方面的投入正在逐渐加大,腾讯大模型基础能力和应用结合整体处在趋于加速的状态。期望腾讯安全能够进一步推广“AI+安全”,帮助金融机构进一步提高安全水位。

搜索