Veritas:首席信息安全官必须为人工智能爆炸式发展的三大趋势做好准备
一. 人工智能爆炸才刚刚开始
虽然人工智能已经“崭露头角”多年,我们仍处于全面了解这项技术的早期阶段。随着关于人工智能的新知识不断涌现,领导者必须不断学习人工智能创新知识,以便在快速变化的时代有效指导决策。领导者还应鼓励自己的团队,尤其是安全和数据保护领域的人员,尽可能多地了解人工智能,以熟悉黑客将如何利用人工智能进行犯罪行为。在不断演变的以人工智能为驱动的威胁环境中,需要采取全员参与的方法来应对即将到来的威胁。
二. 轻松获取人工智工具能让不法分子有机可乘
随着人工智能的发展,很多企业面临的一个关键挑战是有效制定和执行人工智能道德政策和负责任的使用准则。例如,员工必须了解何时允许使用 ChatGPT 等生成式人工智能聊天机器人,以及使用该技术所需的数据共享可能会导致的例如机密信息泄露等有害结果。
不幸的是,黑客没有义务遵守同样的道德准则。因此,轻松获取人工智能工具有助于黑客在攻击中占据上风。例如,坏人现在可以使用生成式人工智能来创建更高效的勒索软件,或利用 WormGPT 等不受约束的语言模型来实现更复杂的网络钓鱼攻击。
三. 人工智能让攻击更不容易被察觉
如果没有人工智能,勒索软件攻击需要攻击者具备深入的知识,才能手动枚举网络、找到更多目标并进行传播。通常情况下,黑客是专业人士,但可能会因为人为错误而被拖慢速度。人工生成的威胁对 IT 专业人员来说更容易识别,预编程的自治解决方案可以识别警告信号,从而预防或阻止即将到来的攻击。
然而,人工智能运行的攻击更容易躲避检测,使攻击以更快的速度和更高的精度通过网络传播。聊天机器人还可以创建更接近人类的网络钓鱼计划,从而诱使员工无意中向黑客提供网络访问权限。
鉴于上述现实,Veritas建议,首席信息安全官应采取积极主动的方法,平衡人工智能技术应用与数据安全隐私。以下是几种有助于组织实现微秒平衡的关键策略:
1.评估数据隐私和保护并实施指南:CISO应仔细评估用于训练模型的数据,并确保遵守相关行业法规和相关公司政策。对敏感信息进行匿名化或假名化并应用严格的访问控制来保护用户数据免遭未经授权的访问或滥用至关重要。与法律和人力资源团队合作制定预测文本技术使用的合规指南也很重要。
2.保护模型训练和部署:保护用于训练和部署预测文本模型的基础设施是关键举措。实施强大的安全控制,包括加密、安全协议和访问管理,以保护底层系统并防止未经授权的修改或篡改模型。
3.加强用户意识并获得同意:教育用户了解预测文本技术的影响和功能。清楚地传达数据收集和使用的目的以及所涉及的潜在风险,使用户能够就选择加入或退出预测文本功能做出明智的决定。
4.与供应商和研究人员合作:与技术供应商和研究人员合作,随时了解与预测文本技术相关的最新进展、安全补丁和最佳实践。积极协作有助于更有效地应对新出现的安全和隐私挑战。
5.发展事件响应和持续监控能力:制定针对预测文本技术的事件响应计划。监控系统日志、用户反馈和异常检测机制,及时识别任何潜在的安全事件或隐私泄露。建立流程以及时响应此类事件,缓解潜在影响,确保将对用户和数据的影响降至最低。
毫无疑问,人工智能作为科技领域的一大趋势正在重塑网络威胁格局。未来企业必须高度重视AI带来的威胁,并采取相应的措施来应对。随着人工智能技术的不断发展和应用,领导者需要时刻关注新技术的发展,不断学习新的知识和技能,以应对不断演变的威胁。同时,强化数据隐私保护和管理措施也是企业的当务之急,确保数据安全不被侵犯。只有全面、系统地应对这些挑战,企业才能稳固数据安全,保障稳定的发展和运营。
关于 Veritas
Veritas Technologies是安全多云数据管理领域的领导者。超过八万家企业级客户, 包括91%的全球财富100强企业,均依靠Veritas确保其数据的保护、可恢复性和合规性。Veritas在规模化的可靠性方面享有盛誉,可为企业提供抵御勒索软件等网络攻击威胁所需的韧性。Veritas通过统一的平台,支持超过800种数据源,100多种操作系统以及1400多种存储设备。在云级技术的支持下,Veritas现正在实践其数据自治战略,在降低运营成本的同时,实现更大价值。
Veritas中国官方网站 https://www.veritas.com/zh/cn/
Veritas官方微信平台:VERITAS_CHINA(VERITAS中文社区)
免责声明:
① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。
② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341