– 人工智能 (AI) 和机器学习 (ML) 被认为是有前途的网络安全解决方案,允许个人/家庭/组织/企业运行安全系统,可以根据需要预测和自动化响应解决方案。 我们可以问的问题是,自动化真的准确还是它的重要性被高估了? =>> 自动化的重要性并没有被高估,只是对 ML 应用程序或 AI 模型自动化流程的能力过于自信。 简而言之,为了人工智能在网络安全中的最顺利应用,机器学习或人工智能不应该被完全信任。 因为: 1. 人工智能在网络安全中的应用主要有两个缺点: – 我要说的一件事是,虽然人工智能在网络安全自动化方面的好处是不可否认的,它们正在增长,变得越来越方便,但它们仍然不能创造绝对的信任,因为没有什么能保证永远存在风险。 在网络安全的预测和自动化系统中使用人工智能对获得需要保护的个人/家庭/组织/企业和利益相关者的信任提出了两大挑战。 第一个缺点是,许多项目基于无监督学习或神经网络实施预测性网络安全,这些解决方案目前无法为人类提供本地、直观的解释。 – 第二个缺点,许多使用人工智能AI的应用程序也增加了网络的攻击向量,无意中创造了黑客可以利用的新漏洞,而黑客有许多不同于传统攻击的方式和形式,他们会试图改变或影响网络AI 应用程序的行为对他们有利。 2.注意人工智能网络的成本: 有两个对立的方面,人工智能对许多网络安全任务的适用性,以及在当今不确定的环境中对不熟悉的技术缺乏信任,这意味着在信任不够的情况下仍然无法管理人工智能。 =>> 从那时起,有必要对 AI 采取不同的管理策略,尤其是在网络安全方面。 而且我们需要不断地监控、评估、访问和改进人工智能系统,而不是完全信任它们,因为人工智能是我们思想的产物,它们需要我们的监督和运行。 3.我们需要做的是,必须使用其他保障措施来监控SOC中心最新的AI应用。 这包括通过在受控环境中启动系统的副本来执行 AI 系统的并行动态监控,作为评估系统相对于受保护系统的实际性能的一种方式。在模型漂移现象(模型的预测性能下降之前)随着时间的推移)和某些类型的恶意攻击。 ✨ 监控系统的选择越来越多,这是一个很有希望的事实。 但正如在开发解释模型方面取得了重大进展一样,目前还不可能解决所有建立信任的问题,用于保护 AI 应用程序的监控策略仍将存在安全和信任问题。 AI 应用程序的实际成本还应反映监控和保护它的成本。 ✨LETO很自豪地推出一个解决方案,充分利用人工智能,同时仍然节省预算,即使在独立办公室、大型大厅或大型工厂和车间内也可以管理网络系统。成为: AI COME 系统 – 集成控制管理节省。 ✨ 欲了解更多信息,请联系: – 热线/Zalo:0969.769.455 – 邮箱:contact@letovn.com