参考消息网1月21日报道 美国《福布斯》杂志网站1月5日刊登福布斯科技理事会成员撰写的题为《2026年需要关注的新型且不断扩大的网络威胁》的文章,内容编译如下:
人工智能(AI)应用、云端迁移与大规模自动化不仅带来了速度与效率的飞跃,催生了全新商业模式,同时也悄然扩大了攻击面。安全威胁不再仅仅局限于黑客从外部入侵;越来越多的威胁源自代表人类执行操作的软件、以机器速度决策的系统,以及复杂且往往不透明的数字环境。
当AI工具能发起交易、自动化系统可瞬时部署代码、云平台在幕后连接数以千计的服务时,细微的安全漏洞会迅速演变为重大危机。下文汇集了福布斯科技理事会成员对2026年可能引发广泛问题的新兴网络安全威胁的见解。
1.恶意AI智能体混迹合法智能体
智能体AI正在改变欺诈检测格局。AI智能体(无论是合法还是恶意)都会使用虚拟设备、合成浏览器与云基础设施。依赖区分人工与机器的传统欺诈检测手段已濒临失效。随着合法用户日益依赖AI助手完成交易,而欺诈者使用相同工具扩大欺诈规模,挑战在于如何从布满相同“针”的草堆中找出那一根恶意的“针”。——凯文·戈沙尔克(美国阿尔科斯实验室公司)
2.AI加速的软件供应链攻击
由于恶意行为者使用自主AI智能体扫描持续集成/持续部署(CI/CD)流水线、依赖项与云构建系统,AI将急剧增加软件供应链攻击。对自动化部署的依赖意味着,单次的隐蔽入侵就可能注入恶意代码并在各环境中迅速传播,造成大规模破坏。——贾姆希尔·库雷希(日本三菱日联银行)
3.多个云环境中的自主攻击链
自主攻击链将变得普遍。这些AI驱动的攻击能发现多个云环境中的配置错误,生成漏洞利用代码并自主传播。它们本质上是将防御自动化作为武器。企业将以AI驱动的先发式安全系统进行反击。结合扩展检测与响应(XDR)与AI的统一安全运维将变得至关重要。——曼迪·安德烈斯(来自在美国和荷兰均设有总部的Elastic公司)
4.AI驱动的冒充身份攻击
AI驱动的冒充身份攻击将增加。这类攻击会主动研究用户在云环境中的行为模式,学习访问模式并模仿真实员工的数字“节奏”。其危险性在于它们能以极高拟真度融入环境,以至于与合法用户几乎无法区分。我们的挑战将在于判断访问系统的“员工”究竟是否是人类。——詹姆斯·格里芬(爱尔兰“网络哨兵”公司)
5.通过AI机器人与浏览器部署的威胁
2026年,网络犯罪的作案速度将变得更快、手法将变得更复杂——由于“钓鱼即服务”模式与AI个性化等创新,威胁将更具可信度、针对性且更加高效。我们将看到犯罪分子越来越多地利用AI机器人与浏览器部署新型威胁。防御者需使用比以往更多的自动化手段来识别新型攻击并予以阻断。——瑞安·伍德利(英国“网络飞行器”公司)
6.智能体工具泛滥与无提示的自动化错误
我认为智能体工具的滥用这一新风险正在快速蔓延。2026年许多组织机构将为此付出高昂代价。模型上下文协议、工具与智能体的泛滥将使系统更难追踪和审核。我预计将出现更多具有十倍意外损害的“无提示”错误。——伊娃·奈半利(美国维克塔拉公司)
7.自主智能体间的钓鱼攻击
我预计自主智能体间的钓鱼攻击将引发广泛问题。随着企业部署AI智能体处理采购与日程安排等事务,攻击者将使用对抗性AI“说服”这些智能体泄露数据或授权付款。由于攻击以机器速度在机器人间进行,以人为中心的安全培训将过时。唯一解决方案是采用AI原生的多层检验系统。——安比卡·萨克拉尼·巴德瓦杰(美国沃尔玛公司)
8.账户接管攻击
随着攻击者利用AI模仿用户行为并绕过防御,账户接管攻击将变得与合法活动几乎无法区分。由于威胁越来越多地来自受侵的内部账户,组织机构不能再仅仅依赖入站监控。安全团队必须优先实施持续行为分析,并执行严格的访问控制,以在横向移动造成大规模破坏前将其阻止。——尼尔·布雷德伯里(美国梭子鱼网络公司)
9.间接提示词注入
自主AI智能体正在进入企业,随之而来的是间接提示词注入攻击。攻击者可将越狱指令隐藏在简历或发票等普通文件中,从而实现敏感数据渗漏和软件远程控制。由于检测无法做到100%可靠,首席信息官面临的挑战在于从一开始就设计能严格限制智能体权限与数据访问的架构。——朱利安·温德克(美国注意力工程公司)
10.针对AI系统堆栈的应用程序编程接口(API)攻击
随着AI在各领域广泛应用,AI系统的API安全将成为2026年网络安全的主要焦点。AI模型依赖贯穿应用、数据与外部服务的分布式堆栈中的API,这使其成为网络威胁的主要目标。——蒂姆·柯里(美国平衡IT解决方案公司)
11.AI加速的工业与关键系统攻击
我们已观察到针对工业组织的网络攻击有所增加。2025年,五分之一的工业组织报告遭遇过网络安全事件。展望未来一年,我们应预期看到更多针对能源、水利等关键基础设施及制造业的网络攻击事件。AI、云与自动化技术已缩短了此类攻击的时间线并提高了效率。——贾森·克里斯托弗(美国能源影响伙伴公司)
12.AI模型与机器学习产物中的恶意软件
随着AI驱动的代码开发增长,2026年针对AI软件供应链的恶意活动将急剧增加。例如,我公司2025年发现的一场恶意活动中,攻击者滥用Pickle序列化文件将恶意软件植入托管于Hugging Face开源平台的机器学习模型中。此类攻击在未来数月将变得普遍。——马里奥·武克桑(美国“反转”实验室公司)
13.影子AI的蔓延
不受管理的影子AI蔓延将构成威胁。随着AI工具更易获取,员工会使用在采购与安全监管之外未经审查的应用程序与嵌入式功能。这造成了碎片化的环境,其中敏感数据流经不可见的系统,扩大了身份管理、数据保护与合规方面的漏洞。归根结底:如果无法看见AI的使用情况,便无法保障其安全。——T.S.卡尔蒂克(印度托里·哈里斯集成解决方案公司)
14.“欺诈即服务”
“欺诈即服务”现已成为渗透电子商务的可扩展商业模式。AI与自动化正在将系统性窃取消费者财富、破坏金融稳定的骗局产业化。电子商务平台、支付系统与消费者是快速发展的全球洗钱网络的主要目标;遏制此趋势需要行业运用精密的风险提示信号。——萝谢尔·布利兹(美国G2风险解决方案公司)
15.AI赋能、基于身份的攻击
AI正在加速基于身份的攻击。组织机构以更快速度实现自动化的同时,安全措施却未能同步跟进。因此,导致最大范围数据泄露的将是受到入侵的身份凭证而非恶意软件。攻击者将利用AI窃取身份凭证,并以传统工具无法企及的速度横向移动。由于身份认证已成为新边界,云与本地环境间的安全缺口将成为最大风险。——赫德·科韦茨(以色列西尔弗福特公司)
16.更低成本的大规模多步骤攻击
最危险的新兴威胁是在AI与自动化的驱动下,精密、多步骤攻击成本的大幅降低。AI降低了涉及横向移动与多重漏洞利用的高阶攻击门槛。这将增加针对组织机构的入侵数量与复杂性,尤其是那些曾被视作低价值目标的对象。——阿维·舒阿(以色列虎鲸安全公司)
17.社交工程(攻击)
2026年AI将加速社交工程攻击。恶意行为者即使技能不足,也能大规模且以产业化方式欺诈消费者。随着这些威胁跨渠道扩散,企业将因消费者信任丧失而面临日益严重的后果。从账户接管到合成身份的欺诈与骗局,用户意识与企业欺诈预防措施将比以往任何时候都更加重要。——克里斯托夫·范德魏尔(美国沃尼奇控股公司)
18.“失控”的AI智能体
“失控”的AI智能体是2026年的首要网络威胁。单个被入侵或行为异常的受损智能体可获取凭证与机密信息,以机器速度获取新身份与特权访问权限,从而导致数据泄露与服务中断。这些智能体唯一的“紧急制动开关”将是为每个智能体建立唯一标识,并保留撤销与控制其身份的能力。——凯文·博切克(以色列赛博方舟公司)
19.AI推理导致的非故意情报泄露
随着AI应用加速,组织机构会忽视从数据安全到知识安全的转变。AI系统即使没有直接泄露数据,也能推断并暴露敏感信息,造成通过模型访问、提示词或漏洞导致的非故意情报泄露,这将成为日益增长且广泛存在的网络风险。——查理·高特罗(美国IRALOGIX公司)
20.AI助力的互连医疗云的滥用
一个日益严重的担忧是互连医疗云系统在AI技术助力下难以察觉的滥用。随着医疗服务提供方、支付方与健康营销机构依赖自动化数据流,攻击者可能利用AI识别细微的配置缺陷或API弱点。这类威胁常导致数据质量问题或模型操纵,进而影响患者靶向定位、人群细分准确性或报告完整性。——哈希特·贾殷(美国多斯利公司)(编译/胡溦)




