科技媒体 BornCity 发表博文指出,由 AI 引发的“影子 IT”风险正在企业内部蔓延。员工利用 AI 工具自行开发软件,形成不受监管的“Vibe Coding”(氛围编程)现象,即仅凭模糊想法让 AI 生成代码,而不理解其逻辑与潜在风险。
这一行为正导致软件质量下降和安全隐患加剧。文章援引 IT 论坛 administrator.de 上一位系统管理员的经历,揭示该问题已在多个行业显现。在前雇主公司,开发人员将未经审查的 AI 生成代码直接部署至生产系统,并曾将敏感公司数据输入 AI 模型。
在其当前就职的政府机构,普通员工盲目采信 AI 生成的代码、解决方案及操作指南,用所谓“AI 专业知识”替代真实领域知识。更甚者,持 AI 输出的错误信息质疑一线技术支持人员,造成运维困扰。
此类现象表明,“员工自我帮助”文化被 AI 放大,催生“AI 影子 IT”的失控。当每位员工都可成为无监管的“程序员”,企业安全防线随之瓦解。不具备专业背景的员工通过 AI 自行编写代码解决问题,往往无意中为企业网络打开重大安全缺口。
文中提到一位资深 .NET 开发者的实践态度:仅使用 AI 辅助生成基础代码框架,核心开发、审查与监控仍由人工主导。其所在医疗技术公司因客户对 AI 的疑虑,对产品集成 AI 保持高度保守,与行业中激进推进 AI 应用的策略形成对比。
该案例凸显在 AI 浪潮中,审慎应用远比盲目跟风更为关键,否则可能引发大规模企业级安全灾难。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。



