研究发现使用Github Copilot等AI工具辅助编写的代码漏洞会更多
作者 | IT之家2022-12-26

12 月 26 日消息,来自斯坦福大学的多名计算机科学家研究发现,使用 Github Copilot、Facebook InCoder 等人工智能工具辅助编写的代码安全性低于完全由人类程序员编写的代码。

研究发现使用Github Copilot等AI工具辅助编写的代码漏洞会更多

在近日发表的《Do Users Write More Insecure Code with AI Assistants?》(使用 AI 辅助编写的代码更加不安全?)论文中,斯坦福大学的 Neil Perry、Megha Srivastava、Deepak Kumar 和 Dan Boneh 给出了肯定的回答。更糟糕的是,他们发现 AI 帮助往往会误导开发人员关于他们输出质量的信息。

据了解,这些科学家在论文中写道:“我们发现完全由人类程序员编写的代码,AI 辅助编写的代码产生的安全漏洞明显更多,尤其是字符串加密和 SQL 注入方面。而且令人惊讶的一点是,与无法访问 AI 助手的参与者相比,提供 AI 助手访问权限的参与者更有可能相信他们编写了安全代码”。

斯坦福大学的作者说,这项研究的范围有限,因为它只考虑了一组受限的提示,这些提示对应于 25 个漏洞和三种编程语言:Python、C 和 Verilog。斯坦福用户研究涉及 47 名具有不同经验水平的人,包括本科生、研究生和行业专业人士。

热门文章
中国信息通信研究院预计,到2030年,我国移动物联网连接数将达到百亿级规模...
2022-12-26