性能文章>GitHub Copilot代码安全性研究:开发者需对四成错>

GitHub Copilot代码安全性研究:开发者需对四成错原创

https://a.perfma.net/img/3110416
2年前
212600

5cb549a112b6d7c23be5c59e5f2a563bfbde.png
在近日发表的一篇学术论文中,研究人员对 GitHub Copilot 人工智能编程辅助工具展开了深入调查。结果发现,仍处于测试预览阶段的 Copilot 具有高达 的错误代码率,意味着开发者必须在使用时对其保持清醒的认知。此外在多场景测试项目中,约 都被发现包含了安全漏洞。
229f5d751f0d9b6dfa277bb950186f69e422.png

(图自:GitHub),据悉,GitHub 为这款 AI 编程辅助工具采用了来自 OpenAI 的 Codex 高级 AI 系统。特点是经过了 GPT-机器语言模型的生成式预训练,能够借助深度学习来生成类人文本。基于 GitHub 平台上高质量代码展开的训练,结合上下文和其它因素,它能够为开发者提供良好的单行代码建议、甚至帮助补全整个功能模块。
e6018265aefbbd053a1f1c1e071ee64856e9.png

一种 Copilot 评估方法,然而 Copilot 很快引发了多方争议,尤其涉及代码质量、法律与道德考量、替换人类开发者的可能性、以及引入安全漏洞的可能性。在一项题为《GitHub Copilot 辅助编程的网络安全实证评估》的学术研究论文中,研究团队就对 Copilot 的安全性展开了重点考量。这项研究旨在描述 Copilot 生成不安全代码的趋势,为用户防范安全问题所需的审查量提供了必要的衡量标准。

来源:https://t.cj.sina.com.cn/articles/view/7030863415/p1a312763700100rnc7?cre=tianyi&mod=pctech&loc=2&r=0&rfunc=32&tj=cxvertical_pc_tech&tr=145

点赞收藏
堆堆

【HeapDump性能社区官方小编】各位堆友们,+微信号perfMa,可以联系上堆堆哦~

请先登录,感受更多精彩内容
快去登录吧,你将获得
  • 浏览更多精彩评论
  • 和开发者讨论交流,共同进步
0
0
https://a.perfma.net/img/3110416
堆堆

徽章

【HeapDump性能社区官方小编】各位堆友们,+微信号perfMa,可以联系上堆堆哦~