​译者 | 朱先忠

策划 | 徐杰承

与开发人员信任的其他软件开发工具不同,AI工具在训练、构建、托管和使用方式等方面都存在一些独特的风险。  

自2022年底ChatGPT发布以来,互联网上便充斥着对其几乎相同比例的支持和怀疑的论调。不管你是否喜欢它,AI正在逐步进入你的开发组织。即使你不打算开发人工智能产品,也不打算利用AI工具为你编写代码,它仍可能被集成到用于构建、测试和运行源代码的工具和平台中。

AI工具存在一些较为特殊的风险,这些风险可能会使自动化任务所带来的生产力收益受到影响。而这些风险主要源于AI的训练、构建、托管和使用方式,AI工具在这些方面与开发人员信任的其他工具存在诸多不同之处。了解风险是管理风险的第一步,为了帮助你了解AI工具的潜在风险,我们设计了一些面向AI工具的面试问题,这些问题能够决定该工具是否能顺利“入职”你的公司。

总体而言,所有的的AI工具都存在一定的共性,无论人工智能的类型或用途如何,在选择使用它之前,都应提出如下问题:

除此之外,人工智能所有企业和开发者会存在自己的一系列安全问题。这些新的担忧包括对人工智能训练模型的威胁,这些威胁可能会破坏其结果,并泄露有关模型运行方式的专有信息,以及可能会破坏模型生成结果的质量。此外,人工智能模型必须通过API、Web访问、移动应用程序和其他需要安全构建的应用程序与传统世界进行交互。

除一般问题外,开发人员在使用AI工具时还必须提出其他方面的问题,如使用AI安全扫描程序,以便管理软件开发过程中引入的风险。

如今,越来越多的开发人员“雇佣”ChatGPT来编写源代码。初步报告显示,ChatGPT能够用多种编程语言编写源代码,并且能够流利地使用所有常见的语言。由于当前这个测试版的训练和模型还存在一定的局限性,所以它产生的代码并不总是完美的。它通常包含可以改变软件运行方式的业务逻辑缺陷、可能会混合不同版本软件的语法错误以及其他看似人性化的问题。

大致上来看,ChatGPT仅是一个初级程序员。那么,谁会成为它的上级?

换句话说,ChatGPT也就是一个初级开发人员水平。因此,当使用这个初级开发人员编写的代码时,必须考虑如何管理它:

无论如何,2022年12月发布的ChatGPT预示着软件开发的新时代。关注这类工具的变化而不是被它们击败是很重要的。在采用这些新工具时要明确,事情变化越多,就越该保持不变:预防安全事件总比发现意外要好。

原文链接:https://thenewstack.io/hiring-an-ai-tool-to-code-what-to-ask-at-the-interview/