4月21日周五,谷歌正式宣布其生成式人工智能聊天机器人Bard可以用来参与软件开发,新功能包括帮忙编写代码、去除代码错误(debug)、解释代码片段,并为在线电子表格Google Sheets编写函数,并将代码从一种语言翻译称另一种语言等。
谷歌研究(Google Research)的产品负责人介绍称,自从3月向公众开放Bard以来,“协助编程”一直是用户最热门的要求之一。编程新功能可用于20多种编程语言,包括 C++、Go、Java、Javascript、Python 和 Typescript。还可以将Python代码直接导出到Google Colab云端工作平台。
谷歌称,生成代码功能对第一次学习编程的人士,或者需要额外支持来理解一段代码可能输出内容的人特别有用。 Bard不仅可以调试错误代码或未按预期运行的代码,还可以根据提示语“更快或更高效地帮忙优化现有代码”,有助于加速软件开发、解决复杂问题和激发创新。
谷歌特别提示称:
“Bard仍处于早期实验阶段,有时可能会自信地呈现不准确、误导或虚假的信息。在编码方面,Bard 可能会提供无法产生预期输出效果但可以运行的代码,或者提供不是最佳或不完整的代码。
建议用户始终仔细检查Bard的回复,仔细测试和审查代码中的错误、漏洞和弱点。如果Bard从现有的开源项目中详细引用来给出答案,它会给出源代码的出处所在。”
有分析称,鉴于ChatGPT和Bing AI等生成式AI领域竞争对手都已经支持代码生成功能,选择参与竞争的谷歌推出类似功能不难预料。不过,3月才推出的Bard流行程度还比不上去年推出的ChatGPT。其他使用生成式AI编程的工具还有GitHub旗下的Copilot以及OpenAI Codex。
值得注意的是,全球最大的代码托管平台GitHub已于2018年被微软收购,而ChatGPT背后的母公司OpenAI也由微软大力投资支持。微软目前俨然是AI争霸赛的最大赢家。
此前有消息称,三星新款手机要将微软必应当做默认搜索引擎,替换掉谷歌,谷歌“恐慌后”称将全力推进新AI搜索引擎。谷歌本周还将DeepMinsd与谷歌大脑合并,市场认为,谷歌的这两个专注于AI的团队合并后,将有助于该公司在AI的竞争中取得优势。
律所Womble Bond Dickinson发文提示称,能生成代码的AI工具拥有令人兴奋的潜力,但希望利用这些技术的用户应该采取预防措施,“以免撞到藏在机器学习算法表面下的石头”。
文章称,近期三星经历了三起涉及 ChatGPT 的企业机密泄露事件。半导体工程师曾两次将机密源代码信息输入ChatGPT以修复和优化代码。另有一位注重效率的员工要求ChatGPT总结会议记录。 由于ChatGPT保留用户输入数据以进行自我训练,该员工无意中向OpenAI泄露了三星机密信息:
“但无意中泄露机密信息并不是使用ChatGPT的唯一潜在陷阱,最近针对GitHub、其母公司微软及其业务合作伙伴OpenAI提起的集体诉讼就证明了这一点。
原告称,GitHub的人工智能编码助手Copilot盗用了可以追溯到开源存储库或开源被许可方的软件。GitHub承认使用来自GitHub上大量可公开访问的代码存储库数据来训练Copilot,据称其中大部分原本需要注明原作者的出处。但Copilot在没有提到原作者的情况下复制了很长一段代码。
对生成代码特别感兴趣的AI用户请仔细检查源代码。如果一家公司利用人工智能生成代码,应通过开源许可工具运行生成的代码,以确定代码的来源并检查代码是否已获得授权许可。
虽然由AI自身编写的代码可能不受版权保护(版权局最近重申,要获得版权保护,任何作品都必须有足够的人类创造性参与),但由人类编写、构思或概述的源代码,就算背后有人工智能的辅助,可能也是受版权保护的。
在使用人工智能工具时,公司还应考虑向人工智能导入的内容是否被视为商业秘密,是否采取了足够的步骤来确认和保护内容的机密性,以及人工智能的任何输出是否同样属于商业秘密。”
本周还有批评性质的报道揭露,谷歌似乎为了急于应战ChatGPT而不管伦理道德。公司内测员工称Bard是“病态的骗子”、答复可能让人丧命。例如,Bard给出的飞机如何着陆建议往往会导致坠机。另一人称,Bard给出的水肺潜水答复可能导致潜水者受重伤、甚至丧命。
但谷歌已提高警惕。上周日,谷歌CEO Sundar Pichai警告,如果对AI部署不当,可能造成非常严重的危害。尽管存在紧迫感,Pichai仍警告企业不要被卷入到竞争态势中。他认为,社会还没有为AI的快速发展做好准备,因此需要更强有力的监管。