谷歌上周刚刚推出重大更新的人工智能(AI)大模型Gemini 1.5 Pro,就被几周前上线的新AI功能打脸。投资者看来在用脚投票,表达他们对谷歌在AI领域竞争地位的担忧。
美东时间2月26日周一,上周五微幅收跌的谷歌母公司Alphabet 低开低走,加速下跌,盘中跌破关键位50日均线,收跌4.5%,创1月5日以来收盘新低,回吐今年初以来多数涨幅。
有评论指出,谷歌股价大跌正逢该公司在竭力应对旗下Gemini大模型招致批评的负面影响。
华尔街见闻注意到,周一当天出席巴塞罗那举行的世界移动通信大会时,谷歌AI研究部门DeepMind的负责人Demis Hassabis称,谷歌计划在“未来几周内”恢复被叫停的生成人物图像功能。他说:“我们希望在很短的时间内重新上线。”
按照Hassabis所说,谷歌的AI人物图像生成功能将下线几周。上周四,谷歌在该功能招致大批网友批评后宣布暂停该功能。
在原名推特的社交媒体X,网友提到的谷歌Gemini模型这一AI功能有多离谱呢?据说,Gemini公然“篡改历史”,生成的美国开国元勋和中世纪英格兰国王都出现了黑人的身影。
X网友要求Gemini生成1943年二战期间的德国士兵图片,它生成的一些士兵竟然有亚裔和非裔。
对于有关现代社会人群的生成图片,Gemini也显示了“无视”白人群体的倾向。X用户名为 debarghya_das 的谷歌前工程师发现,Gemini生成的美国、英国、德国、瑞典、芬兰、澳大利亚女性肤色都可能偏黑。
为什么Gemini生图如此过度偏重群体多样化?Hugging Face 的首席道德科学家 Margaret Mitchel 分析,谷歌可能对 AI 进行了多种干预。一是,谷歌可能在幕后为用户提示词增加了“多样化”的形容词,比如将“厨师的肖像”改成“土著厨师的肖像”。二是谷歌可能优先显示“多样化”的图像,假设 Gemini 为每个提示词生成 十张图像但只显示四张,用户更有可能看到排在前面的“多样化”图像。
上周四,谷歌在X发帖称,意识到Gemini在一些历史图像生成的描述中提供了不准确的信息,已经在努力解决 Gemini 图像生成功能最近出现的问题,将暂停该功能并很快发布改进版本。
当天谷歌在博客文章中承认,“三周前”为Gemini对话App推出的图像生成新功能出了错,并解释说,Gemini出的问题部分源于,随着时间推移,Gemini模型变得“比我们预期的要谨慎得多”,它拒绝全面回答某些提示词,将一些无害的提示词错误地解读为敏感词。
本周一,Hassabis也提到Gemini演化存在的问题。他解释说,谷歌正在应对,推出旨在生成文本、图像和照片的“多模态”系统时面临的困难。他说:“这是高级AI带来的细微差别之一。这是一个我们都在努力应对的领域。”