谷歌与OpenAI面临AI模型性能提升瓶颈
谷歌的努力与挑战
根据文章作者的报道,谷歌近期一直在努力提升其聊天机器人产品Gemini的性能。尽管公司投入了大量算力和训练数据,如网页上的文本和图像,但并未达到一些高管所期望的性能提升。这种现象表明,传统的缩放定律(即通过增加算力和数据量来提高模型性能的方法)可能已不再有效。
OpenAI的相似困境
此前,OpenAI也被报道面临类似的性能提升瓶颈。该公司正通过改变技术策略来应对这一问题。谷歌的情况与OpenAI相似,两家公司在开发者和客户数量方面都存在竞争,谷歌希望通过其算力资源的优势在性能上超越OpenAI。
技术调整与创新
面对这一挑战,谷歌正在采取多种措施。公司发言人表示,谷歌对Gemini的进展感到满意,并将在适当时候披露更多信息。具体措施包括重新考虑如何处理训练数据并加大投资,同时成功加快了模型的响应速度。此外,谷歌还在尝试手动改进模型,如调整超参数,以优化模型在处理信息时的表现。
新团队的成立
为了进一步突破技术瓶颈,谷歌旗下的DeepMind在Gemini部门内组建了一个新团队,由首席研究科学家Jack Rae和前Character.AI联合创始人Noam Shazeer领导。该团队的目标是开发类似于OpenAI推理模型的能力,以解决性能提升缓慢的问题。
遇到的具体问题
谷歌在开发Gemini过程中遇到了一些具体问题,例如在训练数据中发现相同信息的副本,这可能影响了模型的性能。此外,谷歌研究人员尝试使用AI生成的数据(合成数据)和音视频作为训练数据,但效果并不显著。谷歌发言人表示,这些问题对团队来说并不陌生,公司正在积极寻找解决方案。
行业展望
一周内,OpenAI和谷歌这两大AI巨头接连被曝出模型性能提升缓慢的问题,这引发了对缩放定律有效性的质疑。从公司角度来看,技术瓶颈可能威胁到它们的领先地位;从行业角度来看,长期无法解决技术瓶颈可能会导致“AI泡沫”的出现。未来,世界离通用人工智能(AGI)还有多远,取决于这些巨头公司能否尽快突破技术瓶颈。
本文转载自互联网,若有侵权,请联系站长说明,禁止转载。
本文链接: https://www.xiezha.com/question/272bc5b9f5384441a8e677419a37c4d5.html