谷歌的一位主要高管告诉一家德国报纸,目前的形式是生成人工智能,例如ChatGPT可能会变得不可靠,进入一种梦幻的、恍惚的状态。
谷歌的高级副总裁兼谷歌Search的负责人普拉巴卡尔·拉格哈万告诉记者:“我们现在谈论的这种人工智能有时会导致我们所谓的幻觉。周日世界报.
他说:“然后,它以一种机器提供令人信服但完全编造的答案的方式表达出来。”
事实上,很多ChatGPT用户,包括苹果的联合创始人史蒂夫·沃兹尼亚克,都在抱怨人工智能经常错了.
文本和表象之间的编码和解码错误会导致人工智能产生幻觉。
Ted Chiang谈ChatGPT的“幻觉”:“如果一种压缩算法被设计成在99%的原始文本被丢弃后重建文本,我们应该预料到它生成的很大一部分内容将完全是捏造的……”https://t.co/7QP6zBgrd3
——马特·贝尔(@mdbell79)2023年2月9日
目前尚不清楚拉加万是否指的是谷歌自己对生成式人工智能的尝试。
相关:机器人会取代我们吗?人工智能还不能超越的4个工作(目前!)
上周,该公司宣布正在测试一款名为吟游诗人学徒。该技术基于LaMDA技术,与OpenAI用于ChatGPT的大型语言模型相同。
巴黎的示威游行被认为是公共关系灾难投资者对此基本不以为然。
自从OpenAI的ChatGPT风靡全球并威胁到谷歌的核心业务以来,谷歌的开发者们一直承受着巨大的压力。
“我们显然感到了紧迫性,但我们也感到了巨大的责任,”Raghavan告诉该报。“我们当然不想误导公众。”