这tm还不如说不知道
表面科普的还可以,专业的要谨慎
我有时候对着ai信心满满的回答说,你确定吗?为什么我在其他地方看到相反的结论,然后它就对我说抱歉,是它了解的信息不全
并不是AI胡说八道,也不是AI不知道,而是AI 拿到了错误的信息,错的不是AI。现在互联网会出现人拿错误的信息给AI,AI拿错误的信息生产错误的信息的情况,AI=仅供参考
而且是一本正经的胡说八道。你要是指出他说错了,他马上承认对对对,是说错了。
一梯队里 deepseek 是幻觉比较严重的
感觉豆包和华为小艺还可以
AI本来就是垃圾,经常打字,不知道什么情况,自动升级AI,发现一不留神就跑前面去了,烦死了
这就是幻觉
这不就越来越像人了吗
DS被海外黑客喂了很多脏数据,很多回答都不准,没有豆包好用
确实,特别容易误导人。信AI还不如自己动手搜
@smid 那这个就不能叫AI,只能叫高级点的搜索引擎。AI应该具有自我判断能力。
豆包让他从1数到10000都不会。
ai的技术瓶颈很快就到了,最新的gpt我感觉还不如老版本,大胆预测英伟达崩盘会在2年内
大模型的幻觉,目前好像各家都有
同样的问题, 换一种语言问会好点, 中文语料污染太严重了.
1,AI并不是什么都会; 2,只要提问,AI就会给出答案; 基于上面两点,你问到AI不会的可不就只能胡说八道了