DeepSeek:“国运级”产品带来的“车祸级”体验?
自发布以来,DeepSeek 以其强大的性能和广泛的应用前景,被不少人视为 “国运级” 的 AI 产品。它在数学、代码和推理任务上的卓越表现,一度让人们对其寄予厚望,仿佛看到了 AI 领域的新曙光。然而,随着用户的大量涌入和使用的深入,DeepSeek 的诸多问题也逐渐暴露,给用户带来了堪称 “车祸级” 的糟糕体验。但这些意见并不能否认DeepSeek作为最有效开源大模型的地位,但是说明它还有进步的余地,同时也提醒用使用时不能完全将DeepSeek的回答作为权威答案,需要做甄别。
一、服务器崩溃:频繁 “摆烂”,不堪重负
在流量高峰时段,DeepSeek 的服务器频繁出现崩溃现象。大量用户同时向服务器发送请求,而服务器的算力却无法满足如此庞大的需求。例如在 2 月 1 日下午,DeepSeek 的深度思考和联网搜索功能均无法使用,用户尝试使用时只能收到 “由于技术原因,联网搜索暂不可用” 的提示。许多用户在日常使用过程中,常常遭遇长时间的等待,页面上不断显示 “服务器繁忙,请稍后再试” 的字样。有开发者透露,其项目在 1 月 30 日因 DeepSeek 的 API 接口响应过载,导致服务崩溃,整个春节假期期间一度无法使用,极大地影响了项目进度。程序员小李也反映,为了等待 DeepSeek 处理代码问题,往往需要花费数小时,严重影响了工作效率。这种频繁的服务器崩溃,使得用户对 DeepSeek 的稳定性产生了极大的质疑。
二、回答错误:“信口开河”,误导用户
DeepSeek 在回答用户问题时,常常出现错误信息。无论是查询文献资料,还是寻求专业知识解答,它给出的答案可能存在作者错误、年份错误、内容错误等情况。广州某高校的一位教授想通过 DeepSeek 查询《Global Cantonese: The Spread of Cantonese Language and Culture》的相关信息,结果 DeepSeek 提供的作者信息是假的,出版年份错误,就连出版社也是风马牛不相及。知名媒体人詹国枢让 DeepSeek 写一篇《史记・詹国枢列传》,结果开头关于出生地、母亲姓氏等基本信息就出现了错误。再让它写一篇某记者的记述文章,文风虽生动、案例也不少,但转给记者本人后却被全盘否认,文章中提到的案例没有一个是记者本人写的。这种 “信口开河” 的回答方式,让用户对其提供信息的可靠性大打折扣。
三、AI 幻觉:“无中生有”,编造内容
AI 幻觉是 DeepSeek 面临的一个严重问题。它会在回答问题时,输出一些看似合理,但实际上与事实不符或无法验证的内容。陕西自媒体 “决明子” 询问 “西安的道路路线规划,从环城西路北段到环城西路南段为什么不直行,非得在安定门绕一圈?”DeepSeek 给出了一个看似非常合理的解释,提出了一个 “唐皇城交通静默区” 的概念,表示根据《西安历史文化名城保护规划 (2020 - 2035)》,安定门周边划定了一级静默区、二级静默区,目的是保护文物,防止过大的震动,甚至还列出了具体的空间数据。然而,当网友去查阅这份文件时,却发现里面根本没有 “静默区” 的相关内容。这种 “无中生有” 的编造内容,不仅无法解决用户的问题,反而可能让用户陷入困惑和误导。
四、理解偏差:“鸡同鸭讲”,沟通不畅
对于一些复杂或模糊的问题,DeepSeek 时常出现理解偏差。用户的本意可能被曲解,导致给出的回答与用户期望相差甚远。在翻译领域,当 DeepSeek 将王勃《滕王阁序》中的 “落霞与孤鹜齐飞” 翻译成 “Sunset clouds and lonely ducks fly together” 时,就出现了明显的理解偏差。在中文意境中,“孤鹜” 承载着文人孤高自许的精神图腾,而英文直译为 “lonely ducks” 却让西方读者联想到公园里形单影只的水禽。这种理解偏差,使得用户在与 DeepSeek 的交互过程中,难以获得满意的结果,大大降低了用户体验。
尽管 DeepSeek 有着强大的潜力,但目前这些问题严重影响了用户对它的使用体验。如果不能尽快解决这些问题,即使它有着 “国运级” 产品的潜力,也难以真正赢得用户的信任和市场的认可。
以下是用户杨仁旺老师给出的具体使用问题的描述:
春节假期诞生了两个爆款,一个是在票房排行榜不断刷新纪录的《哪吒2》,另一个则是刷爆朋友圈和微信群的DeepSeek。
DeepSeek一经推出后,不仅赢得了国内外媒体的热情赞誉,还引发了华尔街股市的大幅震荡。
(引自央视新闻报道)
(《华尔街日报》报道标题:硅谷对中国制造的人工智能模型赞不绝口)
去年爆火的3A游戏《黑神话·悟空》的创始人冯骥甚至称赞DeepSeek是“国运级别的科技成果”。
(引自冯骥的微博)
我在朋友圈看到关于DeepSeek的介绍后第一时间就下载了这款应用,从此开启了一段从充满惊喜到充满惊吓的神奇之旅。
最开始,我看到有网友在朋友圈发布用DeepSeek写的诗,有的朋友甚至断言用DeepSeek写的诗能够媲美最高水平的唐诗。我也尝试问了DeepSeek一些开放性的问题,他都能对答如流,而且条理清晰、论证严谨、结构完整,令我眼前一亮。
以下是我向DeepSeek提问“人类会不会失去定义知识的能力”收到的回复:
我把DeepSeek的回答发在一个和学生的闲聊群里,并对DeepSeek的回答大加赞赏。接着下面有一位同学回复我,让我问问DeepSeek这样一个问题:
于是就有了我和DeepSeek的一番“艰难”的对话:
经过我的一番耐心“劝导”,DeepSeek终于答对了一个幼儿园小朋友都能轻松答对的问题。不过相比之下,DeepSeek的表现还是优于豆包的,DeepSeek在给出了清晰明确的指令后马上就能纠正错误,而豆包则不仅要给出明确的指令,还要给出具体的操作步骤才能给出正确答案。以下是豆包的回答:
不论是DeepSeek,还是豆包,都存在“睁着眼睛说瞎话”的情况,豆包更是“死鸭子嘴硬”。而且他们俩儿都存在一个问题:同样的错误一犯再犯。
在意识到这个问题应该触及了AI算法的逻辑漏洞后,我对是谁第一个问出这个问题产生了好奇,于是又跟DeepSeek发生了这样一番对话:
又经过一番耐心“教导”后,DeepSeek才再次回答正确,更加可气的是DeepSeek还“看人下菜碟”,我把我和DeepSeek的对话发在朋友圈后,有不少朋友都去试着问了DeepSeek同样的问题,有的朋友跟我的遭遇相似,也有的朋友一次就能得到正确的答案,你说气人不。
如果老师教到这样的学生,可能会精神分裂的,因为在看到他们作出高质量的回答时老师会欣喜若狂,而在看到他们一再犯低级错误,还明知故犯、屡教不改时,又会被气得抓狂,再加上他们的回答像段誉的“六脉神剑”一样时灵时不灵,谁受得了啊。
如果DeepSeek只是因为算法的逻辑漏洞导致会犯一些低级错误其实还并不可怕,因为这样的错误连三岁小孩都不一定会犯,即便犯了,大家也很容易识别出来。真正可怕的是DeepSeek在凭借高质量的回答赢得了大家的广泛信任后对他产生了依赖,而他却会理直气壮地“虚构”一些似是而非的答案,如果你不加辨别地全盘采纳他的答案,后果可能会非常严重。
我在使用DeepSeek越来越频繁后,他却对我开了“冷枪”。
本周是我们开学的第一周,我要向学生和家长介绍本学期“社会研究”课的教学计划,我打算在讲“国家与政府”单元时,给学生推荐几本参考书,要求推荐的书籍能够以比较浅显易懂的语言介绍不同国家的类型和特点,趣味性和互动性要比较强。我想了一会儿没有想到特别合适的书,于是向DeepSeek求教,这是他给我的推荐:
第一本还比较正常,我去查了,确有此书,然而当我往下翻时,就越来越纳闷了。
尤瓦尔·赫拉利的书我基本都买了,在我的印象中好像没有这本书,于是我去网上书店查了一下,确实没有,然后我又反问DeepSeek,得到了一个“自打脸”的回答:
看到这样的回答,真是让我哭笑不得,而再往下面的推荐书目就更加离谱了。
这几本推荐“书籍”被DeepSeek描绘得很有吸引力,尤其是最后一本,如果确有此书,我一定会推荐给学生阅读,然而我找遍了我手机上所有的网购平台,都没有找到此书。这几本书很大概率就是由DeepSeek杜撰出来的,如果我把这样的参考书单发给学生和家长,那绝对是一次严重的教学事故。想到这里,我不禁倒吸一口凉气,耳畔再次响起这句话:老师推荐给学生读的书,一定要自己先读过。
被DeepSeek这么“戏弄”了一番,我仿佛经历了一场车祸一般,从此,我对DeepSeek给出的回答多了一份谨慎的审视,我也以此为案例在课堂上向学生说明了审辨式思维中的“事实查证”的重要性。
人工智能的技术越来越先进,对我们的学习、工作和生活的渗透率越来越高,这几乎是不可逆转的大势所趋。人工智能也会随着技术的进步以及与人们高频且深入的交流而变得越来越复杂,甚至是越来越“狡猾”,要防止上当受骗,我们就必须对人工智能保持理性的审视。
正如DeepSeek在回答中所言:“如果人类社会走向极端的技术依赖,人类可能会部分丧失定义知识的能力。”
可能不止是“定义知识”,甚至是定义“人何以为人”。
哲学家康德说:“人是目的,不是工具”。
如果人类的理性驾驭不了人工智能,我们真的有可能会沦为工具,甚至是沦为奴隶。
警钟为谁而鸣?
为你,为我,为他,为全人类而鸣。
相关文章
发表评论