AI道歉闹剧:DeepSeek“道歉”是假的
AI“道歉”闹剧:DeepSeek给王一博道歉是假的?
近日,“DeepSeek给王一博道歉是假的”冲上微博热搜,引发广泛关注。这场闹剧源于前几天首创集团原党委书记、董事长李爱庆受贿案尘埃落定,随后一些自媒体将王一博与案件扯上关系。事实上,早在2022年,王一博的经纪公司乐华已就相关谣言辟谣过。此次借着判决宣告再次传播旧谣言,乐华也再次发布声明,表示要通过法律途径追责。
更令人啼笑皆非的是,昨天全网出现了一篇《演员王一博案,判了》的文章,声称针对这件事,DeepSeek出了一份官方道歉。然而,这份文章没有任何官方来源,DeepSeek从未就此事发表过任何声明。今日,记者在中国裁判文书网上检索发现,文章中引用的“北京市第三中级人民法院(2025)京03刑终174号判决书”并不存在,基本可以判断这份声明是AI编写的。
这起事件也反映了AI技术的局限性。大模型虽然具备强大的信息检索能力和生成文本的能力,但它无法真正理解内容的真实性,有时候分不清事实和谣言,更不会理解“承诺”以及“申明”等词语的法律含义。业内有一种“概率鹦鹉”的观点,认为大语言模型就像一只超级聪明的鹦鹉,它听过无数对话,能根据统计规律说出“合理”的话,但它其实不懂自己在说什么。
事实上,这也不是AI第一次出现差错。此前还有网友用DeepSeek查阅资料后发现结果错误,AI不仅及时更正信息并道歉,还表示要补偿网友3000元人民币,让人有点哭笑不得。
随着大模型在我们生活中变得越来越重要,了解AI风险也变得非常关键。我们应提高信息鉴别力,警惕AI生成内容的权威性,特别是涉及赔偿、司法等承诺信息。
阅读本文之前,你最好先了解…
什么是AI大模型?
AI大模型是指通过海量数据训练而成的强大人工智能模型,能够执行多种复杂任务,如文本生成、翻译、问答等。其中DeepSeek便是其中一个代表性例子。
AI技术的局限性: 尽管AI技术发展迅速,但它仍然存在一些局限性:
- 理解真实性的困难: AI无法真正理解信息的真实性和虚假性,容易被误导或生成错误信息。
- 缺乏常识和逻辑推理能力: AI模型的知识储备主要来自训练数据,缺乏人类的常识和逻辑推理能力,有时会产生荒谬或不合理的结果。
- 伦理风险: AI技术的应用可能带来一些伦理风险,例如生成虚假信息、侵犯隐私等问题,需要引起重视和警惕。
如何辨别AI生成的文本?
鉴于AI技术的局限性,我们需要提高信息辨别力,学会识别AI生成的文本:
- 关注来源: 注意查看信息的来源是否可靠,是否有官方认证或机构背书。
- 观察语言风格: AI生成的文本通常语言平淡、缺乏情感色彩和个人化表达。
- 交叉验证信息: 通过多种渠道核实信息真实性,不要仅仅依赖单一来源。
总结:
DeepSeek给王一博道歉的事件再次提醒我们,随着AI技术的普及,我们需要更加谨慎对待AI生成的文本信息,提高辨别能力,避免被虚假信息误导。同时,也需要加强对AI技术本身的监管和伦理约束,确保其健康可持续发展。
如果你有其它意见,请评论留言。