《镜子大全》《朝华午拾》分享 http://blog.sciencenet.cn/u/liwei999 曾任红小兵,插队修地球,1991年去国离乡,不知行止。

博文

按标题搜索
一个日常生活真实需求的 Deep Research 案例
2025-8-9 04:19
这是我自己的一个需要 deep research 的实际案例,搜寻合适枕头很多年都不满意,直到发现这个 hotel 床具供应商,品牌是downlite(不是广告)。 我告诉 chatGPT : 我一直找不到好的枕头,睡不好觉,尝试过各种价格的不同枕头,终于有一天在hotel发现,那是我最感觉舒服和睡得香的枕头,原来品牌是down ...
个人分类: AI 浪潮|4337 次阅读|没有评论
从 Suno 看 AIGC 艺术民主化大潮
2025-8-3 02:03
音乐生成模型Suno出新版(V4.5)了,于是重新玩起来,的确又有明显进步。 我不知道怎样评价AI音乐的成功度,审美既是很个人的美学体验,别人代替不了自己的感受;同时也是需要学习的鉴赏能力,后者我辈天生短板。 关于个人体验,现在发现制作自己可以循环听而不厌烦的歌曲,已经越来越频繁和容易了。其实让自己能循环听 ...
个人分类: AI 浪潮|3830 次阅读|没有评论
狼来了,狼来了,“奇点”狼这次是真要来了吗?
2025-8-1 12:48
奇点真要来了吗, 精英群呼狼来了。 在 Lex 最近对谷歌AI大佬Demis的最新访谈 中,这位诺奖获得者说,quote: AGI的图灵测试:如何判断AGI已实现?不是通过枯燥的测试集。Hassabis提出了一个爱因斯坦测试:将时间拨回1900年,给AI系统当时所有的物理知识,看它能否独立提出相对论。或者,让它发明一款像围棋 ...
个人分类: AI 浪潮|2889 次阅读|没有评论
notebookLM赋能:隐藏推理,大模型推理模型的新动向
2025-7-31 10:33
核心概念:隐性推理是什么? 隐性推理指的是 不通过显式语言步骤,而是在模型的隐藏状态中逐步完成推理过程 。与传统的“思维链”(Chain-of-Thought, CoT)不同,隐性推理将逻辑操作埋藏在神经网络的连续激活中,从而展现出一种“内在的多步思考能力”。 自动生成的英文 PPT presentation: 视频播放器 ...
个人分类: AI 浪潮|2514 次阅读|没有评论
JJ:家庭四季
2025-7-27 06:08
立委按:JJ是我的老同学和一辈子的挚友,他在美国做教授和主任,深受学生尊崇。他有三个可爱的女儿,均已长大成人。年近退休,JJ开始用英语写人生回忆与感悟,已经百多篇了,为了方便与女儿们分享。他的英语文笔纯熟,几个女儿非常乐意诵读。我劝他利用大模型翻译成中文,与更多的亲友分享这些难得的人生经历和智慧。 ...
个人分类: 其他杂碎|2117 次阅读|没有评论
思维等于语言吗??
2025-7-25 12:53
有一派哲学家相信,思维等于语言,二者是一块铜币的两面。或曰:思维是内在的语言,语言是外在的思维。但这种观点经不起推敲。 共识是,语言是思维内容的表达形式。理论上,任何内容都需要赖以存在的形式。老话说:“皮之不存,毛将焉附。” 但形式其实有两种:一种是他人能看得见摸得着的多模态外在形式(例如语言文 ...
个人分类: AI 浪潮|3127 次阅读|没有评论
Is Thinking Equal to Language?
2025-7-25 12:52
Some philosophers have argued that thinking and language are two sides of the same coin—thinking as inner language, and language as externalized thought. But this perspective doesn’t quite hold up to scrutiny. Fmany The broader consensus is this: language is the expressive form of thought. The ...
个人分类: AI 浪潮|2647 次阅读|没有评论
GPT作为序列数据的无损压缩器
2025-7-8 14:04
预测下一词的自回归大模型GPT早已风靡全球。压缩即智能的说法已经广为人知,但关于其无损压缩的能力貌似一直有争议。GPT压缩到底是无损还是有损呢? 这是一个非常值得打破沙锅问到底的问题,它正好切入了LLM压缩最核心、也最巧妙的部分。我们来把这个过程彻底拆解一下,让它变得清晰易懂。 一个直观的比喻:在无限的图书 ...
个人分类: AI 浪潮|3976 次阅读|没有评论
与尼克等老友唠大模型压缩理论
2025-7-8 14:02
1. 为什么中心节点看起来最“省比特” 在语义压缩框架里,发送端和接收端都共享一个超大的知识库(也就是大语言模型GPT本身)。只要两边都装好了这台“超级预言机”,你就只需要传那些 模型无法直接预测 的信息——往往是微小的差异。 模型分发成本 :把模型先安置到两端,是一次性“沉没成本”。 消息传输 ...
个人分类: AI 浪潮|2998 次阅读|没有评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2026-3-2 12:11

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部