《镜子大全》《朝华午拾》分享 http://blog.sciencenet.cn/u/liwei999 曾任红小兵,插队修地球,1991年去国离乡,不知行止。


  • Simon Fraser University,博士

    • 信息科学

    扫一扫,分享此博客主页
音乐盒
还没有设置音乐盒的内容
统计信息

已有 20070115 人来访过

  • 无权查看
全双工到天花板的豆包 2026-01-03
这几天 罗胖现场演示与豆包吵架的视频 在网上疯传。建议都去听听,绝对比脱口秀精彩。 听完我的感觉是: 它太会聊天了 。不是“会回答”,是“会对打”。不是 ...
(4651)次阅读|(0)个评论
FSD + Grok:超人老司机,带着“实习导游”上路 2026-01-03
这几天一个热门话题,媒体标题党写得很嗨: “老马的 Grok 上车了,车载导游时代来了” 。我承认我也兴奋——我是那种见新就上手的 early adopter,哪怕它“百 ...
(3960)次阅读|(0)个评论
梁文峰团队的 mHC 研究在做什么 2026-01-02
立委按:逢年过节必有新事儿。去年元旦春节那一会儿是闹腾CoT强化推理,DeepSeek 开源推理模型推动了大模型后训练的范式转变。今年梁文峰他们元旦又“闹事 ...
(2522)次阅读|(0)个评论
AI 编年史:公元 2025 2026-01-02
从范式革命到商业黎明 一位 AI 老兵关于搜索消亡、交互重构与自动驾驶终局的回望 前言:当“不可能”成为“基准” 在 AI 领域,“老司机”的直觉往往来自于 ...
(3697)次阅读|(0)个评论
从“眼球 + SaaS”到“大模型商业” 2026-01-02
用量模式的甜蜜、危险与广告的改头换面 我的前老板在LinkedIn很活跃,特愿意分享他在美国创业一辈子以及当下业务的经验和教训。最近的一个分享很有意思: 他把“ ...
(3801)次阅读|(0)个评论
AI Reflections on 2025 2025-12-18
When Agents Take Over the Entry Points: Search Moves to the Background, and Your Phone and Car Start “Doing Things for You” In 2025, multimodal ...
(1436)次阅读|(0)个评论
多模态进化论:从“看图说话”到“原生直觉” 2025-12-18
我们经常感叹现在的 AI 能看懂复杂的梗图,甚至能像物理学家一样分析视频里的运动轨迹。剥开那些炫酷的 Demo,核心的竞争壁垒其实主要是两件事: 给模型吃什么 ...
(2221)次阅读|(0)个评论
正常的模型反哺不会导致模型坍塌 2025-12-18
某些关于再生数据造成“模型坍塌 (Model Collapse)”的说法其实是危言耸听,模型反哺造成  Self-Improvement (自我进化)  具有内在的根本逻辑: 只要 ...
(1763)次阅读|(0)个评论
2025 年 AI 感怀 2025-12-18
当入口被 Agent 接管,搜索退居后台,手机与汽车开始“替你办事” 2025 年,多模态与 agent 把 AI 从“会回答”推进到“会办事”。Su ...
(1199)次阅读|(0)个评论
大模型训练的数据“炼金术” 2025-12-16
立委按:在 Transformer 架构趋同的今天,大模型的性能很大程度上决定于数据工作的极致程度。大模型训练数据工作的“后厨”包括从去重算法到数据退火 ...
(1185)次阅读|(1)个评论
再论大模型压缩的“有损”与“无损” 2025-11-24
要把这一点说清楚,我们得从一个更底层的问题开始: 什么是“真正的压缩”? 为什么说“压缩就是智能”的同时,又不得不承认大模型在训练上是“有损”的? ...
(1911)次阅读|(0)个评论
大模型是无损压缩还是有损压缩,李飞飞与伊利亚谁是对的? 2025-11-24
智能的本质:在“有损”与“无损”的压缩悖论中寻找答案 前言:一场“鸡同鸭讲”的高端对话 在人工智能的理论高地上,最近出现了一场看似矛盾的争论。 一方面, ...
(1098)次阅读|(0)个评论
GPT非监督学习到底怎么就学会了各种监督任务呢? 2025-11-10
这个问题是研究过大模型原理的人都容易卡住的一个“门槛”。这不是简单的“监督 vs 非监督”分类问题,而是关涉 信息结构、任务表征和隐式监督 在超大规模训练 ...
(3041)次阅读|(0)个评论
自学习是思想革命,Transformer是工程火箭 2025-11-08
很多人容易把“自(监督)学习”(Self-supervised Learning)和“Transformer”混为一谈。实际上,它们属于人工智能演化的两个不同层面。 自学习 是一条 算 ...
(1772)次阅读|(0)个评论
CNN与RNN——让机器学会看与听 2025-11-08
AI现代史从神经网络革命开始。其中CNN与RNN是当时的两个主流网络。 要让计算机学会“看”,第一步是让它理解 邻近像素之间的关系 。我们人类识别物体时,并不 ...
(1729)次阅读|(0)个评论
Backpropagation: The Key to Deep Neural Networks 2025-11-08
By introducing "hidden layers" that perform nonlinear transformations, a network can map linearly inseparable low-dimensional problems (like the ...
(3278)次阅读|(0)个评论
The Chain Rule: The Mathematical Guarantee Behind Backpropag 2025-11-08
We know that backpropagation is the key to deep neural networks. What enables this key to unlock the door to deep learning is the  chain rule ...
(1646)次阅读|(0)个评论
链式法则:反向传播能work的数学保证 2025-11-08
我们知道,反向传播是深层神经网络的钥匙。这把钥匙可以开启深度学习的大门,靠的是链式法则。 数学上,梯度的链式法则(chain rule)保证了:每个局部调整 ...
(1645)次阅读|(0)个评论
反向传播:深层神经网络的钥匙 2025-11-08
【立委按:反向传播是现代AI最关键的算法,没有之一。是深度学习革命与大模型爆发的技术基础。如果你没听说过它,或者知之甚少,至少是该了解一点它,因为这是A ...
(1922)次阅读|(0)个评论
从高级语言的基本逻辑装置到图灵机的编译 2025-09-19
(How if, and, or all collapse into 0/1 moves) 引子: if  从哪里来? 写过程序的人都熟悉这样的语句: ...
(3000)次阅读|(0)个评论

查看更多

    无权查看

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2026-1-20 17:59

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部