《镜子大全》《朝华午拾》分享 http://blog.sciencenet.cn/u/liwei999 曾任红小兵,插队修地球,1991年去国离乡,不知行止。


  • Simon Fraser University,博士

    • 信息科学

    扫一扫,分享此博客主页
音乐盒
还没有设置音乐盒的内容
统计信息

已有 19946086 人来访过

  • 无权查看
AI Reflections on 2025 2025-12-18
When Agents Take Over the Entry Points: Search Moves to the Background, and Your Phone and Car Start “Doing Things for You” In 2025, multimodal ...
(612)次阅读|(0)个评论
多模态进化论:从“看图说话”到“原生直觉” 2025-12-18
我们经常感叹现在的 AI 能看懂复杂的梗图,甚至能像物理学家一样分析视频里的运动轨迹。剥开那些炫酷的 Demo,核心的竞争壁垒其实主要是两件事: 给模型吃什么 ...
(638)次阅读|(0)个评论
正常的模型反哺不会导致模型坍塌 2025-12-18
某些关于再生数据造成“模型坍塌 (Model Collapse)”的说法其实是危言耸听,模型反哺造成  Self-Improvement (自我进化)  具有内在的根本逻辑: 只要 ...
(634)次阅读|(0)个评论
2025 年 AI 感怀 2025-12-18
当入口被 Agent 接管,搜索退居后台,手机与汽车开始“替你办事” 2025 年,多模态与 agent 把 AI 从“会回答”推进到“会办事”。Su ...
(552)次阅读|(0)个评论
大模型训练的数据“炼金术” 2025-12-16
立委按:在 Transformer 架构趋同的今天,大模型的性能很大程度上决定于数据工作的极致程度。大模型训练数据工作的“后厨”包括从去重算法到数据退火 ...
(748)次阅读|(1)个评论
再论大模型压缩的“有损”与“无损” 2025-11-24
要把这一点说清楚,我们得从一个更底层的问题开始: 什么是“真正的压缩”? 为什么说“压缩就是智能”的同时,又不得不承认大模型在训练上是“有损”的? ...
(1482)次阅读|(0)个评论
大模型是无损压缩还是有损压缩,李飞飞与伊利亚谁是对的? 2025-11-24
智能的本质:在“有损”与“无损”的压缩悖论中寻找答案 前言:一场“鸡同鸭讲”的高端对话 在人工智能的理论高地上,最近出现了一场看似矛盾的争论。 一方面, ...
(803)次阅读|(0)个评论
GPT非监督学习到底怎么就学会了各种监督任务呢? 2025-11-10
这个问题是研究过大模型原理的人都容易卡住的一个“门槛”。这不是简单的“监督 vs 非监督”分类问题,而是关涉 信息结构、任务表征和隐式监督 在超大规模训练 ...
(2765)次阅读|(0)个评论
自学习是思想革命,Transformer是工程火箭 2025-11-08
很多人容易把“自(监督)学习”(Self-supervised Learning)和“Transformer”混为一谈。实际上,它们属于人工智能演化的两个不同层面。 自学习 是一条 算 ...
(1541)次阅读|(0)个评论
CNN与RNN——让机器学会看与听 2025-11-08
AI现代史从神经网络革命开始。其中CNN与RNN是当时的两个主流网络。 要让计算机学会“看”,第一步是让它理解 邻近像素之间的关系 。我们人类识别物体时,并不 ...
(1517)次阅读|(0)个评论
Backpropagation: The Key to Deep Neural Networks 2025-11-08
By introducing "hidden layers" that perform nonlinear transformations, a network can map linearly inseparable low-dimensional problems (like the ...
(3079)次阅读|(0)个评论
The Chain Rule: The Mathematical Guarantee Behind Backpropag 2025-11-08
We know that backpropagation is the key to deep neural networks. What enables this key to unlock the door to deep learning is the  chain rule ...
(1442)次阅读|(0)个评论
链式法则:反向传播能work的数学保证 2025-11-08
我们知道,反向传播是深层神经网络的钥匙。这把钥匙可以开启深度学习的大门,靠的是链式法则。 数学上,梯度的链式法则(chain rule)保证了:每个局部调整 ...
(1267)次阅读|(0)个评论
反向传播:深层神经网络的钥匙 2025-11-08
【立委按:反向传播是现代AI最关键的算法,没有之一。是深度学习革命与大模型爆发的技术基础。如果你没听说过它,或者知之甚少,至少是该了解一点它,因为这是A ...
(1581)次阅读|(0)个评论
从高级语言的基本逻辑装置到图灵机的编译 2025-09-19
(How if, and, or all collapse into 0/1 moves) 引子: if  从哪里来? 写过程序的人都熟悉这样的语句: ...
(2808)次阅读|(0)个评论
小科普:图灵机是怎么工作的? 2025-09-19
图灵机是所有计算和AI的理论原点。它是什么,如何工作的呢? 1)开场:一支铅笔,一条纸带,一位年轻人 1936 年,一个 24 岁的年轻人叫阿兰·图灵。他没端出 ...
(2053)次阅读|(0)个评论
尼克讲座第二弹:语言=思维=智能=计算=图灵机? 2025-09-19
尼克大师《计算与智能的第一性原理》第二讲出来了(请查微信视频号)——什么是计算?为什么说图灵定义了计算?为何计算机科学以他的理论为基石?笔记如下。 ...
(1740)次阅读|(0)个评论
Breakthroughs in Speech Technology in the Era of Large Model 2025-09-14
As large language models (LLMs) expand into audio, progress has been breathtaking. “LLM-native” speech technology reached practical maturity roughl ...
(3192)次阅读|(0)个评论
Neural Codec: Key Audio Techniques in the LLM Era 2025-09-14
“Codec” is short for coder–decoder: an end-to-end machine for compressing and then restoring audio. The encoder compressess a signal into a more c ...
(1052)次阅读|(0)个评论
马斯克的乌托邦宣言 2025-09-14
引言 自特斯拉成立以来,我们每一轮的宏图计划都聚焦于我们的北极星目标:以毫不妥协的方式实现不受约束的可持续性。 人类是工具的制造者。在特斯拉,我们大 ...
(3899)次阅读|(0)个评论

查看更多

    无权查看

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-12-20 02:07

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部