《镜子大全》《朝华午拾》分享 http://blog.sciencenet.cn/u/liwei999 曾任红小兵,插队修地球,1991年去国离乡,不知行止。

博文

按标题搜索
AI Reflections on 2025
2025-12-18 21:35
When Agents Take Over the Entry Points: Search Moves to the Background, and Your Phone and Car Start “Doing Things for You” In 2025, multimodal models and agents pushed AI from “answering questions” to “getting things done.” Suno v5 made it possible for ordinary people to reliably produce ...
个人分类: AI 浪潮|1874 次阅读|没有评论
多模态进化论:从“看图说话”到“原生直觉”
2025-12-18 12:49
我们经常感叹现在的 AI 能看懂复杂的梗图,甚至能像物理学家一样分析视频里的运动轨迹。剥开那些炫酷的 Demo,核心的竞争壁垒其实主要是两件事: 给模型吃什么(数据形态) ,以及 让模型怎么学(训练范式) 。 我们拆解一下,模型是如何进化成懂物理、懂逻辑的“原生多模态生物”的。 一、 数据形态:决定智商上限的“ ...
个人分类: AI 浪潮|2527 次阅读|没有评论
正常的模型反哺不会导致模型坍塌
2025-12-18 12:45
某些关于再生数据造成“模型坍塌 (Model Collapse)”的说法其实是危言耸听,模型反哺造成 Self-Improvement (自我进化) 具有内在的根本逻辑: 只要存在“优胜劣汰”的拣选机制,合成数据就不是“近亲繁殖”,而是“定向进化”。 1. 为什么“模型坍塌”在工程上是伪命题? 那些声称“模型吃合成数据会变傻” ...
个人分类: AI 浪潮|2048 次阅读|没有评论
2025 年 AI 感怀
2025-12-18 12:43
当入口被 Agent 接管,搜索退居后台,手机与汽车开始“替你办事” 2025年,多模态与agent把AI从“会回答”推进到“会办事”。Sunov5让普通人稳定产出可循环音乐;Sora2把视频从片段生成推向分镜与一致性生产;FSD的高覆盖使用让安全讨论更接近apples-t ...
个人分类: AI 浪潮|1548 次阅读|没有评论
大模型训练的数据“炼金术”
热度 1 2025-12-16 01:06
立委按:在Transformer架构趋同的今天,大模型的性能很大程度上决定于数据工作的极致程度。大模型训练数据工作的“后厨”包括从去重算法到数据退火策略等一系列“魔鬼细节”。 在当今的 AI 圈子里,有一个共识:如果说 Infra(基础设施) 是现代化的厨房, Algorithm(算法) 是精湛的烹饪技 ...
个人分类: AI 浪潮|1455 次阅读|1 个评论 热度 1
再论大模型压缩的“有损”与“无损”
2025-11-24 14:30
要把这一点说清楚,我们得从一个更底层的问题开始: 什么是“真正的压缩”? 为什么说“压缩就是智能”的同时,又不得不承认大模型在训练上是“有损”的? 一、从第一性原理看“压缩”:柯氏复杂度与上帝视角程序 在信息论和计算理论的深水区,“压缩”的终极定义并不是 zip、PNG 那种工程实践,而是: 给定一段数 ...
个人分类: AI 浪潮|2268 次阅读|没有评论
大模型是无损压缩还是有损压缩,李飞飞与伊利亚谁是对的?
2025-11-24 11:47
智能的本质:在“有损”与“无损”的压缩悖论中寻找答案 前言:一场“鸡同鸭讲”的高端对话 在人工智能的理论高地上,最近出现了一场看似矛盾的争论。 一方面,AI教母李飞飞(Fei-Fei Li)指出:大模型是一种 有损压缩 (Lossy Compression)。这一观点直观且符合经验——模型会产生幻觉,无法100%还原训练数据中的每一个 ...
个人分类: AI 浪潮|1441 次阅读|没有评论
GPT非监督学习到底怎么就学会了各种监督任务呢?
2025-11-10 15:27
这个问题是研究过大模型原理的人都容易卡住的一个“门槛”。这不是简单的“监督 vs 非监督”分类问题,而是关涉 信息结构、任务表征和隐式监督 在超大规模训练下发生的质变,或曰能力涌现。我们可以一点点拆开来看,为什么一个看似简单的“预测下一个词”(NTP)目标的GPT预训练,就能奇迹般地涵盖几乎所有任务的规律,成 ...
个人分类: AI 浪潮|3382 次阅读|没有评论
自学习是思想革命,Transformer是工程火箭
2025-11-8 08:27
很多人容易把“自(监督)学习”(Self-supervised Learning)和“Transformer”混为一谈。实际上,它们属于人工智能演化的两个不同层面。 自学习 是一条 算法路线 ,它回答的是:“智能能否在没有人工标注的情况下,从数据中自己学习知识?” 它的革命性在于——让AI不再依赖昂贵的监督数据,也能学会完成原本需要监督 ...
个人分类: AI 浪潮|2029 次阅读|没有评论
CNN与RNN——让机器学会看与听
2025-11-8 08:26
AI现代史从神经网络革命开始。其中CNN与RNN是当时的两个主流网络。 要让计算机学会“看”,第一步是让它理解 邻近像素之间的关系 。我们人类识别物体时,并不会一眼就看透整张图片,而是聚焦在不同的局部区域:眼睛、嘴巴、轮廓。 卷积神经网络(CNN) 的原理正是模仿这一点。 CNN通过一个个“小窗口”(卷积核) ...
个人分类: AI 浪潮|1961 次阅读|没有评论

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2026-3-2 15:38

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部