许培扬博客分享 http://blog.sciencenet.cn/u/xupeiyang 跟踪国际前沿 服务国内科研

博文

高级科普: 人机大战,大惊小怪

已有 2873 次阅读 2016-3-10 08:22 |个人分类:今日热点|系统分类:科普集锦


人工智能应用非常广泛,电脑超过人脑的工作很多。大肆炒作,毫无意义。

许培扬  人工智能研究中外合作项目 2016-03-09

许培扬   人工智能国际研究前沿热点分析报告  http://blog.sciencenet.cn/home.php?mod=space&uid=280034&do=blog&id=961594

人工智能研究中外合作项目   分 ...(146)次阅读|(0)个评论

许培扬  人工智能国际研究前沿热点分析报告2016-03-09

Artificial intelligence 人工智能 (Artificial Intelligence) ,英文缩写为AI。它是 研究 、 开发 用于 模拟 、 延伸 和 ...(150)次阅读|(0)个评论

       北京时间今天中午12时,围棋“人机大战”第二番将准时开棋。昨日初战失利后,原本看好李世石5-0的人甚至开始“倒戈”,人工智能的强大为人所赞叹。今日,李世石能否扳回一城,为人类智慧捍卫“尊严”?

不能排除人工智能发展成天网的可能性不能排除人工智能发展成天网的可能性

  新浪科技 郑峻 发自美国硅谷

  李世石又输了。在这场万众瞩目的人机对战中,谷歌旗下DeepMind团队开发的人工智能AlphaGo围棋程序又一次击败了这位韩国的围棋世界冠军,在五局三胜的比赛中连下两城。看起来继国际象棋之后,人类智能在棋牌游戏的最后一块优势阵地也已经不复存在。

  就在第二局比赛之前,谷歌一位资深人工智能工程师接受了新浪科技驻美记者的独家专访,就此次比赛以及人工智能的前景发表了他的看法。由于未获允许接受采访,他不便透露具体身份。需要再次强调的是,此次采访是在旧金山时间周三傍晚进行的,当时他还不知道比赛进程,更不知道李世石会再度告负。

  问:此次比赛是人工智能的里程碑吗?

  答:这次比赛是人工智能领域的一个重要里程碑事件,因为研究人员已经从事围棋计算机程序研究数十年了。20年前,计算机在国际象棋领域击败了人类(注:1997年IBM的深蓝击败世界冠军卡斯帕罗夫)。20年后,电脑程序在围棋上也超越了人类。而此前很多研究人员还认为这至少还需要十年时间。围棋是此前仅存的人类能够击败电脑的完全信息博弈游戏(Perfect Information Game)。

  问:谷歌人工智能团队有多少人?

  答:实际上,谷歌并没有一个叫做人工智能团队的部门。谷歌目前有两个主要团队负责深度学习的研究工作,包括谷歌大脑(Google Brain)以及这次参赛的DeepMind。AlphaGo项目是主要由伦敦的DeepMind团队负责的。我不能透露具体信息。Facebook现在也有一些研究人员在从事同样的项目。

  问:我们是否可以说李世石的对手不只是AlphaGo,而是整个谷歌人工智能的实力?

  答:不是这样,此次李世石的对手是DeepMind的AlphaGo团队。AlphaGo是为围棋比赛开发的,而谷歌的其他机器学习团队都在使用不同的技术,从事不同的项目。

  问:此次比赛过程中,谷歌总部团队为AlphaGo提供了怎样的支持?

  答:只是确保AlphaGo与谷歌的服务器连接顺利。前方也担心比赛过程中互联网连接出现问题,所以准备了备选方案。

  问:那你们怎么看待第一场比赛的胜利?这是意料之中还是意料之外的?

  答:自从去年12月比赛以来,AlphaGo的能力已经得到了明显的提升,我们对此次比赛的胜利是基本预料之内的。我们很多人都认为AlphaGo会赢得比赛,很高兴看到这一切正在变成现实。

  问:你们预计未来几局战局如何?

  答:AlphaGo很大可能会五局全胜。

  问:中国世界冠军柯洁表示,即便AlphaGo可以战胜李世石,也无法战胜他。

  答:我不懂围棋,不知道他是谁。即便他是当今围棋的第一人,即便现在AlphaGo不是柯洁的对手,也只需要三个月时间就完全可以击败他。

  问:那么人工智能何时可以达到撰写小说的程度?

  答:这很难说,我估计10年之内可以实现。

  问:围棋被认为是人类棋牌游戏的智能巅峰。这次AlphaGo取胜是否意味着人工智能已经超越人类智能?

  答:不是这样,人类智能包括很多方面。棋牌游戏只是其中很小的一部分能力。举例来说,目前人工智能依然无法在多玩家同时对战的德州扑克游戏中稳操胜券,也无法在股市这样的无法获知玩家信息的游戏中取胜。他们也无法做到品尝食物这样的人类基本能力。

  问:那么人工智能还需要多久才能对人类智能占据明显优势?

  答:在ImageNet计算机视觉识别挑战赛,人工智能已经在图像分类(物体识别)上接近了人类,这其中的挑战只是从一张图像中分析1000种可能性来判断物体。我觉得未来10到15年,人工智能可以接近人类级别的一般智能水平。要实现这个目标,自然语言是需要克服的一大障碍。

  问:那么人工智能的下一个里程碑是什么?

  答:正如我此前所说,下一个里程碑就是自然语言理解,包括更好的理解书写文字以及搜索查询的问题。

  问:伊隆·马斯克(Elon Musk)担忧未来人工智能可能会无意被用于邪恶,甚至毁灭人类。你怎么看待这种天网存在的可能性?

  答:我认为随着强人工智能(AGI)时代的到来,这是可能的。但目前人工智能的能力还太有限,距离这个可能性还太远。我估计,再过10年这个问题会成为可能。(注:天网Skynet是电影《终结者》中的人工智能系统,拥有自我意识之后开始毁灭人类)

  问:机器到时候会拥有自我意识吗?

  答:目前人工智能依然处在非常早期的阶段,没人知道未来某天机器是否会具备自我意识的能力,乃至更加不可预测的后果。从理论上来说,马斯克的担忧是完全可能的。而这就是马斯克做OpenAI的目的,制定人工智能的道德准则,确保未来人工智能不会被误用于邪恶的目的。

  问:那你怎么看待马斯克创办的OpenAI机构?

  答:我认为保持人工智能研究的开放性和向大众开放是有意义的。他们拥有很多非常杰出的研究人员,包括此前谷歌大脑的一些成员。我很期待看到他们在未来会有怎样研究的成果。

  问:如果有一天真的出现可怕的后果怎么办?

  答:我希望到时候自己的大脑已经融入电脑,人和电脑合为一体。

  问:你的身体呢?

  答:(笑)储存起来,需要的时候再用好了。开个玩笑。


  昨天 AlphaGo 第一盘棋战胜了李世石,激起了各种 “机器超越人类,科幻小说将成真” 的讨论。特别有趣的是有人揣测 AlphaGo 下面会不会故意输下几盘棋,以免人类起疑心,阻挡了它统治人类的野心。其实,虽然机器在逻辑分析推算方面,能力会远超人类,但是依然是属于人类操控的工具。AlphaGo 这类的 “人工智能” 机器真正可能带来的危机,不是奴役人类,而是让人类丧失斗志,无所事事。

  有些人描述 AlphaGo 是 “和人一样的方式思考,但是比人快无数倍”。这么说并不精确。AlphaGo 确实比人快无数倍,但是 AlphaGo 的思考只能说是 “被人的大脑启发”,而非和人类思考一样。AlphaGo 是一个能自我学习的深度学习,经过专家的调节,它能在任何在可以纯凭逻辑分析推算的问题上,把人类远远低抛在后面。机器速度会越来越快,学习能力会越来越强,数据会越来越多。

  基于深度学习的人工智能将带来什么改变呢?我们将看到无数的商机和产品,能够解决问题、拯救生命、产生巨大的商业和用户价值。未来,自动交易能得到更高的投资回报和风险比例,自动诊断 + 基因排序会达到个性化精准医疗,推荐引擎将能推荐你最可能会买的产品、想吃的菜,想认识的人。在拥有大数据 + 大计算 + 专家调节的领域,就不必再跟人类相比了,因为人类根本差的太远了(就像没有人能打败搜索引擎一样)

  这些技术可能辅助专家,也可能取代专家。非专家的工作者很多将会面临失业。未来十年,大部分今天的人类工作可被机器取代。机器将取代许多的护士、记者、会计、教师、股理财师。。。的工作。任何带有 “助理”、“代理” 或 “经纪” 等字样的职位都很可能被取代。 这些机器不需要工资,只需要供电和网,就会一年365 天,一天 24 小时 “上班”。这些机器将帮助我们创造世界上的大部分财富。

  虽然这些机器确实很 “聪明”,而且又高效、勤奋、低廉,但是他们并不 “人性化”,只是冷冰冰的机器和工具。比如说,AlphaGo 第一场就战胜了李世石,但是它不会感觉高兴,也不会理解我们对于它的讨论。甚至,它说不上这局棋是怎么赢的。因为,它的思考虽然周密,但是它不懂 “赢了有什么感受?”,也不懂 “为什么围棋好玩”,更不懂 “人为什么要下棋?”,甚至连 “你今天怎么赢的?” 都说不上。今天的机器完全无法理解人的情感、喜怒哀乐、七情六欲、信任尊重、价值观等方面 。对于人文艺术、美和爱、幽默感,机器更是丝毫不懂。有位 AI 研究员做了一套研究幽默感的系统,然后输入了一篇文章,这个系统看了每句话,都说 “哈哈”!今天的机器连个两岁小孩都不如。对人工智能的研究者,这应该是一大未来的挑战。

图一:未来机器统治人类的预测还很遥远图一:未来机器统治人类的预测还很遥远

  所以,今天这些机器仅仅是我们的工具,会为创造价值。至少今天,我们不必担心人工智奴役我们(不过要盯好拥有机器学习 + 大数据的公司,别来作恶伤害用户)。那我们该担心什么呢?这些强大的机器,将带来人类能否度过有史以来最大的 “下岗潮”。这次的 “机器取代人类” 将远超过去的工业革命和信息革命。不过,“下岗” 还不是最可怕的,因为这些机器会产生巨大的商业价值,养活着这些下岗者,进而养活着人类。人类最应该担心的是:一旦当机器供养着人类,人类达到了马斯洛需求的基本需求,人类真的还会有动力去追求更宏伟的目标,自我实现吗?还是会醉生梦死、无所事事地活着?

图二:未来机器养活无所事事的人:真实的危机图二:未来机器养活无所事事的人:真实的危机

  面对这个担心,我们应该:

  ①关注启发式教育,用互动式教育启发孩子对学习的兴趣和效率。AlphaGo 愿意跟人类学习,我们当然也要善用最善于分析,最博学的机器。善于学习,乐于学习的孩子,是不会醉生梦死的。

  ②正视发育右脑的学科领域,平衡文理。塞翁失马,焉知非福?机器超越人类的左脑(工程逻辑思维),也许就是要人类从过去几十年重视理工,倾斜回来,花更多的精力在机器不擅长的右脑,例如:文学诗歌、艺术音乐、电影话剧、文创设计、工匠之美、宗教哲学、沟通情商。这不是说就不要学理工了,而是说应该让适合理工,爱好理工的人学理工,适合人文,爱好人文的人学人文。我们应该平等看待文理,并且鼓励发展文理双全的人才。

  ③鼓励有上进心的年轻人挑战自己, 孜孜以求,成为专才。不要把时间浪费在 “安稳” 但是重复性的工作上,而要以 “成为某个特殊又有用领域的最顶尖人才” 为目标,为己任。

  原创文章,作者:创新工场


图注:3月9日,李世石在比赛开始前和DeepMind的创始人哈萨比斯握手,樊麾(后排中)则担任比赛的数子裁判。  图注:3月9日,李世石在比赛开始前和DeepMind的创始人哈萨比斯握手,樊麾(后排中)则担任比赛的数子裁判。

赛后发布会赛后发布会

资料图:中国围棋第一人柯洁中国围棋第一人柯洁

  这几天中午很多人都不能好好吃饭了,更重要的事是围观一场 “人机世纪大战”——Google 旗下 DeepMind 团队研发的围棋人工智能程序 AlphaGo (已击败欧洲围棋冠军樊麾),对决全球最顶尖的围棋选手李世石欧巴。代表人类一方的欧巴命运将会如何?(心疼欧巴),人类自己研究出来的机器是否已经能超越人类?人类的未来将走向何方?

  为此,我们采访了IDG 内部最神秘最科技最智能的技术小组:他们怎么看这次大战?IDG 对于人工智能的投资逻辑又是什么?

  一、关于人机大战

  Q1:怎么看人工智能的进步?

  “是否能保住人类最后的智力骄傲” 这个问题这两天大家讨论的尤其火,其实通过人类智慧开发出来的智能机器战胜了自己,本身就是一个骄傲。相反,如果再经过多年努力,人工智能还没有实质性的突破,那对于人类科技发展来说,才是个巨大的打击。

  劝大家不必太悲伤看待,因为凡是可以分步骤、定规则、可运算的,机器超越人类只是时间问题,从 1952年 会下井字棋、1996年“深蓝” 赢了国际象棋、到 2011年IBM Watson 赢了 Jeopardy,拜摩尔定律所赐,这种提升速度看似比人类智力进化快了许多,但实则是人类多年智力进化成果的一种转移和表现形式。就拿这次的 alphaGo 来说, 就是在人工制定的基本规则框架下,对历史上很多很多人类下棋规律的统计,得到现在的表现的。换句话说,人工智能,关键还是在人工。还是那句话,21 世纪什么最重要,人才!

  Q2:人工智能还有哪些地方需要攻克?

  根据维基百科的定义:“智力或智能是指生物一般性的精神能力。这个能力包括以下几点:理解、计划、解决问题,抽象思维,表达意念以及语言和学习的能力。”

  理解了人工智能就是人工的表现形式,你就会明白,即使在围棋上胜出,也并不代表机器的 “智力” 已经全面超出人类的。近些年,人类已经在自然语言处理(听、说)和机器视觉(看)上取得了长足的进步,你也能看到越来越多的产品标榜了这些功能。但是人工智能还有很长很长的路要走,或许当未来某一天,AlphaGo 在某项智力比赛中赢了人类,然后心花怒放并喜形于色的时候,这才真正的恐 (hao) 怖 (wan) 的时代。

  二、关于人工智能的 ABC

  (业内人士可直接到文末看 IDG 的投资逻辑)

  Q1:铺天盖地的人工智能?到底啥是人工智能?

  A:现阶段产品端能见到所谓的人工智能,绝大部分指的是机器与人之间拟人的交流方式,主要就是 “听得见、听得懂,看得见、看得懂”,再进一步,就是好像还能 “记点事儿”。其中 “听得见” 和 “看得见” 是硬件解决的,换句话说就是话筒和摄像头的事儿,所以智能主要体现在 “听得懂”(语音识别 + 语义理解)和 “看得懂”(图像识别)。大家经常看到的 “机器学习”、“神经网络”、“深度学习”,都是解决这类问题的一些具体的算法。P.S。那篇很火的知乎问答《如何看待谷歌人工智能 AI 击败欧洲围棋冠军?》就提到了 “神经网络”。

  Q2:能解释一下你刚刚提到的各种高大上的名词吗?

  A:按照便于大家理解但是并不严谨的方式来说,“机器学习” 就是统计,在大量数据中统计出来一些具体的参数;“神经网络” 简单说就是 “分级优化”;“深度学习” 是机器学习的一个分支,经常和神经网络一起出现,可以简单的理解为分级优化中每一级的内容都是从数据中统计出来。这些名词我们放在具体的例子中就比较好理解了。

  Q3:给我们讲讲语音识别?

  A:我们先从语音交互的第一步,“语音识别” 开始。(如图所示)声音从源头发出(声源),被话筒接收,转化成电信号。这个电信号放大来看,是一些连续的波形信号。我们把这个连续的信号截成一小段一小段的,每一小段通过一种方法转换成一小串数字,这样才能进行后面的处理。

  转换的方法是这里面最重要的一步了。这套规则,可以是依据经验人为制定的,也可以是通过大量数据的统计,辅助制定和优化的。后面这种方法就是我们所谓的深度学习,我们放到图像识别里面讲,更好理解一些。

  转换了以后就是一个与标准库比对的过程了。比如说,现在这个音,转换完以后是(前半音)XXX XXX XXX XXX +(后半音)YYY YYY YYY YYY,然后标准库里面 A 的发音对应特征值是 XXY YYX XXX XXX+YYY YXX YYS YYZ,B 的发音对应特征值是 XXY YYY YYY YYY+YYX YYX XXX YYY,那我们就知道这个音与 A 更接近(75%),不太可能是 B(17%)。

  更高级一点,还可以根据先后顺序的关系进行匹配,比如按人类的语言习惯,A 之后接 B 的概率更高,接 K 的概率很低,把这个概率算进去,准确率能进一步提升。

  Q4:这个标准库怎么来?

  A:比如说,你找 100 个人读 1000 次 A,然后让机器把这每一个都转换成特征值,总的一起取个平均值,就出来 A 的标准库了。这个标准库是基于大量数据统计出来的结果(取平均值也是一种统计方法),这个过程就像是机器自己听了很多遍学会了一样,所以称为 “机器学习”。除了读音,各种组合的前后关系,也都是统计出来的。

  标准库的建立要尽量的复合实际场景,这样才能找出更符合使用场景的统计规律,从而达到更精准的识别。高大上的产品,比如说科大讯飞,多年的积累使得其可是支持多种方言,比如说出门问问,能支持几十个场景。说白了,这个是一个劳动量密集的体力活。大公司,钱多人多,可以做大而全;小公司,有限资金有限工作量,在有限场景下,用户感知不出来任何区别。

  Q5:语音识别和语义理解是什么关系?

  A:可以这么理解,所谓语音识别,是把音翻译成字和句;语义理解,则是针对句子,给予反馈。语义理解可以分为两种类型,一种是命令 / 数据索取式的,有明确答案的;一种是聊天式的,开放性答案的。

  第一种,比如问:北京今天空气质量如何?答:空气指数 356。这个回答与问题的对应关系,称之为 “规则”。问同一个问题有比较多种问法,为了扩大每一个规则的适用范围,需要做一些语言结构的拆分重构,主谓宾定状补,灵活调整。

  比如顺序的调换:北京今天空气质量如何?VS 今天北京空气质量如何?

  比如替换同近义词:北京今天空气质量如何?VS 北京今天天气质量如何?

  更进一步的,可以增加上下文理解。比如记住上一句话的内容,替换一个下一句话的词汇。

  1 层对话像这样:

  问:今天上海空气质量如何?答:空气指数 135

  问:北京呢?答:空气指数 356

  更高级的还可以有 2 层对话:

  问:帮我在上海订一个今晚的酒店。答:好,在帮您预订

  问:空气质量如何?答:空气指数 135

  问:北京呢?答:空气指数 356

  Q6:那聊天式的呢?

  A:这种问题的答案通常是开放式的,比如说,问 “你在干嘛呢?”。

  这种回答可以是事先人为设定好的规则,常见于一般的寒暄,用户会发现重复问机器人同样的问题,每次答案可能不同,比如 “我在陪你聊天啊”、“不告诉你”、“你猜” 等等,但问的次数多了就开始有重复了。

  这种回答也可以是从巨大的真人对话库中进行搜索得来的,返回出现概率最大的回答。比如说,可以搜索同义的问题,如 “你干啥呢?”,“你弄啥咧?”,然后发现排名最多的回答是 “闲着”、“你猜”、“不告诉你”,那机器就会返回这些回答。

  一般情况下,这两种方式在具体的产品中都会使用。具体到小冰,主要是使用的后者,对话库来源主要是在网络上爬取的(直接调用 MSN 信息可能会涉及隐私问题)。考虑到返回结果较随机,对其的二次理解较为困难,这类聊天机器人通常都是不含上下文理解的。

  Q7:结合前面讲的语音识别一起总结一下?

  A:语音识别,就是一个积攒数据,进行统计的过程,一个劳动密集型的活儿。语义理解,不管是命令式的,还是聊天式的,除非可获取优质聊天记录资源(世界上有这样数据资源的公司就那么几家,当然我也见过有人花钱买人过来陪机器人聊天的),不然就是人工制定规则的事儿,又是一个劳动密集型的活儿。工作量越大,机器人就显得越聪明。从公司维度来说,有限场景下,小公司深耕细作,有机会比大公司更好;大公司则能背靠资源,在更多场景下有所覆盖。

  再用最精炼的话总结一下——多少人工,多少智能;就算聊天,也不智能。一般的壁垒就是工作量!语音是收集素材的工作量;语义是制定规则的工作量;在有限场景范围内,小公司在产品上比大公司没有劣势。

  最后再提一句,机器学习 = 统计。

  Q8:再说说图像识别?

  A:嗯,我们先说最普通的图像识别是怎么做的。这里面我要盗用下 Andrew Ng 大神在 UCLA 的一次 talk 的 PPT(视频截图)。

  人类在看一个物体时,大部分情况其实主要是看它的轮廓(并不是颜色或其他),所以我们希望机器也这么做。拿摩托车举例。第一步,通过图像处理算法,把摩托车的轮廓提取出来(美图秀秀类图像处理工具都有这功能)。第二步,我们把一幅图分成四份,分别统计 0°,45°,90°,135°四种的边的多少,然后把这些数字列在一起,我们称之为 “特征值”。这个特征值里面包含很多的信息,比如说,右下角的图中一般都有轮子,轮子是圆形的,也就是说,各个方向的边,应该都存在且比例相当;而右上角的图中,一般都有把手,所以某一个方向的边会比较多。通过这些数字的内在的关系,机器进行摩托车的判别。这样的方法看起来有些简单粗暴不合理,但目前许多机器确实就是这么识别的。

  Q9:这确实看起来有点…。,那如果加上深度学习和神经网络呢?

  A:用上深度学习和神经网络,那就彻底改观了。

  仔细想一下,我们给别人介绍某人的长相时,很喜欢说,这个脸长得特别像谁谁谁,然后发型有点像谁谁。也就是说,人类是通过一些基本脸型的组合来认人的。数学一点来看,有几个基本脸,然后一个新的人脸,就可以被简化成一串数字,每个数字代表某一个基本脸所占比重。

  那好,基本脸从哪里来?脸的基础单元是部位,部位的基础是边,形状,是各种边的组合。所以要认脸,先找基础边。这些边怎么找?之前摩托车的例子中,边是认为定义的(4 种特殊角度)。人的设定,要么是偷懒,要么就是基于经验,而经验是大规模数据在人脑中统计之后得到的印象。如果换成机器自动做这个统计,那就叫机器学习。而这种由样本进行统计,一级一级的由简单的边开始,最终达到基本脸的机器学习(统计)过程,叫做深度学习。

  具体来说,从左边第一张图,找到所有的边,再看第二张图,发现有些边重复的,就把这个关联变粗(用粗线表示,线越粗表示重复次数越多)。最终统计下来,有些边重复次数特别多,是重要的,就作为基础边。同样道理,我们从图中统计出来基础边的重要组合,就是基础部位,再深一层,就是基本脸。具体的运算过程会比较复杂,对应一种由节点(边、部位、脸)和节点间连线(粗细表示重要程度)的计算架构和相应算法,这个叫做神经网络。

  Q10:总结一下图像识别吧?

  A:图像和语音识别,核心都是特征值转换算法,即基础单元&数字表示。深度学习就是指基础单元库源于数据统计而非人为设定(合理,可解释);神经网络指的是一级一级分级优化,权重连接(最简化基础单元库),这两个通常一起出现,使得结果既合理又简单。

  大型神经网络价格较贵,每一个节点都是通过高性能 GPU 或者工作站进行实现,几百万美金的投入也就能购买几千个节点,所以这是大公司的游戏。小公司通常采用多个小神经网络,虽然识别准确率会受到一定的影响,但是在不较真的应用场景,比如说家用的人脸识别,中小规模公司用的门禁识别等等,已经可以足够好到用户分辨不出来了。

  Q11:能否整体总结一下人工智能?

  A:人工智能,首先是能听懂看懂(识别)。这一是收集数据(工作量),二是精进算法(可人工凭经验,或者大数据做统计)。对小公司来说,主要是工作量。

  再进一步是能反馈(对话),除了天生有数据的以外,主要就是规则制定(工作量)和数据收集(工作量)。在比拼工作量的事情上,产品设计往往更为重要,该做什么不该做什么主要应该做什么,是小公司集中有限资源于一点突围的法宝。

  再高一层,是有记忆。来过一次就记住你了,下次来直接就能叫出你名字;比如说你回家晚了,会主动的问候,这些都是产品设计的事情。

  三、人工智能的投资逻辑

  我们认为 To C 的人工智能,由于应用场景要求不十分严苛,且人才储备已经足够充足,已经由技术活更多的向产品活儿转变。所以在这个层面上说,我们愿意投资具有强大技术实力,但同时更是一个具有超强产品思维的团队,最鲜明的例子,就是 Rokid。如果你有机会尝试,想必你会被用户体验惊艳到。

  至于 To B 的人工智能,图像识别在苛求精准度的应用场景下,还是非常需要高大上的技术团队,从这个层面上讲,我们投资了 Sensetime;语义理解需要在特定场景下的深耕细作,需要特定场景下的大量数据,在这个层面上,我们倾向于专一行业深耕细作,所以投资了智齿科技。

  至于标题中的问题,我们想说的是:一、VC 的投资核心在于生产产品和提供服务的公司,能真正被大家所用的解决实际痛点问题的产品和服务,如果再有一个 DeepMind 一样的高技术公司摆在我们的面前,我们投资的逻辑,不是能不能下棋,而是它未来能提供更完美的落地的产品和服务;二、AI 现有阶段,在语音语义和图像识别上,已经从技术活儿变成产品活儿,进而是我们的投资热点

http://tech.sina.com.cn/i/2016-03-10/doc-ifxqhmve9008336.shtml

 



https://blog.sciencenet.cn/blog-280034-961695.html

上一篇:你的好运
下一篇:小金打得好!
收藏 IP: 120.52.24.*| 热度|

0

该博文允许注册用户评论 请点击登录 评论 (6 个评论)

数据加载中...
扫一扫,分享此博文

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2024-4-20 07:38

Powered by ScienceNet.cn

Copyright © 2007- 中国科学报社

返回顶部