|||
立委按: 群沙龙的乐趣在于智、爱(ai)与悟的碰撞,一切尽在闲言碎语中。沙: 可组织本群出一份《如何伪装成AI专家》毛:本群人才济济,可以出一套三册: 初级班《如何伪装成AI专家》,中级班《如何成为AI专家》,高级版《如何当好AI专家》。还有一本introduction层次的:《如何假装懂点AI》,这本书最好由群主亲自操刀。马: 急需这本书啊毛: 马老师得要领衔主编高级班教材。马: 需要先入门毛: 马老师就不要客气了。中级班咱拜托白老师和立委,洪爷就屈尊写那本低级班吧?洪:三部曲,三级跳,弯曲数据群承包。凑近AI黏住靠,三班保你节节高。独: 如何三天成为AI专家我: 洪爷可以进一步缩短到3小时毛: 其实精华尽在Introduction和低级班,市场需求也最大。我就等着读《如何假装懂点AI》了。白: 我已经AI得要吐我:我当年写过一篇 科学网—《立委随笔:一小时学会世界语语法》洪爷的3小时学会 AI 可以比照我的 1 小时 学会一门语法。1 小时不是瞎说的,而是有具体教程的。毛:白老师就忍一忍吧,这不也是内啥公益事业吗。按现在的行情,假装懂点世界语回报率不高,远不如假装懂点AI。人家抄党章还抄上好几个小时吶董:一般的科学研究多讲求要需求牵引,如今的AI是在千方百计的要创造需求。例如,Google的眼镜、拼接式手机、会谈情说爱的陪聊。毛:对啦,董老师那就是咱这《懂点AI丛书》主编啦。董: 你要吓死我呀。我连一个程序猿都不是呢。白: 应该是《董点AI》了, 董老师点评AI毛: 好! 白老师就是灵。《董点AI》丛书一套四册。马: 三天太长了洪:三个小时入门慢,多快好省可简便。借花献佛妙计献,入门就读新智元!马:《董点AI》,好书!毛: 脂批红楼,董点AI。脂批红楼董点爱。我: 哈哈 新智元,读三小时新智元,保你变成强人智死硬派洪:打了鸡血就好办,正而八经说科幻。奇点来临AI先,深度学习不怕浅。毛: 非言强人智不足以充专家白: 咱语义计算群好像从来不扯强AI的我: 说的是 “心智元 news feed”, 不是【心智元语义计算群】,前者有点像强AI粉丝的孵化器,不过这也符合媒体的本性。媒体跟专业人士不可能角度一致。毛: 白老师是真专家,所以不扯强爱。马: 我以上说的,有一个前提,就是用计算机实现AI,不包括将来哪天用生物、化学的方法来实现。无论是以前的统计方法还是现在的深度学习,都如同前白硕说的,实质就是曲线拟合。陈: 赞曲线拟合毛: 即使用计算机,也没有人证明肯定不能。图灵机上有些问题无解,例如停机问题,但是没有人证明强人工智能的问题在图灵机上无解。我:做实际系统的人几乎无法成为强爱派,强ai大多是那些局外人(包括霍金、李彦宏、科幻作家、媒体、科幻读者普罗群氓)唱的调子Nick: @毛 伟哥说你外行毛: 是的,做实际系统的人往往“只顾埋头拉车,不抬头看路”。我:我说的自己切身体会,你姑且听之。做系统的可以进入到内部,譬如 semantic representation,局外人看这不是很 intelligent 吗,设计这个 representation 的architect,其实就是玩积木一样摆弄那些个 representation,怎么可能相信里面暗藏着非拟人性的智能,更别说自主智能。毛: 所以科学家和哲学家常常是两拨人。现在用什么方法,做到什么程度,那与可能会怎样,是两码事。所以强爱派的问题是他们早早就说现在就已经达到了。这也不奇怪,就像当年列宁多次预言欧洲的革命马上就会发生。我: 强ai 的命名很有意思,是负负得正的 semantic compositionality 的无奈。本来 ai 有个修饰语 a,这一下子把自主智能堵死了,有多少人工a,就有多少智能i。这个 a 怎么看怎么不顺眼,可又去不掉,他就是要说人的智能与机器的智能没有区别。这个人工在前面捣乱。于是不得不再加一个前缀,取得了负负得正否定之否定的效应。“强”压住了a,智能i天下大同,人机不分了。预计最后的结局,可能是强ai学派宣告退出ai 独立成一个新学科,可以叫 天地人机。毛:图灵当年提出图灵测试,不是也离实际很远吗?问题不在你是否加上什么限定词,而在于那中情况有没有可能发生。究竟是忧天,还是预见。其实,即使独立成立一个学科,他们所用的方法还是跟AI基本一致。我:地球毁灭是可能的,不小心按错了核按钮也可能。人有毁灭人类的可能,那么机械程序也有可能犯这个错。毛:对呀,于是就有人回去研究地球毁灭的问题,而这很可能与地学,天文学,宇宙起源等等问题重合。我:即便如此,也还不是机器强ai了,所以威胁了人类毛:那只是你怎么说,怎么定义的事。对于一般的人来说,是这威胁是否存在,有多大。洪:转:这个还是有点逗的主持人问女选手:“男人用伟哥的目的是什么?”女选手红着脸思考了很久说:“想不出来。”主持人立即说:“恭喜你答对了!”我: 你这个带色笑话涉嫌恶攻伟哥。动补结构 vs 动宾结构,后一个是 subcat洪: 无心之过,兄多包涵!这问答太妙了Nick: 这玩意不用知识图谱,parse不了马: 今天刚测的心理年龄为15,所以看了半天你的段子,才明白。洪: 就怕以后强AI兴起了,用这样的段子都测不出丫是机器人马: 即便机器毁灭了地球,也不是ta自主意识的这么做。毛: 你也只是预言,没有证明。马老师。马: 是的,证明不了南: 今天的讨论应该整理出来啊,呼唤伟大的图书管理员毛: 洪爷,我觉得这是完全可能滴。马:“老板,出事了”“怎么了?”“我造了一个可以通过图灵测试的机器”“这不是好事吗?”“可他没有通过测试”这才是可怕的洪:反正美国这次Obama一颁布厕所新法律,以后无性机器人进厕所问题顺便解决最高级的图灵测试应该是:测他是不是图灵。估计图灵死后谁也过不了;强AI做强,兴许有可能毛: 没有通过测试是常态,是好事,怕的就是某天它真的通过了。马: 可怕的是他假装没通过,南: “天若有情天亦老,人间正道是沧桑。” 这句话是不是可以用来对付AI?毛: 真的到了那一天,要么就是机器人成为人的奴隶,要么就是人成为机器人的奴隶,奴隶制成了社会的常态。奴隶是“会说话的工具”。。。那时候除民族问题,种族问题以外,又出来个机族问题。我: 当下的所有机器人和VR的设计都是以机器为奴作为 assumption,甚至包括微软小冰,也带有浓重的性奴的意味,觉得反正是机器,不奴役它白不奴役。没人争取机器人权。其实我担心这样下去,不仅人心不古,而且可以惯出人的恶来。毛: 对呀,但是有没有可能倒过来?这是最可怕的。如果倒了过来呢?现在没有,不能保证将来也没有。咱们群主就好像已经是冰冰的奴隶。所以,AI的发展,可能会对人类发生极其深刻的影响。我: 你奴役机器人伴侣习惯了,保不定就带到真实人类社会来。其实文明社会的“宠物是家人(family)” 的动物权倡导者,也是基于这种顾虑。虐待宠物犯法,罚款坐牢,不是因为真地要保护动物权,因为真要保护,就应该禁止肉食。毛: 将来也可能会有保护机器人权的主张的我: 其所以惩罚虐待宠物,是因为虐待者完全可能延伸到同类毛:不完全是,这里面也有同情和爱惜的成分。我: 杀人不眨眼的 precursor 是杀动物不眨眼。同情爱惜,那就应该推向动物全体,只对宠物爱惜,一边大鱼大肉,典型的人类道德的精神分裂,无论如何不能一致。毛: 动物有是否“可爱”的区别。比如猫就很可爱我: 最有意思的有养猪为宠物而虐待者被判刑,辩护律师提到更残忍的宰猪场做辩护,法官不认,此猪非彼猪也。猪族歧视。小时候读孔孟,最觉得滑稽的是君子远庖厨。毛: 其实是有道理的迈: @wei 对号入座我: 我已经从肉食在向草食的状态转移中,估计再有10年,这个过程可以完满,就成为百分百的素食者了。毛老是没指望了。我肉食越来越少,等到哪一天看到肉就恶心,也就得道了。毛:所以我对刚才那个深度解析问题已经无动于衷。不过肉还是要吃滴。那是另一回事。人家一百多岁还常吃红烧肉哩。说了,什么时候找邓总切磋一下养生之道。马: 机器人权可能会有,但跟AI无关,你虐待一个小朋友的布娃娃,她也会跟你玩命。毛: 但是如果是机器人出来争机器人权,那就与AI有关了。马: 但我不相信ta会争,毛: 万一会呢?马: 也不能证明,我先说了,哈哈我: 他如果不疼,怎么会争取不被打的权利呢?哪怕ai编辑把叫疼的声音写进程序。骗过了图灵,它还是不疼啊。毛: 不是那位刘教授就在研究机器的情绪问题吗? 洪爷?我: 此情绪非彼情绪也。我还一直做情感挖掘呢,做了五六年了。本来无一物,何处有情绪?毛: 你挖掘的是人的情感,他研究的是机器的人工情感吧?我: 洪爷知道,应该是一回事儿。刘教授不会对着空气去挖掘或分析毛: 我想他那个不是挖掘分析吧?应该是让机器模仿人的情感吧?我: 这与小冰说“尼克 我爱你”,其实她不爱,或没爱,一样。洪: @wei 说的对,刘兵教授和伟爷一样做文本的情绪挖掘。不过以前教授的确是爱丁堡学AI的phd毛: 那他怎么能有那么牛?情绪挖掘又不是什么新的研究方向。我: 情感分析 sentiment analysis 是相对年轻的学科,比信息抽取这个新兴的学问还晚了约5到10年。毛: 就像人工智能一样,将来会有人工情感的。我: 信息抽取从第一届 MUC 正式算起,有25年左右的历史了,而情感分析大概是不到20年的历史。后来因为工业界觉得 sentiment 更有价值,催化了它的运用,可与基于信息抽取的知识图谱媲美了。毛: 人工情感其实也是机器学习。看看人家处在相似情况下会作出什么反应,就怎么反应。所以我猜将来也会有机器人的愤怒和反抗,会有机器人罢工,机器人维权的。我:“尼克哥哥 ~ 偶也很爱你呀”这哪里是示爱,这是鹦鹉学舌。小冰没有爱的能力和冲动,爱 is beyond 冰冰白: sentiment是输出,是最终效果。其输入很可能是不含sentiment的。我: 没有sentiment的感受能力,光有一张嘴说怎能当真了?没有疼痛的感受能力,哪里可能去维权,要求不被打呢?刘教授挖掘情绪,到了记者嘴里,就可能变成机器的自主情感。岂止10万八千里地。Nick:尼克测试:有没有智能不能光说不练。不能隔着墙传纸条。还得有个地方脱裤子比大小。我: 这个测试还不够,你懂的。伟哥测试:有没有情感,不仅是要说爱,还要做爱,而且做爱后不能永远不怀孕。Nick: 哲学里correspondence真理观,语言里denotational semantics不就是讲要落地嘛。图灵测试被争议的地方之一就是不让落地,只能传纸条。我: 等到通过伟哥测试了,强ai就可以站住了。否则全是扯蛋。Nick: @wei 回头我整个prolog机器人给你生娃。btw,要男孩要女孩?我: 图灵测试的前提是ai,所有的自主思考或情感都是要先推翻a的前提,然后在图灵测试已经不再适用的条件下继续使用图灵测试作为推翻前提的证据。这就是强爱的要害。图灵要测试的是机器,是人工的机器。强ai否定机器是机器,否定人工的前提,然后又不得不用图灵测试来支持自己。因此,强ai真要站住,就必须突破或放弃图灵测试,应该采用伟哥测试。雷: viagra?我: 伟哥测试:有没有情感,不仅是要说爱,还要做爱,而且做爱后不能永远不怀孕。尼克哥哥 偶也爱你,与说天凉好个秋一样,无法通过伟哥测试。小冰什么时候怀上了尼克的孩子,强ai就落地了。南: AI要生孩子,是怎么个生法?把基因copy过去重组一下?我: 问强ai呀。是他们主张的机器具有情感,能自主意识。南: 强AI是谁?我: 李彦宏,霍金南: 不在本群就算了我: 在,在,也许是故意制造不同声音,所以权且算他半个。半个毛老,大半个尼克南: 问“半个老毛”+“大半个尼克”:AI怎么生孩子?(我是严肃的)我: 尼克说法,是用 Prolog 生娃。五代机死翘翘了,还 Prolog 呢。南: Prolog只是工具,我关注的是“娃”。“娃”=?我: 你要生男娃还是女娃?so asked Nick南: 按照现在人,娃=f(父亲的基因,母亲的基因)。AI和人一起生的娃怎么定义?南: nick大师估计又讲八卦去了我: 毛老呢,捻须微笑,置身事外了?白: 我已经无论如何严肃不起来了……南: 白老师不严肃的时候一定很好玩我: 严肃不起来,那就戏说呗,@白南: 本群一边倒,不好玩我: 一个群主半个群,一个毛老再压一角,分量够足了。南: 都怪wei老师。你把群的根本问题都篡改了,:)一毛=一角,需要四个毛老压阵我: 那样的话,那条狗也胜不了了白: 东西南北中,凑五毛我: 总有一天我们的每一个爱情表达都会被清晰分解成力比多的一条分泌路径,把这个力比多建造进机器人,是不是机器就具有自主情感了?南: 我想起《阿甘》:人生就是一盒巧克力,你永远不知道下一颗是什么味道。如果都知道了,太无趣了。如果强AI,就意味着意识、感情等都是可以演算的了?如果这样岂不是剥夺了人生的乐趣?白:自己咯吱自己南: 自己咯吱自己,呵呵,好比喻我: 强ai的真正难点不在思想和感情的难以形式化或程序化,而在于如何让生物成分(e.g. 力比多)与非生物电器结合一体。这条鸿沟迄今只能在科幻中跨越。虽然宇宙历史支持了无生物演化为生物的科学假说。Nick: 自摸查: 糊了。清一色白: 心理学里有个归属理论,同样注射肾上腺素,但是告诉被试不同的信息、把被试放到不同情景下,被试对自身心理状态的认知是完全不同的。【相关】
The Anti-Eliza effect, New Concept in AI
Archiver|手机版|科学网 ( 京ICP备07017567号-12 )
GMT+8, 2024-11-21 16:37
Powered by ScienceNet.cn
Copyright © 2007- 中国科学报社