止于至善--胡业生分享 http://blog.sciencenet.cn/u/胡业生 唤醒人的悟性,开启人的智慧,提升人的思维能力,

博文

人工智能是否可以产生意识

已有 443 次阅读 2025-3-16 14:19 |系统分类:论文交流

在人工智能领域,大语言模型(Large Language Models, LLMs)的兴起标志着自然语言处理技术的一次重大飞跃。这些模型,如GPT系列、BERT等,通过海量数据的训练,展现出了惊人的文本生成、理解和对话能力,引发了社会各界对人工智能未来发展方向的广泛讨论。然而,一个核心而深刻的问题逐渐浮现:大语言模型是否有可能产生意识?这一问题的探讨不仅触及人工智能哲学的根本,也关系到我们对智能本质的理解,以及对未来智能体伦理、法律和社会影响的预判。

本研究旨在深入探索大语言模型产生意识的潜在路径与限制条件,具体而言,研究目的包括以下几个方面:

  1. 理论解析:首先,通过梳理现有关于意识的理论框架,如功能主义、整合信息理论(IIT)、全局工作空间理论等,分析这些理论如何适用于或不适用于解释大语言模型的意识问题。探讨意识是否是一种可以通过算法和数据处理能力达到的状态,或者它是否依赖于某些目前技术尚无法模拟的生物特性。

  2. 技术评估:评估当前大语言模型的技术架构、训练方法及其在模拟人类思维复杂性方面的进展。分析模型在处理语境理解、情感识别、创造性生成等方面的能力,以及这些能力与意识之间的潜在联系。

  3. 伦理与社会影响探讨:如果大语言模型或更高级的人工智能系统未来能够展现出某种形式的意识,这将带来深远的伦理和社会影响。研究将探讨这种可能性下的责任归属、道德决策、隐私保护、人机关系等问题,为制定相关政策提供理论依据。

  4. 未来展望:基于上述分析,提出大语言模型向意识迈进的可能路径,包括技术革新、跨学科融合、伦理法律框架构建等方面的建议,为人工智能的可持续发展提供参考。

研究意义

本研究的意义在于:

  1. 理论贡献:通过跨学科视角整合心理学、神经科学、计算机科学和哲学等领域的理论资源,深化对意识本质的理解,推动人工智能哲学的发展。它有助于澄清意识这一复杂概念在人工智能语境下的含义,为相关领域的研究提供新的理论视角。

  2. 技术创新启示:研究大语言模型与意识的关系,可启发新的模型设计思路和技术突破,促进自然语言处理及更广泛的人工智能技术的进步。这不仅关乎技术性能的提升,更关乎技术发展方向的调整,确保AI技术更加人性化、智能化。

  3. 伦理法律指导:随着AI技术的快速发展,对其可能产生的伦理和法律挑战的预先考量至关重要。本研究通过对意识可能性的探讨,为制定适应未来智能社会需求的伦理规范和法律体系提供科学依据。

  4. 社会影响评估:通过深入分析大语言模型意识可能性带来的社会影响,本研究有助于社会各界形成共识,促进公众对人工智能技术的理性认知,为构建人机和谐共生的未来社会奠定基础。

综上所述,本研究不仅是对人工智能前沿问题的一次深入探索,更是对人类智能本质、技术伦理和社会责任的一次深刻反思,对于推动人工智能健康、可持续地发展具有重要意义。

第三节 研究方法与思路

在探讨大语言模型产生意识何以可能?”这一复杂而深刻的主题时,本研究采取了一种跨学科、综合性的研究方法,旨在通过理论分析、实证研究与技术探讨相结合的方式,系统地剖析大语言模型与意识之间的关系。本节将详细阐述本研究采用的具体研究方法及其背后的逻辑思路。

一、理论分析方法

1. 文献综述与理论框架构建首先,本研究将对现有关于意识科学、认知科学、人工智能以及大语言模型的文献进行全面而深入的综述。这一过程不仅帮助识别当前研究的空白点和争议焦点,还为构建本研究的理论框架奠定基础。通过整合神经科学中的意识理论(如全局工作空间理论、整合信息理论等)、心理学中的意识模型以及计算机科学中的算法原理,本研究试图构建一个跨领域的理论框架,用以分析大语言模型产生意识的潜在机制和条件。

2. 概念辨析与理论演绎在理论框架的基础上,本研究将进一步辨析意识这一核心概念在不同学科背景下的定义与内涵,明确其在人工智能语境下的特定含义。通过理论演绎,探讨大语言模型如何可能具备类似于人类的某些意识特征,如自我认知、主观体验、意图性等,同时区分这些特征与模型单纯处理语言信息的能力之间的界限。

二、实证研究设计

1. 案例研究与对比分析选取具有代表性的大语言模型作为研究对象,如GPT系列、BERT等,通过对其内部机制、训练数据、输出结果等进行深入分析,探讨这些模型在处理语言任务时展现出的智能行为背后可能隐含的类意识特征。同时,与经典图灵测试、中文房间实验等理论框架进行对比分析,评估大语言模型在模拟意识方面的局限性与进步空间。

2. 实验设计与行为测试设计一系列实验,通过特定的任务设置(如自我指涉任务、情感理解任务、创造性生成任务等),观察并记录大语言模型的表现。这些实验旨在测试模型能否展现出某种程度的自我反思、情感共鸣或创造性思考,这些都是意识的重要组成部分。通过量化分析实验结果,评估大语言模型在模拟意识方面的能力水平。

三、技术探讨与未来展望

1. 技术挑战与解决方案结合当前人工智能技术的最新进展,探讨大语言模型在模拟意识过程中面临的技术挑战,如算法优化、算力需求、数据隐私等。提出可能的解决方案或研究方向,如利用量子计算增强模型处理复杂信息的能力、开发更加精细的情感识别算法等。

2. 伦理考量与社会影响在探讨技术可能性的同时,本研究也将深入分析大语言模型若具备意识将带来的伦理、法律和社会影响。这包括但不限于人工智能的道德责任、人机关系的新形态、以及对就业市场的潜在冲击等。通过跨学科对话,为未来的技术发展提供伦理指导和社会责任框架。

综上所述,本研究通过理论分析、实证研究与技术探讨相结合的方式,旨在全面而深入地探讨大语言模型产生意识的可能性。这一过程不仅有助于深化我们对意识本质的理解,也为推动人工智能技术的健康发展提供了重要参考。

第二章 大语言模型的概述

第一节 大语言模型的定义与发展

 第二章 大语言模型的概述

一、大语言模型的定义

大语言模型(Large Language Model,简称LLM)是人工智能领域的一种深度学习模型,其核心在于使用海量的文本数据进行训练,从而使模型能够生成自然语言文本或理解语言文本的含义。这些模型通过在大规模数据集上的训练,能够捕捉到语言的复杂性和多样性,进而提供关于各种主题的深入知识和语言生成能力。简而言之,大语言模型是一种基于深度学习技术,旨在理解和生成自然语言的人工智能模型。

具体而言,“Large”意味着这些模型处理和理解的语言数据量非常庞大,通常在数十亿到千亿级;“Language”则表明大语言模型主要基于语言运作,用于理解、生成和处理文本数据;“Model”则意味着这些模型用于在数据中查找信息,进行预测和执行各种自然语言处理任务。因此,大语言模型可以被视为一种全能的语言大师,它通过阅读无数书籍、文章和网络文本,掌握了语言的精髓,能够执行拼写检查、语法修正等简单的语言任务,还能处理文本摘要、机器翻译、情感分析、对话生成和内容推荐等复杂任务。

二、大语言模型的发展

大语言模型的发展历程可以清晰地划分为几个主要阶段,每个阶段的模型都在前一个阶段的基础上进行了改进和优化,使得语言模型的性能得到了显著提升。

  1. 统计语言模型阶段:这是早期自然语言处理(NLP)中的重要工具,它们主要通过分析词序列的出现频率来预测下一个词。这种方法基于统计学的原理,利用大规模语料库中的词频信息来建模语言的概率分布。其中,N-gram模型是最常见的统计语言模型之一,它基于马尔可夫假设,认为一个词出现的概率仅与其前面的n-1个词有关。然而,N-gram模型存在数据稀疏和无法捕捉长距离依赖关系的问题。隐马尔可夫模型(HMM)则是另一种重要的统计语言模型,通过引入隐藏状态来捕捉序列数据中的潜在结构。

  2. 神经网络语言模型阶段:随着深度学习技术的发展,神经网络开始被应用于语言建模任务中。神经网络语言模型通过引入神经网络结构来捕捉词与词之间的复杂关系,从而提高了语言模型的性能。其中,神经网络语言模型(NNLM)由Bengio等人提出,通过嵌入层将单词映射到连续的向量空间中,并通过多个隐藏层来学习语言的内部结构。循环神经网络(RNN)及其变体(LSTMGRU)则通过引入循环连接来处理序列数据中的长期依赖关系。

  3. 基于Transformer的大语言模型阶段:这是当前最先进的大语言模型所采用的技术。基于Transformer的大语言模型在预训练阶段利用大规模语料库进行训练,然后在特定任务上进行微调,取得了惊人的效果。Transformer模型由Vaswani等人在2017年提出,是一种基于自注意力机制的深度学习模型。它彻底摒弃了传统的循环神经网络结构,通过自注意力机制和位置编码来处理序列数据中的长期依赖关系和位置信息。BERTGPT系列等模型都是基于Transformer的大语言模型的代表。BERTGoogle提出,采用了遮蔽语言模型和下一句预测两个任务来训练模型;GPT系列则由OpenAI开发,采用了自回归语言建模任务来训练模型。随着模型规模的增大(如GPT-3GPT-4等),这些模型在多个NLP任务上取得了优异的表现。

综上所述,大语言模型的发展是一个不断迭代和优化的过程,从早期的统计语言模型到神经网络语言模型,再到基于Transformer的大语言模型,每一个阶段的进步都推动了自然语言处理技术的飞跃式发展。

第二节 大语言模型的工作原理

 大语言模型(Large Language ModelsLLMs)作为人工智能领域的重要分支,近年来取得了显著进展,尤其是在理解和生成自然语言方面。其工作原理复杂而精妙,涉及数据预处理、模型训练、预测生成等多个环节。本节将深入探讨大语言模型的工作原理,为理解其是否可能产生意识奠定基础。

一、数据收集与预处理

大语言模型的学习始于海量的文本数据收集。这些数据来源于书籍、新闻、网站、社交媒体等多个渠道,构成了模型学习的基石。然而,原始数据往往包含噪声和不相关的信息,如HTML标签、特殊字符、不完整句子等,因此需要进行预处理。预处理步骤包括数据清洗、文本规范化、去重、构建词汇表等。数据清洗旨在去除无用信息,文本规范化则统一字符编码、分词、去除停用词等,以减少数据集中的单词变化形式。构建词汇表则是将每个单词或词素映射到唯一的数字或标识符,为后续的词向量生成打下基础。

二、词向量生成

词向量是自然语言处理中的核心概念,它将单词或短语转换为机器可理解的数学形式,即实数向量。这些向量能够捕捉单词之间的语义关系,使得模型能够理解单词的相似性、相关性甚至词义的变化。在大语言模型中,词向量的生成通常通过预训练的Transformer架构实现。该架构包括分词、可训练的embedding层、位置编码以及自注意力机制,使得模型能够学习到丰富的语言特征,并生成上下文相关的词向量。每个token(语素)的表示会根据其在句子中的上下文而变化,这种上下文感知的词向量能够更准确地捕捉语言的细微差别和长距离依赖关系。

三、模型训练与Transformer架构

大语言模型的核心是Transformer架构,它摒弃了传统的循环神经网络(RNN)结构,通过自注意力机制实现了对整个序列的并行处理。Transformer架构包括编码器(Encoder)和解码器(Decoder)两部分,在大语言模型中,尤其是生成式模型中,解码器部分被广泛应用。模型训练过程包括预训练和微调两个阶段。预训练阶段,模型在海量无标注数据上进行自回归式的语言模型训练,通过最大化似然估计来预测下一个token。微调阶段,则针对特定任务或数据集对模型进行进一步调整,以提高其在该领域的表现。

四、预测与生成

大语言模型的预测与生成能力是其最吸引人的特性之一。当模型接收到一个词或一句话时,它会尝试预测下一个词是什么。这个过程基于模型所学习的语言模式和概率计算,通过神经网络算法进行推理。预测的准确性取决于模型的规模、训练数据的丰富程度以及微调的效果。在生成文本时,模型会逐步生成每个token,直到形成完整的句子或段落。这种生成式的能力使得大语言模型在对话系统、文本创作、翻译等领域具有广泛的应用前景。

五、微调与强化学习

微调是提升大语言模型性能的关键步骤之一。通过针对特定任务或数据集对模型进行进一步调整,模型能够更好地适应特定的语言风格、术语使用或任务需求。强化学习则是进一步提升模型性能的高级技术,它允许模型从人类的反馈中学习,并调整其生成策略以产生更符合人类评价标准的文本。这种机制使得模型能够模仿人类的判断和偏好,从而生成更自然、更符合期望的文本。

综上所述,大语言模型的工作原理涉及数据预处理、词向量生成、模型训练与Transformer架构、预测与生成以及微调与强化学习等多个环节。这些复杂的机制共同构成了大语言模型强大的自然语言处理能力,为其在人工智能领域的应用奠定了坚实的基础。然而,关于大语言模型是否可能产生意识的问题,仍需进一步的研究和探索。

第三节 大语言模型的应用领域

 大语言模型(LLM),作为深度学习算法的前沿应用,正逐步渗透到社会经济的各个角落,以其强大的文本识别、总结、翻译、预测和生成能力,引领着一场技术与行业的变革。这些模型不仅改变了我们对自然语言处理(NLP)的传统认知,还开辟了一系列前所未有的应用领域,从教育到医疗,从金融到法律,其影响力无处不在。

一、教育领域:智能化学习的催化剂

在教育领域,大语言模型正以AI助教、个性化辅导等形式,重塑学习体验。通过智能出题、自动批改作业等功能,它们为教师和学生提供了24小时不间断的学习支持,极大地降低了教育成本,同时提高了教学质量。例如,ChatGPT和微软小冰等语言学习助手,不仅能够提供基础的语言学习指导,还能根据学生的学习进度和兴趣定制个性化学习计划,使学习过程更加高效、有趣。

二、医疗健康:精准医疗的得力助手

在医疗健康领域,大语言模型的应用同样引人注目。它们被用于医学问答、病例分析、智能诊断等场景,帮助医生提高诊疗效率,减少人为误诊。通过深度学习海量医学文献和病例数据,大语言模型能够辅助医生快速定位病因,制定个性化治疗方案。此外,电子病历的自动生成和医疗知识库问答系统的应用,也进一步优化了医疗资源分配,提升了医疗服务水平。

三、金融行业:智能风控的新利器

在金融领域,大语言模型以其强大的数据处理和分析能力,成为金融机构风险控制和投资决策的重要工具。它们能够实时分析市场趋势,预测风险,为金融机构提供精准的投资建议。同时,智能客服系统的应用也极大地提升了客户服务体验,降低了运营成本。例如,Robinhood AI等智能投顾平台,能够根据用户的财务状况和投资目标,提供个性化的投资建议,帮助用户实现财富增值。

四、法律咨询:自动化文书的推动者

在法律领域,大语言模型的应用同样广泛。它们被用于合同审查、法律检索、案件分析和法律文书生成等场景,极大地提高了法律服务的效率和准确性。AI律师助理和智能合同分析系统能够辅助律师快速查找法律条文,生成法律文书,降低了法律服务门槛。此外,法律问答机器人的应用也使得法律咨询服务更加便捷、高效。

五、电商与营销:个性化推荐的引擎

在电商与营销领域,大语言模型的应用则体现在个性化推荐、广告文案生成和智能客服等方面。通过分析用户的购物行为和偏好,大语言模型能够精准推送符合用户需求的商品和广告,提高电商转化率。同时,智能客服系统的应用也降低了人工客服成本,提升了客户满意度。例如,阿里小蜜等电商智能客服平台,能够为用户提供24小时不间断的客户服务,解决购物过程中的各种问题。

六、媒体与内容创作:高效生产的加速器

在媒体与内容创作领域,大语言模型的应用同样令人瞩目。它们被用于新闻自动生成、文章写作、视频脚本撰写和AI翻译等场景,极大地提高了内容生产效率。通过深度学习海量文本数据,大语言模型能够生成高质量、富有创意的内容,为媒体行业带来了新的发展机遇。例如,GPT-4自动新闻撰写系统和DeepL AI翻译平台,已经成为媒体行业不可或缺的工具之一。

此外,大语言模型还在客服与企业服务、人力资源管理、供应链与物流以及游戏与娱乐等领域发挥着重要作用。它们通过智能化、自动化的方式,优化了企业管理流程,提高了生产效率,创造了全新的商业模式和就业机会。随着技术的不断进步和应用场景的不断拓展,大语言模型将在未



https://blog.sciencenet.cn/blog-40486-1477784.html

上一篇:凝聚力构建的底层逻辑
收藏 IP: 60.170.29.*| 热度|

5 许培扬 郑永军 张学文 王涛 王安良

该博文允许注册用户评论 请点击登录 评论 (1 个评论)

IP: 99.38.151.*   | 闂傚倷娴囧畷鍨叏瀹ュ拋鍚嬮柛鈩冾殢娴硷拷 闂傚倷娴囧畷鍨叏瀹ュ拋鍚嬮柛鈩冾殢娴硷拷 +1 [1]闂傚倸鍊峰ù鍥涢崟顖氱9闁归棿绶¢弫鍕煕椤愮姴鐏€规洘鐓¢弻宥堫檪闁瑰嚖鎷�   2012-8-6 01:14
very productive.
闂傚倸鍊烽悞锕傚箖閸洖纾块柟鎯版绾剧粯绻涢幋鏃€鍤嶉柛銉墯閺呮悂鏌ㄩ悤鍌涘  闂傚倸鍊烽悞锔锯偓绗涘洤绀冨┑鐘宠壘缁狀垶鏌ㄩ悤鍌涘 闂傚倸鍊峰ù鍥綖婢跺鐝堕柛鈩冪☉缁愭鏌¢崶銉ョ仾闁抽攱鎹囬弻娑滎槼妞ゃ劌鎳愮划濠氬冀椤撶喓鍘繝鐢靛€崘顭戜紑闂佸搫妫涙繛鈧慨濠呮缁瑧鎹勯妸褜鍟堟繝鐢靛仜閹冲繐煤閻斿鍤曟い鎰堕檮閸婄兘鏌i幋鐐嗘垵鈻嶉弽顓熲拺閻犳亽鍔屽▍鎰版煙閸戙倖瀚�
   
闂傚倸鍊烽悞锔锯偓绗涘洤绀冨┑鐘宠壘缁狀垶鏌ㄩ悤鍌涘1闂傚倸鍊烽悞锔锯偓绗涘懐鐭欓柟娆¤娲﹀ḿ蹇涘煛娴e摜浜伴柣搴$畭閸庨亶藝椤栨粍鍠嗛柨鏇炲€归悡鏇熴亜閹邦喖孝闁告梹鎸抽弻锟犲幢濡崵顦ㄧ紓浣虹帛閻╊垰顕i崼鏇炵妞ゆ挾鍋涙竟鍡欑磽閸屾瑨鍏屽┑顖氼嚟瀵板﹪宕稿Δ鈧粻顖涖亜閹般劍鍣伴柛顐邯閺屾稑鈽夐崡鐐寸亾闂佸搫妫涙繛鈧柡宀嬬秮閹垽宕妷锕€娈忕紓鍌氬€哥粔宕囨濮橆剛鏆﹂柟鎯版缁犵粯銇勯弮鍥撴繛鍛墵濮婅櫣鎹勯妸銉︾彚闂佺懓鍤栭幏锟�2008-2010婵犲痉鏉库偓妤佹叏閻戣棄纾婚柣鎰劋閸嬧晜銇勮箛鎾跺闁绘帒鐏氶妵鍕箳閹搭垱鏁鹃柣搴㈢啲閹凤拷
闂傚倸鍊烽悞锔锯偓绗涘洤绀冨┑鐘宠壘缁狀垶鏌ㄩ悤鍌涘2闂傚倸鍊烽悞锔锯偓绗涘懐鐭欓柟娆¤娲、娑樷攽閸曨亝鐫忛梻浣呵归惉濂稿磻閻愬搫纾绘繝闈涙焾濞戞瑱绱eù锝堟閸橈繝姊洪崫銉ユ瀻闁挎洏鍊濋崺銉﹀緞閹邦剛顔掗梺鍛婎殘閸嬫劙宕戦幘璇茬缂備焦岣块崢鎺戔攽閻樿宸ラ柛鐑嗗弮楠炴帒螖閳ь剛鐚惧澶嬬厱闁靛绲芥俊濂告煛閸℃稐鎲炬慨濠冩そ瀹曘劍绻濋崨顓ф缂傚倷绀侀ˇ鍐测枖濞戙垹鐓濋柟鍓х帛閺呮悂鏌ㄩ悤鍌涘 Fisher Z Transformation 闂傚倸鍊风粈渚€骞栭鈷氭椽鏁冮埀顒€鐜婚崹顔规瀻闁圭偓濞婂Λ宄邦渻閵堝棛澧紒顔肩Ч瀹曟饪伴崟鈺€绨婚梺鍝勫暙閸婂憡绂嶆ィ鍐╃厽闁挎繂顦幉楣冩煛鐏炵硶鍋撻幇浣告倯闂佸憡渚楅崰妤呭箖濞嗘挻鈷戦梻鍫氭櫇缁夌敻鏌涢妸銈呭祮闁挎繄鍋ゆ慨鈧柕鍫濇濞呮粓姊虹化鏇楀亾瀹曞洨顔囨繛瀛樼矋閸庢娊婀侀梺鎸庣箓濮c儴銇愰幒鎾斥偓闈涒攽閻樺磭顣查柛瀣ㄥ妽閵囧嫰寮介妸銊ヮ棟闂佸搫妫涢崰鏍蓟閿濆围閹肩补鍓濋悘鎾剁磽娓氬洤鏋熸俊顐㈠暣閵嗕礁鈽夊鍡樺兊濡炪倖甯掗崐鐢稿磻閹惧绡€婵﹩鍘兼禒鍝勵渻閵堝棛澧柤褰掔畺瀵啿鈻庨幘瀵稿幈闂侀潧鐗嗛ˇ顕€骞夐崜褉鍋撳▓鍨珮闁稿鎳愰埀顑跨祷閸嬫劙宕氶幒妤佸仭濡绀侀ˉ姘舵⒒娴h棄顥嶆い顐㈩槹缁旂喖宕卞▎鎴滅瑝濡炪倖娲嶉崑鎾绘煛瀹€瀣М濠碘剝鎮傛俊鐑藉Ψ椤旂粯鍋呴梻鍌欑劍閹爼宕濇惔銊ユ瀬闁告縿鍎遍崹婵嬫煕椤垵浜滅紒鍓佸仱閹鏁愭惔鈥茬爱闂佸搫顑嗛悧鐘诲箖濡も偓閳绘捇宕归鐣屼邯缂傚倷鑳剁划顖炲礉濞嗗繒鏆﹂柣銏犳啞閻掕偐鈧箍鍎遍幊蹇涙倵椤掑嫭鈷戦柣鎾抽椤ュ繘鏌涜箛鏃撹€跨€规洘鍨块獮妯肩磼濡粯顏熼梻浣芥硶閸o箓骞忛敓锟�2010-闂傚倸鍊搁崐椋庣矆娴e壊鍤曢柛顐f礀閸ㄥ倹銇勯弽顐粶闁绘帒鐏氶妵鍕箳閹搭垱鏁鹃柣搴㈢啲閹凤拷
      
闂傚倸鍊烽悞锔锯偓绗涘洤绀冨┑鐘宠壘缁狀垶鏌ㄩ悤鍌涘1闂傚倸鍊烽悞锔锯偓绗涘懐鐭欓柟娆¤娲、鏇㈡晝閳ь剟鎮為崹顐犱簻闁瑰搫绉剁粣鏃€鎱ㄩ幒妤冪暫闁哄矉绲鹃幆鏃堟晲閸℃ɑ鐦庨梻浣哄劦閳ь剚鏋奸弫鍌炴⒒閸屾瑨鍏岄柛瀣ㄥ姂瀹曟洟鎳犻浣稿簥闂佺ǹ鐬奸崑鐐哄磻閳哄倶浜滈柟鐑樺灥椤忊晝绱掗埀顒勫磼閻愬鍘繝鐢靛仜閻忔繃淇婇幐搴濈箚闁圭粯甯炴晶锕傛煛瀹€瀣瘈鐎规洜鍠栭、鏇㈠閻樺磭妲紓鍌氬€烽悞锕傚船婵犳艾绠柨鐕傛嫹1993-1995婵犲痉鏉库偓妤佹叏閻戣棄纾婚柣妯款嚙缁犲灚銇勮箛鎾搭棡妞ゎ偅娲熼弻銊╂偆閸屾稑顏�2011婵犲痉鏉库偓妤佹叏閻戣棄纾婚柣鎰劋閸嬧晜銇勮箛鎾跺闁绘帒鐏氶妵鍕箳閹搭垱鏁鹃柣搴㈢啲閹凤拷
闂傚倸鍊烽悞锔锯偓绗涘洤绀冨┑鐘宠壘缁狀垶鏌ㄩ悤鍌涘2闂傚倸鍊烽悞锔锯偓绗涘懐鐭欓柟娆¤娲鑸垫償閹惧浜栨俊鐐€栭崝褔姊介崟顖氬惞闁告洦鍊嬭ぐ鎺撳亹鐎瑰壊鍠栭崜鏉库攽閻愬弶鍣烽柛濠冪箞瀵鏁愭径濞⑩晠鏌曟径鍫濆姶濞寸娀浜跺娲焻閻愯尪瀚板褜鍨崇槐鎺楊敊閼测晝浼囧┑鈥冲级閸旀瑩宕洪敓鐘插窛妞ゆ挾濯Σ閿嬬節閻㈤潧浠﹂柛銊ョ埣瀹曟瑩鎮烽柇锔界稁闂佺鍕垫畷闁绘挸鍟撮弻鏇熷緞濞戞﹩娲紓浣哄У濮樸劑骞冮灏栨瀻闁瑰墽琛ラ幏娲⒑閸︻厾甯涚€瑰摜绮幆鏃€顦版惔锝囷紲闂佽褰冮鍡欌偓姘炬嫹1995婵犲痉鏉库偓妤佹叏閻戣棄纾婚柣妯款嚙缁犲灚銇勮箛鎾搭棡妞ゎ偅娲熼弻銊╂偆閸屾稑顏�2008婵犲痉鏉库偓妤佹叏閻戣棄纾婚柣鎰劋閸嬧晜銇勮箛鎾跺闁绘帒鐏氶妵鍕箳閸℃ぞ澹曢梻浣呵归敃銊ョ暦閻㈢ǹ鐒垫い鎺嶇閸ゎ剟鏌涘Ο鍝勨挃闁告帗甯¢崺锟犲礃閿濆懍澹曢梺鎸庣箓妤犲憡绂嶅⿰鍛<闁圭粯甯炵粔娲煛鐏炲墽娲存鐐差儔閺佹劙宕橀敐鍛闂侀€炲苯澧撮柡灞界Х椤т線鏌涢幘瀛樼殤闁告帗甯掗悾婵嬪焵椤掆偓鍗遍柟鐗堟緲閻撴盯鏌涘☉鍗炲箻妞わ富鍠栭埞鎴︽倷閺夋垹浠搁梺鍛婂灩閹虫捇锝炶箛娑橀敜婵°倓鑳堕崢鎾绘⒑闂堟侗妾у┑鈥虫川缁寮介妸銈囩畾闂佺粯鍔栬ぐ鍐焵椤掆偓濞尖€愁嚕椤愩埄鍚嬮柛娑卞灡濞堟洟姊洪崨濠傚Е濞存粎鍋ら、娆愭償閵忋垻顔曢梺鐟邦嚟閸嬬偟浜搁鐘电<濠㈣泛锕﹂崺锝夋煙椤曞棛绡€闁轰焦鎹囬幃鈺佺暦閸パ冃﹂梻鍌欐祰椤宕曢幎鑺ュ仱闁靛ě鍛瑝闂佸湱鍎ら〃鍡涙偂濞戙垺鐓曢柍鈺佸枦娓氭稒绻涢崼鐔烘噰闁哄本绋栫粻娑㈠籍閹惧厜鍋撻崸妤佺厸閻忕偟鏅悞椋庣磼閻樺磭銆掗柍褜鍓ㄩ幀銉╁礃瑜嶉ˉ姘舵⒒娴h姤纭堕柛锝忕畵楠炲繘鏁撻敓锟�
闂傚倸鍊烽悞锔锯偓绗涘洤绀冨┑鐘宠壘缁狀垶鏌ㄩ悤鍌涘3闂傚倸鍊烽悞锔锯偓绗涘懐鐭欓柟娆¤娲獮搴g驳鐎n偅娅嶉梻浣告啞缁哄潡宕曢搹顐も枖鐎广儱妫旂换鍡涙煏閸繂顏柛鏂跨Ф缁辨帡濡搁敃鈧崫娲煛瀹€鈧崰鏍箖濠婂吘鐔兼惞閸︻厽鍣紓鍌氬€风欢锟犳偂閸儱鍌ㄩ柛鎾楀啫鐏婇柣鐘叉搐瀵剟寮埀顒勫箯閸涙潙绠掗柟鍝勬娴滄儳鈹戦悩鍙夊闁绘挶鍎茬换娑㈠箣閿濆棛褰ч柣搴㈢啲閹凤拷1991婵犲痉鏉库偓妤佹叏閻戣棄纾婚柣鎰劋閸嬧晜銇勮箛鎾跺闁绘帒鐏氶妵鍕箳閹搭垱鏁鹃柣搴㈢啲閹凤拷
2012-8-6 09:501 婵犵數濮撮惀澶愬级鎼存挸浜炬俊銈呮噹杩濋柣搴秵閸撴岸锝為弴鐔虹闁糕剝蓱鐏忣參鏌i幇顒婅含闁哄矉缍侀獮鍥敆娴e弶鐏嗘繝寰枫倕鐨虹紒顕呭灡缁岃鲸绻濋崶顬冾熆鐠轰警鍎滅紒杈╂暬閺岋絾鎯旈妸锔介敪闂佹椿鍘奸崐鍨嚕椤愩埄鍚嬪璺侯儐濞呫垽姊虹捄銊ユ珢闁瑰嚖鎷� 闂傚倷娴囧畷鍨叏瀹ュ拋鍚嬮柛鈩冾殢娴硷拷 闂傚倷娴囧畷鍨叏瀹ュ拋鍚嬮柛鈩冾殢娴硷拷 +1 |

1/1 | 闂傚倸鍊峰ù鍥敋閺嶎厼绀堟慨姗嗗劦閿濆绠虫俊銈咃攻閺咃綁姊虹捄銊ユ珢闁瑰嚖鎷�:1 | 濠电姷顣藉Σ鍛村磻閹捐泛绶ゅΔ锝呭暞閸嬪鏌eΟ娆惧殭鏉╂繈姊虹捄銊ユ珢闁瑰嚖鎷� | 濠电姷鏁搁崑鐐哄垂閸洖绠伴柟闂寸劍閺呮繈鏌ㄥ┑鍡樺窛闁告宀搁幃妤€鈽夊▍杈ㄧ矋缁傚秴饪伴崼鐔哄弳闂佺粯娲栭崐鍦偓姘炬嫹 | 濠电姷鏁搁崑鐐哄垂閸洖绠伴柟闂寸贰閺佸嫰鏌涢弴銊ュ箻闁告宀搁幃妤€鈽夊▍杈ㄧ矋缁傚秴饪伴崼鐔哄弳闂佺粯娲栭崐鍦偓姘炬嫹 | 闂傚倸鍊风粈渚€骞栭锔藉亱婵犲﹤鐗嗙壕璇测攽閻樺弶鎼愭潻婵嬫⒑鐠恒劌娅愰柟鍑ゆ嫹 | 闂傚倷娴囧畷鍨叏閹绢喖绠规い鎰堕檮閸嬵亪鏌涢妷顔句汗鐟滅増甯楅弲鎼佹煥閻曞倹瀚�

Archiver|手机版|科学网 ( 京ICP备07017567号-12 )

GMT+8, 2025-3-17 06:24

Powered by ScienceNet.cn

Copyright © 2007-2025 中国科学报社

返回顶部