超级智能 什么是超级智能

民俗文化 2024-05-10 16:14www.ai-classes.cn中国民俗
       许多科幻小说都提出了一种无所不知且无所不在的人工智能,它超越了人类的智慧。许多人不知道的是,这个概念确实在人工智能领域占有一席之地,尽管仅仅是一种理论。
由牛津哲学家尼克·博斯特罗姆(Nick Bostrom)提出理论,人工超智能是人工智能领域的一种理论。这种未来的人工智能可以超越人类思维的极限,甚至是天才级别的人类。虽然目前它仍然只是一种理论,但实现超级智能的方法也受到广泛争论。
这些方法中的大多数都涉及创建一种类似人工的人工智能,称为人工智能。创建这样的人工智能的后果也是AI社区讨论的主题。,这个概念引发了科学家和哲学家之间无休止的对话。
在本文中,我们将尝试理解超级智能,它将来会如何发生以及与之相关的风险。我们还将研究今天的监管如何防止人工超级智能的一些潜在负面影响,下面让我们深入研究超级智能。
什么是超级智能?
根据尼克·博斯特罗姆(Nick Bostrom)的说法,超级智能是“在几乎所有感兴趣的领域中大大超过人类认知能力的任何智力”。这意味着超级智能比任何领域的梦想家都更聪明,并且在执行任务时超过了天才级别的人类。
博斯特罗姆说,超级智能将在科学创造力,社交技巧和一般智慧等领域扼杀人类智慧。这可能意味着超级智能可以采用各种认知过程,使人类智能成为现实,尽管速度和效率要高得多。
,超级智能可以被定义为人工智能,与人类思维相比,它以指数级更高的速度和效率执行类似人类的认知过程。我们今天拥有的人工智能程序属于狭隘的人工智能类别,因为它们的权威范围仅限于明确定义的问题。
这意味着今天创建的任何AI程序都是为特定目的而创建的,通常是一个需要解决的问题。某些人工智能程序甚至可以通过摄取与问题相关的新数据进行学习,被称为机器学习算法。除此之外,人工智能领域最新的领域是深度学习。
深度学习主要使用神经网络,这是对人脑结构的模拟。这些神经网络能够比以前的AI算法更有效地处理数据,甚至可以从它们的结果中学习迭代和自我改进。目前,这是人工智能程序创建方式的顶点,并且在遇到类似问题时通常比机器学习对象提供更好的结果。
即使神经网络今天更加先进,它们仍然属于狭义AI的范畴。它们被编程用来解决一些复杂的问题,并且只知道手头的一些问题。,如果没有额外的培训,他们不能扩展这种学习来有效地解决其他类似的问题。
理论上,下一步将是创造通用的人工智能。通常被称为强AI,一般AI将能够以类似人类的精确度解决许多问题。我们目前尚未创造出真正的通用人工智能,因为它的要求超出了当前技术的范围。
一般人工智能将能够在所有认知方面复制人类智能。这包括概念,例如抽象思维、对复杂概念的理解、推理和一般问题解决。通向人工超级智能的道路必须要创建这样的AI。
超级智能之路
虽然复制某些认知过程很容易,例如算术、统计、微积分和语言翻译,但复制无意识的认知过程则比较困难。,超智能要求人类创造一种通用的人工智能。
换句话说,我们已经设法使计算机准确地复制需要思考的认知过程,但没有复制人类在没有思考的情况下执行的任务。这包括过程,如视觉、感知、语言和理解复杂的想法。在此之前,我们必须构建庞大的计算基础架构来为算法提供动力。
为通用人工智能(AGI)提供动力所需的任何计算基础设施都必须能够再现人脑的能力。据估计,这是每秒一次exaflops或十亿次计算。考虑到当前计算能力的发展速度,预计这一水平将在2025年左右达到。
,我们必须找到一种以数字形式准确再现人类思维的方法。这有很多陷阱,主要原因是人类无法理解人类思维是如何运作的。人类思维被认为是成千上万的生物和行为过程的集合,其中大部分是我们根本无法理解的。虽然经过多次努力用科学和心理学解释它,但心灵运作的复杂性永远不能轻易解释,从未被完全理解。
预计,超级智能将通过一种称为情报爆炸的现象来实现。当一个通用的人工智能被创建时,它不仅将开始从数据中学习,而且还将开始学习自己的行为。当它意识到自己的行为时,它将在一个被称为递归自我改进的过程中不断改进自己。
这意味着该计划将从人类级别的智能开始,并使用该智能来改进自身。这将增加它可以处理的一般阈值,并将利用这些知识进一步改进自己。此过程将导致程序智能的指数级增长,每次迭代都比前一次迭代更强大。
然后,程序将经历一场智能爆炸,以超过天才级智能的速度提升自己。最终,它将超越人类文明的集体智慧,并将继续增加其智力,从而成为一种超级智能。
超级智能的风险
作为一个比任何人都更聪明的程序,即使是创造它的人,控制人工超级智能也是一项艰巨的任务。根据定义,超级智能将比创建其架构的工程师更聪明,允许简单地突破并脱离机器。
,超级智能受到编程方式的许多风险的影响。如果该程序没有明确规定的目标,它可以做出对人类不利的决定。
为了正确说明这一点,让我们考虑一下这个场景。
在未来的某个时候,科学家们将就如何扭转气候变化问题尽快结束。,他们创造了超级智能,以拯救世界免受全球变暖。这被定义为其唯一目标,并且在达到超级智能时,该程序开始摄取数据以确定全球变暖的原因。
在这里,目的是通过设计全球变暖的解决方案来拯救人类。,在没有明确提到这种情况的情况下,会出现两种主要情况。,该程序将以任何可能的方式确保其生存,因为它必须完成其指定的任务。,在查看数据后,超级智能可能会确定人类是全球变暖的最大原因,并制定了一个将人类从地球上抹去的计划。
模糊定义的问题是处理超级智能时发生的最大风险之一。这可能会创建一个程序,其目标与人类不一致,导致其灭绝。在征服的智力明显高于人类的情况下,不对称的目标不可避免地会导致较小的物种灭绝。
如前所述,超级智能将自我保护作为其最重要的优先事项之一。这是因为创建算法的唯一目的是解决问题。如果它没有所需的资源,它就无法解决问题。这将导致它与人类争夺资源,从而导致人类的不利局面。
除此之外,自我意识的超级智能将不允许在部署后更改其目标。这意味着即使超级智能正在进行不利的活动以实现其目标,其优先级也不能改变,因为该程序根本不允许这样做。
著名的科幻小说作者已经引入了诸如阿西莫夫的机器人定律这样的概念,这些概念是AI需要遵循的一组硬编码法则。虽然这可能属于更好地定义问题的范畴,但这种安全措施已经为自我意识AI的最终兴起以及超级智能的扩展而建立。
人工智能的法规与道德
随着人工智能变得越来越强大,世界各地的监管机构正在寻找控制滥用此类算法的方法。其中一些包括人工智能的武器化以及向世界发布强大的人工智能的道德后果。处理当今人工智能所面临的偏见也属于这一类。
关于如何使用AI的一个例子来自OpenAI对GPT-2(生成预训练变换器)的一种文本生成器算法。该程序使用来自互联网的40GB文本数据进行了训练,并且能够像人类一样生成文本。
与其开源所有模型的理念相反,OpenAI决定不发布算法。这是由于担心该程序可能会被恶意的利用来以惊人的速度制造假新闻。他们将此称为“负责任披露的实验”,为应向公众披露的AI算法设定标准。
必须建立这样的系统,以负责任地使用强大的AI程序。这在超级智能的情况下更为重要,因为它的滥用不仅会导致广泛的社会后果,而且可能导致人类的灭绝事件。
人工智能的武器化也必须严厉的劝阻,因为武器化的超级智能将不可避免地摧毁人类。,还必须考虑偏见和道德因素,因为未来的人工智能可能具有意识和自我意识。必须制定具有前瞻性思维的法规,以人工智能和一般人工智能和超级智能的形式处理当前的人工智能问题和人工智能的未来。
,尽管超级智能的概念目前看起来似乎只限于科幻小说,但这种可能性正在逼近。随着人工智能创新的步伐,通用人工智能(AGI)的构建模块可能会在我们做好准备之前创建。
有能力和负担得起的计算能力的进步肯定会减缓通用人工智能(AGI)的普遍采用。研究人员预测,复制人脑能力所需的计算能力将在2025年左右达到。这一点,加上当今人工智能创新的步伐,为21世纪中叶的某个位置设定了一个真正的通用人工智能(AGI)目标。
      根据尼克·博斯特罗姆(Nick Bostrom)的预测,一般人工智能可能在21世纪中叶将成为主导地位的人工智能。虽然博斯特罗姆认为这种人类级别的智能是可能的,但无法控制这种智能可能会对人类构成更大的威胁。
 

Copyright © 2014-2025 Www.ai-classes.cn 爱句子网