探索 "奇点 "概念--人工智能超越人类智慧的未来--及其对伦理和社会的影响。
技术奇点(通常简称为 "奇点")是一个假设的未来时间点,届时技术增长将变得不可控制、不可逆转,其主要原因是人工超级智能(ASI)的出现。这一概念认为,一个可升级的智能代理,如在计算机上运行的人工智能(AI),可能会进入自我完善循环的 "失控反应"。每一代新的、更智能的智能体都会更快地出现,从而引起智能爆炸,产生远超人类智力的强大超级智能体。这种事件的后果难以预料,有可能导致人类文明发生深刻变化,甚至面临生存风险。
奇点 "一词是由科幻小说作家弗农-文格(Vernor Vinge)提出的,尽管智能指数加速的基本思想可以追溯到I.J.古德(I.J. Good)等思想家。维格提出,创造出比人类更聪明的智能将标志着一个点,过了这个点,我们所知的人类历史将无法继续,也无法预测。其核心驱动力是递归自我改进的理念:能够改进自身设计的人工智能可以创造出比人类更智能的后继者,而后者又可以设计出更智能的后继者,从而实现指数级增长。这种加速通常在概念上与摩尔定律等趋势相关联,摩尔定律描述了晶体管密度(大致是计算能力)大约每两年翻一番的历史。
虽然 "奇点 "仍是一种假设,但现代机器学习(ML)的某些趋势和技术与 "奇点 "的某些基本概念相呼应,让人看到了人工智能能力的加速发展:
重要的是要将奇点与相关的人工智能概念区分开来:
奇点 "具体描述了智能快速、不受控制的增长事件,可能由 AGI 触发,导致人工智能。
技术奇点的前景引发了深刻的问题和担忧。潜在的好处可能包括通过超级智能解决问题,解决疾病、贫困和环境恶化等重大全球性挑战。然而,风险也是巨大的,主要集中在控制比我们自己聪明得多的东西(人工智能排列)所带来的挑战,以及可能出现的不可预见的负面后果。
围绕奇点的讨论强调了人工智能伦理和负责任的人工智能开发实践的极端重要性。未来生命研究所(Future of Life Institute)和机器智能研究所(MIRI)等组织致力于研究这些长期风险,促进安全的人工智能发展。即使是目前的狭义人工智能,确保人工智能的 透明度和解决人工智能中的偏见也是至关重要的步骤,因为这些实践为管理更强大的未来系统奠定了基础。像 PyTorch和 TensorFlow等框架提供了工具,但道德准则必须指导它们的应用。