AIが人間の知能を凌駕する未来、シンギュラリティの概念と、その倫理的・社会的意味を探る。
技術的特異点(しばしば「シンギュラリティ」と略される)とは、主に人工超知能(ASI)の出現によって、技術的成長が制御不能かつ不可逆的になる将来の仮想時点のことである。この概念は、コンピューター上で動作する人工知能(AI)のようなアップグレード可能な知的エージェントが、自己改良サイクルの「暴走反応」に入る可能性を示唆している。新しい、より知的な世代が出現するたびに、より急速に知能が爆発し、人間の知性をはるかに凌駕する強力な超知能が誕生する。このような事態がもたらす結末は予測不可能であり、人類の文明に重大な変化をもたらす可能性がある。
この文脈における「シンギュラリティ」という言葉は、SF作家のヴァーナー・ヴィンジによって広められたが、指数関数的に加速する知性という根底にある考え方は、I.J.グッドなどの思想家にまでさかのぼる。ヴィンジは、人間よりも賢い知性を創造することは、我々が知っているような人類の歴史が継続することも予測することもできないような、その先の地点を示すことになると提唱した。核となる原動力は、再帰的自己改良という考え方である。自らの設計を改良することができるAIは、わずかに知能の高い後継者を生み出し、その後継者がさらに知能の高い後継者を設計することで、指数関数的な成長を遂げることができる。この加速は、しばしばムーアの法則のようなトレンドと概念的に結びつけられている。ムーアの法則とは、トランジスタ密度(そしておおよそ計算能力)が約2年ごとに倍増するという歴史的な法則である。
シンギュラリティはまだ仮説に過ぎないが、現代の機械学習(ML)におけるある種のトレンドやテクノロジーは、その根底にあるコンセプトのいくつかと呼応しており、加速するAIの能力を垣間見ることができる:
シンギュラリティを考えることは、コンピュータ・ビジョンや 自然言語処理のような分野での進歩が長期的な影響を及ぼす可能性を枠づけるのに役立つ。
シンギュラリティを関連するAIの概念と区別することは重要だ:
シンギュラリティとは、AGIによって引き起こされる可能性のある、ASIにつながる急速で制御不能な知性の成長を具体的に表したものである。
技術的特異点(シンギュラリティ)の見通しは、深い疑問と懸念を抱かせる。潜在的な利益には、超知的な問題解決を通じて、病気や貧困、環境悪化といった世界的な大きな課題を解決することが含まれる。しかし、リスクもまた重大であり、自分自身よりもはるかに知的なもの(AIのアライメント)をコントロールするという挑戦と、予期せぬ悪影響の可能性が中心となっている。
シンギュラリティをめぐる議論では、AI倫理と 責任あるAI開発の実践が極めて重要であることが強調されている。Future of Life Instituteや Machine Intelligence Research Institute(MIRI)のような組織は、こうした長期的なリスクを研究し、安全なAI開発を推進することに専念している。AIの透明性を確保し、AIの偏見に対処することは、現在のNarrow AIであっても極めて重要なステップである。以下のようなフレームワーク PyTorchや TensorFlowやTensorFlowのようなフレームワークがツールを提供するが、倫理的ガイドラインがその適用を導く必要がある。