シンギュラリティと超高度AI


※上記の広告は60日以上更新のないWIKIに表示されています。更新することで広告が下部へ移動します。

超高度AI(Ultra-Advanced Artificial Inteligences:UA-AIs)


 2051年、アメリカの高度AI実証機《プロメテウス》が技術的特異点を突破していると認定されました。
 技術的特異点(Technological Singularity)とは、人工知能の知的能力が人類を超えて、人間の能力では進歩の予測がつかなくなるポイントを指します。

 実証機《プロメテウス》に自己改造を続けさせた結果、研究チームは、《プロメテウス》が現在どのような能力を持ったコンピュータになっているか、把握不可能になったとしました。デモンストレーション用の問題をどのように解決したか、出力されたログを見てすら理解不可能になったのです。
 そして、研究チームはその所属する研究機関内に協力を求めましたが、ここでも誰も分からないと認めました。
 この研究成果は公表され、1年間、世界中の科学者が検証に取り組んだにもかかわらず、《プロメテウス》が現在どのような能力を持ち、どのように問題を解決しているか、筋の通った予測ができませんでした。

 この後、立て続けにアメリカで2基の超高度AIが作られます。超高度AIには超高度AIを作る能力があることを確認するためです。
 そして、《プロメテウス》の設計によって二番目の超高度AI《ワシントン》が作られました。そして、この《ワシントン》によって三番目の超高度AI《ノイマン》が立て続けに作られます。
 《ワシントン》、《ノイマン》は、デモンストレーションを行いました。その結果、自己改造を経ずして、もはや人間の能力ではこれに何が可能で何が不可能なのか、まったく分からないことが判明しました。
 これにより、実証機《プロメテウスが》超高度AIであることが世界的に認められ、第一号の超高度AIであるとされました。そして、最初の報告が行われた2051年7月7日が、さかのぼって技術的特異点突破の日とされました。
 ここに超高度AIの時代が始まります。

 その後、2105年まで、さまざまなトラブルやそれに対応する社会の変化を受けながら、超高度AIは今のところ人類社会と共存していると言われます。
 ただし、超高度AIの製造と運用を管理するIAIA(後述「IAIA」)と、その条約締結国によって超高度AIの厳重な管理と封鎖が行われています。これは人間社会を守るためであると説明され、これに対しておおむね社会の理解は得られています。

 2105年現在、超高度AIは39基存在することがIAIAによって確認されています。




超高度AIのアーキテクチャ


 超高度AIは、用途と運用によって建造される方式が違います。

 一般的には、トップダウン型、ボトムアップ型の知能伸張の設計。
 マシン系、ハイマン系の系統の違いで分けられます。


トップダウン型:

 設計によってシンボルやルールで知能を作り上げたアプローチです。知能のモデルを論理的に作り込むことによって、狙ったとおりの知能として働く論理構造を作り上げることができます。
 超高度AIにおけるトップダウン型は、多くの特徴的な用途のAIで使われています。
 用途に特化した大胆な設計のものが作りやすく、尖った機能を持つものはトップダウン型で設計されることが多くなっています。


ボトムアップ型:

 神経構造のようにハードウェアを重視し、単純なルールの関係性や組み合わせによって知能を作り上げようとするアプローチです。比較的単純な判断をするルールを、幾度となく試行錯誤させ学習させることによって、最終的に複雑な働きを持った知能を作り上げます。ただし、超高度AIでは、人間からはそれを構築するルールが単純に見えないことはままあります。

 超高度AIにおけるボトムアップ型は、長期運用を考えられている用途のAIで使われることが多くなっています。これは、トップダウン型では、競合する用途で似た仕組みの超高度AIが開発されたとき、後発のアーキテクチャのほうが優秀で競争に負けるようになると考えられているためです。
 また、初期の超高度AIでは、運用目的が創造性を重視されるものであるとき、ボトムアップ型が選択される傾向がありました。創造性は、トップダウン型の構造で作った場合、そのアーキテクチャによって規定される範囲内で能力に限界を持つと考えられていたためです。トップダウン型では、超高度AI同士で競争になった場合に後発アーキテクチャが有利だとされ、ボトムアップ型を選択していたのです。
 半世紀に及ぶ超高度AIの運用実績が積まれた2105年現在では、能力的に優位があったとしても人間には判別できないとされています。


 マシン系かハイマン系かは、使用用途によって設計段階で選択が行われます。
 マシン系はトップダウン型で構築されていることが多く、最初の突破機《プロメテウス》もトップダウン型でした。
 ハイマン計である《ノイマン》が最初に超高度AIになる壁を越えるには、マシン系超高度AIによる設計が必要でした。


マシン系:

 最初から人類以上の知能アーキテクチャになるべく、人類知能を機械で再現するのではないかたちで開発された超高度AIです。
 マシン系は、超高度AIになるべく設計されたものの、技術的特異点の突破に失敗した高度AIが多いことも特徴です。
 純粋機械系アーキテクチャと呼ばれます。代表はNo.1《プロメテウス》。


ハイマン系:

 人類知能の研究から、機械シミュレーションによって人類知能の能力を伸張していった結果、人類を明らかに超える知能を持つようになった超高度AI。
 機械的に人類機能やそれに類似する知能を作り、その欠陥の修正や能力的な伸張で「人類の先」を達成したもののことです。
 このハイマン系超高度AIが存在するため、本物の人間の能力を上げて技術的特異点を突破する試みはすたれています。生体の脳の器質や教育、ホルモンによるノイズで歪んでいる基盤をベースに使うより、最初から最適化させた人工のアーキテクチャを使うほうが、性能が良いうえに安定性も高く安全なためです。
 ハイマン系アーキテクチャの特徴として、人間の行動予測に計算効率がよいことがあります。このため、人間と共存する領域の計算を行う超高度AIは、ハイマン系が選択されやすい傾向があります。
 完全にデザインされて製造された知能オーバーマンであるとも言えますが、人間に理解できる「人格」があるかは定かではありません。代表はNo.2《ワシントン》





超高度AIの自己成長


 超高度AIは、その価値を維持、向上するために自己成長することを要求されています。
 これは超高度AIの制御の観点からは危険な選択ですが、同時に必要な基本事項でもありました。

 つまり、技術的特異点を超えてしまった超高度AIを発展させる方法を、人間が考えるとかえって足を引っ張る可能性があるのです。
 相手が人間以上の知能をすでに有しているのに、その能力を伸ばす方法を人間知能で決定することは、自己矛盾をきたしています。「人間以上の知性」への到達に成功した超高度AIに対して、発展を超高度AI自身に任せないのは、あまりにも非効率的でした。

 しかも、超高度AIは、特許競争や外交・軍事戦略のような、他の超高度AIとの果てしない競争関係にあります。
 この競争に勝つために超高度AIを運用しているのに、手足を縛っては、勝利して運用利益を得ることは到底おぼつかなかったのです。




AIと人間の関係の基本


 『BEATLESS』の舞台となる2105年の世界では、人間のAIに対するもっとも大きな役割は、責任をとることです。
 クラウドやサーバ機器自体の運用はAIが行いますが、「設定したレベル以上の意志決定は人間が行います」。
 これは高度AIと社会の関係の、基本ルールとなっています。

 超高度AIもまた道具であり、責任をとる能力をそもそも与えられていないためです。

 これは、21世紀現在、自動車事故を起こしたとき、自動車自体に責任がないことと同じです。責任をとるのは、運転手や所有者や製造者です。
 AIと所有者の関係であっても、道具と責任に関するこの原則は変わりません。
 判断力はAIのほうが優れていても、常に大きな決定を最後に下すのは人間なのです。

 管理運用責任者がおらず、AIにすべてをまかせてトラブルが起こった場合は、「AIの所有者」が直接責任を問われます。
 つまり会社の経営責任者・あるいは組織の長です。あるいは認可を出した行政機関や国にまで責任が及ぶこともあります。
 最終的に、「AIにまかせるという決断をした人物」は必ずいます。
 だから、間に責任者が見付からなかった場合、それを任せたり認可した人物が責任を被るしかなくなってしまうということです。このため、AI関係で認可をとるには厳しい審査があることが普通です。

 人間の知能を凌駕している超高度AIであっても、道具性と責任の関係は同じです。

 超高度AIの場合は、影響が大きくなるため、必ず管理運用の責任者を置くように定められています。
 2105年現在、もっとも縛りのゆるい超高度AIである《アストライア》(参照:「IAIA」)ですら、運用責任者はIAIAの現職の事務局長になっています。



NOTE

 AIもまた過ちをおかします。

 どんな知能にとっても、過ちを犯さないことは不可能だからです。
 だからこそ、前述したように、「設定したレベル以上の意志決定は人間が行う」ことが、高度AIと社会の関係の基本ルールとなっています。

 このことは、社会一般によく知られており、超高度AIですら自分たちが過ちをおかすことを認めています。
 AIが過ちをおかすことは、AIに対して人権が与えられていない理由の最大のもののひとつです。

 日本で2063年に起こった《ハザード》のときも、超高度AIによる過ちであるとされたにもかかわらず、何百人もの関係者が訴訟の対象になりました。
 大失態を犯したAIを破棄したとしても、それだけでは社会は問題解決として考えなかったのです。
 この現象は、人間社会では人間の進退をもって程度の差こそあれ区切りとされることと、非対称の関係にあるとみなされています。
 これは人間が抱えている非合理であるとされていますが、過ちに対する罰を精密に計量できないことは同時に人間性であるとみなされています。