|
カテゴリ:雑感
今さら言うまでもなく、AIとはArtificial Intelligenceの略称で、日本では「人工知能」と訳されています。人工知能と聞いて、亭主のような昭和青春世代が思い浮かべるのは、例えば「鉄腕アトム」のような知能を持つロボット、あるいは映画「2001年宇宙の旅」に登場するコンピューター「HAL」のようなものです。
これらに共通する点は、人工知能がヒトと同じような「自立した自我」、さらには「意思」を持ち、周りから得られる情報をもとに必要な判断、さらには行動を起こすことができる、という想定になっていることです。 したがって、このような意味での人工知能の研究は、モデルとなっているヒトが持つ「自我=意識」とは何か、といった認識論的問題、あるいは「脳と心」の問題とも直接的に繋がっています。 電子式の計算機(以後これをコンピューターと呼ぶ)が発達する20世紀前半以前には、これらの問題は基本的に哲学の(=ヒトの思弁による)研究対象だったわけですが、脳の働き(と想像されるもの)を少しずつコンピューター上で模擬できるようになることで、徐々に自然科学の対象になってきました。 ちなみに、英語でコンピューターとは単に「計算機」を意味します。電気信号を用いない機械式の計算機は大昔からあり、身近なところでは「そろばん」もそのような計算機の一つ。20世紀半ば以降、機械式に変わって電子式が実用化されるわけですが、その頃からコンピューターとは「事前に定められたアルゴリズム(=ソフトウェア)に従って計算を行う機械」(「ノイマン型」と呼ばれる)を意味するようになりました。ノイマン型の最大の利点は、ソフトウェアを入れ替えることで、同じハードウェアを使って様々な計算を行える点です。 そのような(ノイマン型)コンピューターを用いた人工知能の研究では、これまでに3回のブームがあったと言われています。最初は1950-60年代で、アルゴリズムの部分がヒトの認知のしくみとどう対応するか(できるか)、といったところが興味の対象だったようです。しかしながら、まだ玩具レベル(?)だったハードウェア性能の限界もあり、数学の定理の証明のような単純な問題しか扱えず、しぼんでしまったようです。 次のブームは1980年代。パソコンの登場によって、それ以前には大学や研究機関などでしか扱うことが出来なかったコンピューターが広く一般に普及したことを背景に、専門家の知識をコンピューター上で再現する「エキスパートシステム」が研究され、医療への応用などが期待されました。が、こちらも当時のハードウェアの性能では不十分で、そのようなシステムへの大きな需要もなく10年ほどで終焉。 そして今我々が目前にしているのが第3次ブームで、2010年代に始まりました。そのきっかけとなったのが「深層学習(ディープラーニング)」の登場です。深層学習は「機械学習」と呼ばれる手法の一つで、機械学習自体は人工知能の一分野としてだいぶ以前から研究されていました。例えば郵便番号の自動読み取りなどはそのような研究の応用の一つです。 では、深層学習は何が画期的だったか? 例えば郵便番号の読み取りでは、1つの入力(例えば手書きの数字=画像データ)に対し、対応する1つの正解(=数)を出力するように信号処理系を調整するわけですが、従来の機械学習ではプログラムの内部パラメータの調整(=正解を出力させるためのフィードバックによる学習)を人間の手で行っていました。ところが、深層学習ではそのような調整をコンピューター自身がプログラム内で行うことが可能になったのです。 この「学習の自動化」の実現により、深層学習では大量の教師データを用いた学習が可能になり、性能が飛躍的に向上することになったというわけです。もちろん、その背景として見落とせないのが、インターネットの急速な普及によりタダで使えるようになった大量のデータ、クラウド化による計算資源の拡大、さらにはスマホの普及による需要の拡大といった要因です。 とはいえ、現在の生成系AIも、やっていることは郵便番号の読み取りと基本的には同じ。入力テキストに対して相応しいと予想されるテキストを出力するだけです。専門家の話を聞くなどして亭主が理解したしくみは以下のようなもの。 まず、深層学習の学習過程では、入力から出力を生成するに際し、プログラム内で定義された「損失関数」という数値が最小になるような学習結果を内部パラメータ(ChatoGPTでは何十億とあるらしい)に蓄積します。もう少し具体的に、例えば「大きな栗の木の下でなかよく遊びましょう」という文章を学習させるとすると、まず「大きな」という入力に対し、次に来るテキストを「栗」と予想できれば損失関数を小さくします。次いで「大きな栗」を入力し、次に来るテキストを「の木」予想できればさらに損失関数を小さくする、といったあんばいで内部パラメータが調整されていきます。 要するに、やっていることは、ある単語に対して(先行する単語も考慮しながら)次に来る単語をひたすら予測する、というもの。 ただし、興味深いことに、この予測は確率に基づいて行われる上に、常に確率が最大の単語が選択されるとも限らないとのこと。これは、損失関数の奇妙な振る舞い(これがいまだによくわからない、と当事者は言っている)とも関係しているようです。なので、時に予想外のテキストを返してくることもあるし、そもそも答えもユニークに決まらない、というわけです。(だからといって、これをヒトの持つ「創造性」のようなものと解釈するのは明らかに勘違いです。) こういうふうに生成系AIの中身を見てくると、それが人工知能の元来の関心事である「自立した自我=意識」の問題とは何の関係もないだろうことは明らか。(実際、ChatGPTはこちらが何か入力しない限り、じっと押し黙ったままです。) そうこうするうちに、最近とあるテレビ番組で、著名な米国の経済学者ジョセフ・スティグリッツがこれら生成系AIを「AIではなくIA=Intelligent Assistanceだろう」と語るのを見て、亭主も思わず「その通り!」と膝を打った次第。生成系「AI」の本質は「ヒトが行う知的作業の補佐」以上のものではない、というところでしょうか。「コンピューターの本質はIntelligent Mirror(それを使うヒトの知能を映す鏡)である」という観点からも腑に落ちる話でした。 お気に入りの記事を「いいね!」で応援しよう
Last updated
August 6, 2023 09:03:37 PM
コメント(0) | コメントを書く
[雑感] カテゴリの最新記事
|