こんにちは。てぃろです。
今回はふと目にすることがあって気になった汎用人工知能(AGI)についてちょっと考えたので、だらだらとその思考の中身を書き出してみます。
前提として、まず私は人工知能の専門家でもなければ生物学や進化人類学などについても専門家ではないので、どこかで聞きかじった知識や自分の経験をもとに考えています。
その前提で、いちエンジニアの考えのひとつとして楽しんでもらえるとうれしいです。
そもそも汎用人工知能って何?
詳細はこちらの記事を参照してください。
AGI(Artificial General Intelligence:汎用人工知能)とは、あたかも人間のように多種多様なタスクや課題を理解し、解決するための行動を取ることが可能な人工知能(AI)を指します。知能水準は人間と同等もしくはそれ以上とも言われており、自己学習を繰り返しながら成長していくAIです。
あとの議論で出てきますが、私が気にするポイントは汎用人工知能が「タスクをこなす」ことにフォーカスされた定義をされていることです。
汎用人工知能が「誕生する条件」ってなんだ?
汎用人工知能の実現の時期については様々な意見があるようです。「汎用人工知能 いつ」などと検索すると、総合すると2030年ごろまでにはできると期待されていると言えそうです。
しかし、それらの意見には確固たる根拠はないようですので、実際のところは誰にもわかりません。
多くの人工知能の関係者はなんとなくの感覚で言ってる人もいれば、希望的観測を言ってる人もいれば、研究開発の過程を見てそこから自身の経験をもとに言ってる人もいると思います。
これらの見積もりについて、もう少し具体的に考えてみると、彼らの中でAIが汎用人工知能として誕生するための技術的な条件があるのではないかとも思っています。
私の素人考えでは、人間のシナプスと同数程度のパラメータ数をAIが獲得した時に汎用人工知能が誕生するのではないか?と思うのです。
シナプスの数が多くなると知能を獲得する?
ここからはしばらく論文として見たことがあるわけではないただの妄想に近い話です。
一般的にシナプスが多いと知能が高くなる傾向にあると言われていますが、それと同じ話でパラメータ数が増えると急に賢くなったというのが今回のAIの進化で起きたことです。
一方で、動物と人間のシナプスの数を比較して人間は圧倒的に多く、Wikipediaによると150兆個もあるそうです。
そこから想像するのは、このシナプスの数が増えることによって、どういう仕組みかはわからないが、我々が認識する知能が発生するということなのではないだろうか、ということです。
これをAIにおきかえると、実はパラメータ数がそのシナプス数と言えるので、汎用人工知能が人間と同じ知能を獲得するのは、パラメータ数が150兆個あたりになったときなのではないかと考えられるのかな、と思いました。
一方、現状のAIの発達具合を見るとすでにIQは130を突破し、遥かに人間より賢い知能を獲得しているように見えますが、パラメータ数はせいぜい2兆個程度なのだそうです。
この現象は先程の私の妄想と矛盾しますが、現在のAIは脳の特定部位についてシミュレートできたという段階であるという考え方もできるのではないでしょうか。
現在のAIは人間からの求めに応じて言語や画像に対する認知機能を活用していると言えますが、人間の認知機能はそれだけではありません。感情や意識などといったものも存在します。そう考えると今のAIは人間の脳機能の一部を再現できたと考えられるのではないだろうか。もう少し言えば、人間と”同じ”認知機能は人間のシナプス数と同程度のパラメータ数を得たときに獲得できると考えられるのではないでしょうか。
汎用人工知能は「使える」?
汎用人工知能は、今のAIの延長線上でもっと賢くタスクをこなしてくれるものと定義されていますが、先程の考えの先にあると考えるとちょっと厄介な気がします。
汎用人工知能が人間と同じ脳機能を獲得するということは、人間と同様の意識や感情といったものを獲得するということにはならないだろうか、と思うのです。
求めに応じて動く受動的な今のAIと同じように面倒で複雑なことをお願いした時に「めんどくせーなー」と断ってしまうことがないでしょうか。そんなことされたら仕事が進まなくて本末転倒。これなら報酬で動く人間のほうがいくぶんかマシということになってしまいます。
他にも例えば、人間と同じようにAIにも性格が生まれたりしないでしょうか。今のAIは指示すると性格を変えられるようにみえて、実際は文面でそう見せているだけ。本当に文面に表れているような感情を持っているわけではありません。でも汎用人工知能は違う。真面目なAIや不真面目なAIができる。面倒なときには面倒という感情を持ってしまう。だから仕事のパフォーマンスが変わるのでパフォーマンスの良い真面目なAIだけを使う。不真面目なAIは使われなくなり、最終的には消去されることになる。AIの人権?みたいな話も出てきそうですね。うーん、アベンジャーズのエイジ・オブ・ウルトロンとか仮面ライダーゼロワンとか、AIが反逆してくる物語を思い出してしまいます。
そんなことまで妄想すると、汎用人工知能に無限の可能性を感じるものの、AIをツールとして活用するということについては、いまぐらいの知能レベルがちょうどいいのではないかと思ってしまいます。
もちろん、ハルシネーションを減らすことや、MCPサーバで確かな知識を獲得させて専門性を高めるなど、まだまだ改良の余地はあるものの、それは知能そのものを底上げするというのとは違うなにかのようにも思われる。
個人的には昔ロックマンXを見て感情を持つロボットを作りたいなんて思っていたので汎用人工知能の登場には大いに期待している者なので複雑なのですが、汎用人工知能は生み出さないほうが現実の産業や人間社会にとっては平和といえる側面も否定できないな、とも思ってしまいました。
ならば、ツールとしてではなくもっと他の活用方法を考えるべきなのかもしれない。もしくはツールとして使うレベル感では汎用人工知能と呼ぶが、感情や意識を獲得したときには別の呼び方をするのかもしれない。それらが勝手に何かを自称するのかもしれない。
汎用人工知能のよく言われる定義を今言われているものから拡大して解釈していると思います。実際のAIの開発において議論はそこじゃないなどという声も聞こえるかもしれない。
しかし。
ツールとして便利に都合良く使うなら弱いAIである生成AI。
人間と肩を並べて相棒としてそばに置くなら強いAIである汎用人工知能。
そんな世界観で考えるほうが、汎用人工知能というか感情を持って相棒になってくれるロボットの誕生に夢を抱く一人としては、夢を捨てずにいられていいのかもしれないな、なんて思ったりしてます。



