AIはそれほど賢くないから



AIはそれほど賢くないから

知識は信頼できる因果関係を確立することで得られ、公準、法則、記述、定理、方程式などに要約されますが、(現時点では)人工知能はこの形式の知識を理解したり使用したりすることができません。高温測定機器を専門とする零細企業の科学マネージャー、ダニエレ・パガネッリ氏によるニュースレター「Appunti di Stefano Feltri」の記事

人工知能の展望についての Notes の最初の記事 - デジタル詐欺師- を、その後の展開も踏まえて読み直して、私はおそらく自分の口調が悲観的すぎることに気づきました。

私の経験分野、およびトレーニングや実務部門から得た基準値により、当然のことながら、私は非常に重要な観察点に置かれます。これはすべての人に当てはまるわけではありません。実際、おそらく少数の人にのみ当てはまります。

人間の脳は、目に映るものすべてを擬人化する傾向があります。顔を作るには 2 つのボールと曲線で十分です。 「必要なのは言葉だけだ」と考える動物の気だるい表情。感覚を持つ精霊や神を想像するのには理解できない現象。

したがって、AI を真にインテリジェントであると考えてしまう誘惑に非常に陥りやすいのです。

史上初のチャットボットである ELIZA は、すでに 1960 年代のテクノロジーで開発者の秘書、ジョゼフ・ワイゼンバウムを魅了することに成功していました。

技術科学の道を歩む人は、決定論的な法則と原則、そして相関関係は因果関係ではないというマントラについて教育を受けています。

知識は信頼できる因果関係を確立することで得られ、公準、法則、記述、定理、方程式などにまとめられます。

1 つ、10 つ、1,000 の観察は、1 つの反対の観察の前では何の価値もないかもしれません。

大規模言語モデル (LLM) AI は、(現時点では) この形式の知識を理解したり使用したりすることができません。そして、私はさらに深く掘り下げていきます。問題は、ニューラル ネットワーク、つまり LLM の学習の基礎となる統計的回帰と同じ概念です。

法則を学習するには、そのすべての(無限の)発現を統計的な重みに変換する必要があり、最も平凡な決定論的法則であっても、非常に複雑な確率マップを作成します。

AIの世界では、純粋な統計的な相関関係以外の知識は存在しないため、「因果関係は相関関係」です。

実践的なデモンストレーションが必要な場合は、高校の物理の問題を LLM に提示してみてください。

彼らは、地下 20 メートルから地上 5 メートルの塔の頂上まで水を汲み上げるエネルギーを計算するように求められました。

ChatGPT は高さの差を間違え、さらに水の密度の単位を完全に台無しにし、答えをほぼ 3 桁も間違えます。

AI は運動法則と位置エネルギーが言うことを覚えていることを示していますが、それらを理解していません。彼はその問題さえ理解していません。

彼は言葉と同じように数字をもてあそんで、まったく間違った結論に達しましたが、非常に権威ある口調で言いました。

統計的に、彼はその順序でそれらの単語に遭遇し、同様の質問には特定の方法で答え、その男の真似をしようとしました。しかし、彼は何も理解できないので、それは偽物です。

確率から確実性へ

19 世紀後半の統計熱力学と 20 世紀初頭の量子力学の出現により、巨視的な世界における多くの完全に決定論的な原理が、純粋な偶然によって支配される微視的な現象によって生成されることが発見されました。

何十億もの、さらに多くの原子やその他の素粒子のランダムな動作が、経験可能な世界の一見予測可能な特性を決定します。

微視的な世界では不可能なことはほとんどありませんが、無限の微視的な確率の構成により、巨視的な世界は、私たちが観察する事実上確実なものと、これまで観察されたことがなく、今後も決して観察されない非常にあり得ないものとに分割されます。

熱水が冷水から自然に分離せず、私たちを温めるための無限のエネルギーを与えてくれる理由は、神が熱力学の第二法則で人間を挫折させるように命じたからではありません。

しかし、速度 (温度) の異なる大量の粒子がランダムに分離する可能性は非常に低いためです。

次に、これらの確率計算から第 2 法則が導出されます。理論的にはハッキングできるのでしょうか?はい。それは今までに起こったことがありますか?今後起こるでしょうか?これを実現するには、宇宙の歴史全体だけでは十分ではありません。

もう 1 つの顕著な例: テレポーテーションがすでに存在し、走査型電子顕微鏡で広く使用されていることは、おそらく誰もが知っているわけではありません。

理論が予測する限り、すべての物質は(光の速度を考慮して)宇宙のどこにでもテレポートできます。

ただし、これが起こる確率は質量に反比例します。電子はサブナノメートルの距離を移動することでこれを頻繁に行います。これが顕微鏡で利用されるトンネル効果です。

しかし、原子全体であっても、それが観測されたことがないほどありそうもないことです。宇宙乗組員全員にとって、SF 映画を見る必要があります。

したがって、AI のアプローチは正しいように見えます。十分な相関関係がある場合、それは因果関係も存在することを意味します。

しかし、十分な場合には、私たちがこれまでに持っている計算能力よりもはるかに大きな数値を意味する場合があります。

AI に科学を教えるにはどうすればよいでしょうか?

前の例の熱力学の第 2 法則をニューラル ネットワークに教えたいと考えてみましょう。

私たちは彼に、非常に多くの粒子のランダムな動きを観察させなければなりません。そして、さまざまな状況で。熱力学を尊重するに巨大なモデルが必要になる場合があります。

私の専門的な経験から例を挙げます。私は、プロセス制御に AI を適用するさまざまな方法を研究してきました。

私の場合、これらは熱システムですが、クルーズ コントロールを実装することで車の速度を一定に保ちたいとします。

必要なパワーを正確に最初から計算したい場合、つまり第一原理に基づいて、道路の傾斜、風の向きと強さ、車の荷重、外部の温度、圧力、湿度、燃料、エンジン、タイヤを知る必要があります。着てください、そしておそらくそれ以上です。これらすべてのパラメータをまとめた分析モデルも必要になります。

私たちは一種の移動実験室に乗って移動しましたが、どの程度「アクセルを踏む」かを正確に判断することができました。

非現実的ですか?それでは、AI をトレーニングしましょう。選択肢は 3 つあります。実際の車を与え、考えられるすべての条件で運転させて、AI に基礎的な物理法則を学習させることができます。しかし、その過程で何十億台もの自動車が破壊されることになる。

あるいは、何十億ものドライバーの運転状況を記録することもできますが、問題を定義するのに必要な背景情報が不足してしまいます (結局のところ、自動車は移動実験室ではありません...)。

最後に、完成したモデルが完成したら、仮想の車を作成し、それを使って運転を教えることができます。しかし、物理的に無意味な無限の答えを探ろうとすると、依然として膨大な計算リソースを費やすことになるでしょう。

ただし、学習はさまざまな状況で検証する必要があり、本質的には確率論的なままで、学習が正しい動作をするかどうかは決して保証されません。

最先端のアプローチは、近似物理モデル内でAI を活用し、AI が学習中に無限に不可能な解決策に時間を浪費したり、実行中に信じられない答えを返したりすることを禁止することです。

このアプローチは、Physics Informed Neural Network (PINN)、つまり物理モデルによって情報を与えられたニューラル ネットワークと呼ばれます。

PINN を適切にトレーニングするには、かなり完全なモデルが必要になることが多いため、私の個人的な経験では、最終的にはモデル自体を使用し、AI をそのままにしておく方がコスト効率が高くなります。

自動車は、自動制御で非常に普及している PID (比例積分微分) と呼ばれるアルゴリズムのファミリーに依存しています。

たった 3 つのパラメーターと非常に単純な式を使用すると、かなり混沌としたプロセスであっても、許容可能な制御下に置くことができます。

これは、3 つのパラメーターを含む方程式が、数千または数百万ものパラメーターを持つニューラル ネットワークに対してどれほど好ましいかを明らかにしています。

Appunti に関する Andrea Vestrucci の最近の記事では、根本的な問題を理論用語で説明しています。現在の大規模言語モデル(LLM) は純粋に確率的なニューラル ネットワークに基づいており、論理、数学、無限の物理法則などの「難しい」法則を学習するのが不十分です。現実の空間。

ルールを理解するには、ルールが何であるかを基本的なレベルで理解する AI が必要です。これは、今日のニューラル ネットワークが完全に信号があるニューロンから別のニューロンに伝わる確率の概念に基づいているのと同じです。

ルールベースのシステムを構築するという以前の試みは 1980 年代に放棄されましたが、ニューラル ネットワークもコンピューティングの歴史のゴミ箱に残されました。

より強力なハードウェアと革新的なアプローチにより、これらは現在のデジタル革命の中心に到達しました。これまで放棄されていた領域で行われた取り組みを注意深くフォローすることは常に価値があります。

(Stefano Feltri のNotes ブログからの抜粋)


これは、Sun, 31 Dec 2023 06:14:38 +0000 の https://www.startmag.it/innovazione/perche-lintelligenza-artificiale-non-e-davvero-intelligente/Start Magazine に公開された記事の自動翻訳です。