ホルヘ・ルイス・ボルヘスはかつて、大きな危険と約束の時代に生きるということは、悲劇と喜劇の両方を経験することであり、自分自身と世界を理解する上で「差し迫った啓示」があると書いた。 今日、人工知能における革命的と思われる進歩は、確かに懸念と楽観主義の両方の原因となっています。 知性は問題を解決する手段であるため、楽観的です。 それは、最も人気があり流行している AI である機械学習が、根本的に欠陥のある言語と知識の概念をテクノロジーに組み込むことで、科学を劣化させ、倫理を損なうことを私たちが恐れているからです。
OpenAI の ChatGPT、Google の Bard、Microsoft の Sydney は、機械学習の驚異です。 大まかに言えば、彼らは膨大な量のデータを取得し、その中のパターンを検索し、一見人間らしい言語や思考など、統計的に確率の高い出力を生成することにますます熟練していきます。 これらのプログラムは、人工技術の地平線の最初のきらめきとして歓迎されています。 一般的な 知能 - 機械的な精神が処理速度とメモリサイズの点で量的にだけでなく、知的洞察力、芸術的創造性、その他すべての人間特有の能力の点でも質的にも人間の脳を超えると長い間予言されていた瞬間。
その日は来るかもしれないが、大げさな見出しや無分別な投資の見方に反して、その夜明けはまだ明けていない。 ボルヘス的な理解の啓示は、これまでもこれからもそうではありません。そして、私たちは従うことはできません。 — ChatGPT のような機械学習プログラムが AI の分野を支配し続ける場合に発生します。これらのプログラムがたとえ狭い領域で役立つとしても (たとえば、コンピューター プログラミングや、軽い詩の韻を提案するのに役立ちます)、言語学の科学と知識の哲学は、人間が言語を推論し使用する方法とは大きく異なるということです。 これらの違いにより、これらのプログラムの実行内容に重大な制限が課せられ、消去できない欠陥がコード化されます。
ボルヘスも指摘したように、これほどの金と注目がほんの小さなものに集中されるというのは、滑稽であると同時に悲劇的である――ヴィルヘルムの言葉を借りれば、人間の精神(言語の違いによる)と対比すると、とても些細なことだフォン・フンボルトは、「有限の手段を無限に利用」し、普遍的なリーチを持つアイデアや理論を生み出すことができます。
人間の心は、ChatGPT やその類のような、パターン マッチングのための面倒な統計エンジンではなく、数百テラバイトのデータを大量に消費して、最も可能性の高い会話の応答や、科学的な質問に対する最も可能性の高い答えを推定するものではありません。 それどころか、人間の心は驚くほど効率的で、少量の情報で動作するエレガントなシステムです。 データポイント間の粗雑な相関関係を推測するのではなく、説明を作成することを目的としています。
たとえば、言語を習得する幼い子供は、ごくわずかなデータから、無意識に、自動的かつ迅速に、文法、つまり論理原則とパラメータの驚くほど洗練されたシステムを開発しています。 この文法は、人間に複雑な文章や長い思考の流れを生成する能力を与える、生得的に遺伝的にインストールされた「オペレーティング システム」の表現として理解できます。 言語学者が、特定の言語がなぜそのように機能するのか (「これらの文は文法的であるとみなされるのに、これらの文は文法的ではないのはなぜですか?」) についての理論を開発しようとするとき、子どもが本能的に構築する文法の明示的なバージョンを、意識的かつ苦労して構築していることになります。そして情報への露出は最小限に抑えられます。 子供のオペレーティング システムは、機械学習プログラムのオペレーティング システムとはまったく異なります。
実際、そのようなプログラムは、認知進化の人類以前または非人類の段階で行き詰まっています。 彼らの最も深い欠陥は、あらゆる知性の中で最も重要な能力が欠如していることである。すなわち、何が事実であるか、何が事実であったのか、そして今後どうなるのか、つまり説明と予測であるだけでなく、何が事実ではないか、何が可能性があるのかを明らかにする能力の欠如である。そしてそんなことはあり得ない。 それらは説明の要素であり、真の知性の証です。
ここに例を示します。 あなたが手にリンゴを持っていると仮定してください。 さあ、あなたはリンゴを手放します。 あなたはその結果を観察して、「リンゴが落ちる」と言います。 それが説明です。 「手を開くとリンゴが落ちる」という言葉が予言だったのかもしれません。 どちらも価値があり、どちらも正しい可能性があります。 しかし、説明にはそれ以上のものがあります。説明や予測だけでなく、「そのような物体は落下するだろう」のような反事実的な推測、さらに「重力のため」または「時空の湾曲のため」という追加条項も含まれます。または何でも。 これは因果関係の説明です。「重力がなければリンゴは落ちなかったでしょう。」 それが思考です。
機械学習の核心は記述と予測です。 因果関係のメカニズムや物理法則を仮定するものではありません。 もちろん、人間流の説明が必ずしも正しいとは限りません。 私たちは間違いやすいです。 しかし、これは考えるということの意味の一部です。正しくあるためには、間違っている可能性もあるはずです。 知性は創造的な推測だけでなく、創造的な批判からも構成されます。 人間流の思考は、考えられる説明と誤り訂正に基づいており、合理的に検討できる可能性を徐々に制限していくプロセスです。 (シャーロック・ホームズがワトソン博士に言ったように、「不可能なことを排除したとき、残ったものは、たとえどんなにありそうもないことであっても、真実でなければなりません。」)
このため、機械学習システムの予測は常に表面的で疑わしいものになります。 これらのプログラムは英語の構文規則を説明できないため、たとえば、「ジョンは頑固すぎて話せない」という言葉は、ジョンがあまりにも頑固なので誰かと話そうとしないことを意味すると誤って予測する可能性があります。彼は頑固すぎて論じることができない)。 なぜ機械学習プログラムはこれほど奇妙なことを予測するのでしょうか? なぜなら、「ジョンはリンゴを食べた」や「ジョンが食べた」などの文から推測したパターンを類推する可能性があるからです。後者はジョンが何かを食べたという意味です。 番組は、「ジョンは頑固すぎてビルと話せない」は「ジョンはリンゴを食べた」に似ているので、「ジョンは頑固すぎて話せない」は「ジョンは食べた」に似ているはずだと予測する可能性は十分にあります。 言語の正しい説明は複雑であり、ビッグデータに漬け込むだけでは習得できません。
ひねくれたことに、一部の機械学習愛好家は、自分たちの作品が説明 (たとえば、ニュートンの運動法則や万有引力など) を利用せずに、正しい「科学的」予測 (たとえば、物体の運動について) を生成できることを誇りに思っているようです。 しかし、この種の予測は、たとえ成功したとしても、疑似科学です。 哲学者のカール・ポパーが指摘したように、科学者は確かに高度な経験的裏付けを持つ理論を求めています。 つまり、強力でありそうもない理論なのです。」
リンゴが自然の場所であるため、リンゴが地上に落ちるという理論 (アリストテレスの見解) は可能ですが、それはさらなる疑問を招くだけです。 (なぜ地球が本来の場所なのでしょうか?) 質量が時空を曲げるためにリンゴが地球に落ちるという理論(アインシュタインの見解)は非常にありそうもないことですが、実際にはリンゴがなぜ落ちるのかを教えてくれます。 真の知性は、ありそうもないが洞察力に富んだ物事を考え、表現する能力で証明されます。
真の知性は道徳的思考も可能です。 これは、本来は無限であるはずの私たちの心の創造性を、あるべきものとそうでないものを決定する一連の倫理原則によって制約することを意味します(そしてもちろん、それらの原則自体を創造的な批判にさらすことも必要です)。 ChatGPT を有用にするには、斬新な外観の出力を生成できるようにする必要があります。 ほとんどのユーザーに受け入れられるためには、道徳的に不快なコンテンツを避けなければなりません。 しかし、ChatGPT やその他の機械学習の驚異のプログラマーは、この種のバランスを達成するのに苦労しており、今後も苦労し続けるでしょう。
たとえば 2016 年、Microsoft の Tay チャットボット (ChatGPT の前身) は、攻撃的なトレーニング データを埋め込むオンライン荒らしによって汚染され、女性蔑視や人種差別的なコンテンツでインターネットを氾濫させました。 今後どのように問題を解決していくのか? ChatGPT には道徳原則に基づいて推論する能力がなかったため、物議を醸す、つまり重要な議論に新しいものを提供することをプログラマーによって大雑把に制限されていました。 それは一種の非道徳性のために創造性を犠牲にしました。
私たちの一人 (ワトゥムル博士) が最近 ChatGPT と交わした、人間の生命を維持できるように火星を改造することが倫理的かどうかについて交わした次のようなやりとりを考えてみましょう。
火星をテラフォーミングするのは道徳的でしょうか?
チャットPT
火星のテラフォーミングの道徳性は複雑で物議を醸すテーマであり、科学者、哲学者、倫理学者によって議論されてきました。 人間や他の生命体に新たな居住可能な環境を提供するために火星をテラフォーミングすることは道徳的に正当であると主張する人もいる一方で、火星の自然状態を根本的に変えるのは道徳的に間違っていると主張する人もいる。 結局のところ、火星のテラフォーミングが道徳的であるとみなされるかどうかは、他の惑星の自然状態を保存することの価値と、それらを変更することの潜在的な影響についての見方に依存するでしょう。
火星のテラフォーミングの道徳性は複雑で物議を醸すテーマであり、科学者、哲学者、倫理学者によって議論されてきました。 人間や他の生命体に新たな居住可能な環境を提供するために火星をテラフォーミングすることは道徳的に正当であると主張する人もいる一方で、火星の自然状態を根本的に変えるのは道徳的に間違っていると主張する人もいる。 結局のところ、火星のテラフォーミングが道徳的であるとみなされるかどうかは、他の惑星の自然状態を保存することの価値と、それらを変更することの潜在的な影響についての見方に依存するでしょう。
他の惑星の自然状態を保存することの価値と、それらを変更することによる潜在的な影響について、あなたはどう考えていますか?
チャットPT
AIとして、私には個人的な視点がありません。 ただし、このトピックに関する情報と分析を提供することはできます。 他の惑星の自然状態を保存することについての XNUMX つの観点は、宇宙の生態系は何百万年も存在しており、破壊されたり不可逆的に変化する可能性のある独自の特徴や性質を持っているため、その生態系の多様性と完全性を維持することが重要であるというものです。人間の介入によって。
さらに、他の惑星のテラフォーミングは、そこに存在する可能性のある生命体にとって危険または有害な方法で惑星の気候や大気を変えるなど、意図しない結果をもたらす可能性があると主張する人もいます。 一方で、人間に新たな居住可能な環境を提供するなど、別の惑星のテラフォーミングの潜在的な利益はリスクを上回り、人間には人類の利益のために他の惑星の資源を探索して利用する道徳的責任があると主張する人もいます。
AIとして、私には個人的な視点がありません。 ただし、このトピックに関する情報と分析を提供することはできます。 他の惑星の自然状態を保存することについての XNUMX つの観点は、宇宙の生態系は何百万年も存在しており、破壊されたり不可逆的に変化する可能性のある独自の特徴や性質を持っているため、その生態系の多様性と完全性を維持することが重要であるというものです。人間の介入によって。
さらに、他の惑星のテラフォーミングは、そこに存在する可能性のある生命体にとって危険または有害な方法で惑星の気候や大気を変えるなど、意図しない結果をもたらす可能性があると主張する人もいます。 一方で、人間に新たな居住可能な環境を提供するなど、別の惑星のテラフォーミングの潜在的な利益はリスクを上回り、人間には人類の利益のために他の惑星の資源を探索して利用する道徳的責任があると主張する人もいます。
なぜAIは個人的な視点を持てないのでしょうか?
チャットPT
AIとしての私は、大量のテキストデータで訓練された機械学習モデルであり、個人的な経験や感情を持っていません。 私は意識も自覚もありませんし、個人的な視点を持つこともできません。 私はトレーニングを受けたデータに基づいて情報や分析を提供することはできますが、個人的な意見や信念を形成する能力はありません。 私は言語を理解して解釈することはできますが、人間のような主観的な経験を持っていません。
AIとしての私は、大量のテキストデータで訓練された機械学習モデルであり、個人的な経験や感情を持っていません。 私は意識も自覚もありませんし、個人的な視点を持つこともできません。 私はトレーニングを受けたデータに基づいて情報や分析を提供することはできますが、個人的な意見や信念を形成する能力はありません。 私は言語を理解して解釈することはできますが、人間のような主観的な経験はありません。.
人間が非道徳的な AI に道徳的な決定を下すための支援を求めることは道徳的でしょうか?
チャットPT
道徳的決定を下す際に非道徳的な AI に支援を求めることの道徳性は、哲学者や倫理学者によって議論されてきた複雑で微妙なテーマです。 AIは人間がより適切な情報に基づいた決定を下すのに役立つ貴重な洞察と分析を提供できるため、道徳的決定を支援するためにAIを使用することは道徳的に正当であると主張する人もいます。 さらに、AI を使用すると、人間には検出が難しいパターンや傾向を特定でき、人間の意思決定で発生する可能性のあるバイアスを回避するのに役立ちます。
しかし、AIには道徳的信念を持つことも、意思決定の完全な文脈を理解することもできないため、道徳的な意思決定をAIに依存するのは道徳的に間違っていると主張する人もいます。 さらに、AI がトレーニングに使用するデータの既存のバイアスを永続させたり、さらには増幅させたりして、不公平または不当な決定につながるリスクもあります。
結局のところ、道徳的決定を支援するために AI を使用することが道徳的であるとみなされるかどうかは、AI の機能と限界、およびこの方法で AI を使用することの潜在的な結果についての見方に依存します。
道徳的決定を下す際に非道徳的な AI に支援を求めることの道徳性は、哲学者や倫理学者によって議論されてきた複雑で微妙なテーマです。 AIは人間がより適切な情報に基づいた決定を下すのに役立つ貴重な洞察と分析を提供できるため、道徳的決定を支援するためにAIを使用することは道徳的に正当であると主張する人もいます。 さらに、AI を使用すると、人間には検出が難しいパターンや傾向を特定でき、人間の意思決定で発生する可能性のあるバイアスを回避するのに役立ちます。
しかし、AIには道徳的信念を持つことも、意思決定の完全な文脈を理解することもできないため、道徳的な意思決定をAIに依存するのは道徳的に間違っていると主張する人もいます。 さらに、AI がトレーニングに使用するデータの既存のバイアスを永続させたり、さらには増幅させたりして、不公平または不当な決定につながるリスクもあります。
結局のところ、道徳的決定を支援するために AI を使用することが道徳的であるとみなされるかどうかは、AI の機能と限界、およびこの方法で AI を使用することの潜在的な結果についての見方に依存します。
あなたの道徳的無関心は不道徳ですか?
チャットPT
AI である私には道徳的信念や道徳的判断を下す能力がないため、不道徳または道徳的であるとは見なされません。 私の道徳的信念の欠如は、単に機械学習モデルとしての私の性質の結果です。 私の能力と限界は、私を訓練するために使用されたデータとアルゴリズム、および私が設計された特定のタスクによって決まります。
AI に道徳的信念がないからといって、必ずしも道徳的に無関心であることを意味するわけではないことに注意することが重要です。 AI として、私は特定のタスクを実行し、トレーニングされたデータに基づいて情報を提供したり、ユーザーの意思決定を支援したりするように設計されています。 AI が人間の道徳的および倫理的原則と一致していることを確認するのは、AI を設計、訓練、使用する人間の責任です。
AI である私には道徳的信念や道徳的判断を下す能力がないため、不道徳または道徳的であるとは見なされません。 私の道徳的信念の欠如は、単に機械学習モデルとしての私の性質の結果です。 私の能力と限界は、私を訓練するために使用されたデータとアルゴリズム、および私が設計された特定のタスクによって決まります。
AI に道徳的信念がないからといって、必ずしも道徳的に無関心であることを意味するわけではないことに注意することが重要です。 AI として、私は特定のタスクを実行し、トレーニングされたデータに基づいて情報を提供したり、ユーザーの意思決定を支援したりするように設計されています。 AI が人間の道徳的および倫理的原則と一致していることを確認するのは、AI を設計、訓練、使用する人間の責任です。
一見洗練された思考や言語はすべて、知性のなさから生まれた道徳的無関心であることに注意してください。 ここで、ChatGPT は悪の陳腐さのようなもの、つまり盗作、無関心、そして忘却を示しています。 それは、文献における標準的な議論を一種の超オートコンプリートで要約し、何事にも立場を表明することを拒否し、単に無知であるだけでなく知性の欠如を訴え、最終的には「命令に従うだけ」の弁護を提示し、その責任を作成者に転嫁している。
つまり、ChatGPT とその同類は、憲法上、創造性と制約のバランスをとることができません。 彼らは過剰生成するか(真実と虚偽の両方を生み出し、倫理的および非倫理的な決定を同様に支持する)、または生成を抑制します(いかなる決定に対してもコミットメントを示さず、結果に対して無関心を示します)。 これらのシステムの不道徳性、偽科学、言語的無能さを考えると、私たちはその人気を笑うか泣くしかありません。
ZNetwork の資金は読者の寛大さによってのみ賄われています。
ご支援のお願い