中国語の部屋

「中国語の部屋」の編集履歴(バックアップ)一覧はこちら

中国語の部屋」(2013/05/17 (金) 21:44:25) の最新版変更点

追加された行は緑色になります。

削除された行は赤色になります。

#contents ---- **概説 中国語の部屋(英:Chinese Room)とは、[[ジョン・サール]]が[[機能主義]]を批判し、[[強いAI>http://ja.wikipedia.org/wiki/%E5%BC%B7%E3%81%84AI%E3%81%A8%E5%BC%B1%E3%81%84AI]]の実現可能性を否定するため考案した思考実験である。 中国語が理解できない英国人に、沢山の中国語のカードが入った箱と、そのカードの使い方が書かれた分厚い英語のマニュアルを持って部屋に入ってもらう。部屋には小さな穴が開いていて、そこから英国人は中国語で書かれた質問を受け取る。そして英語のマニュアルに従って、決められた中国語のカードを返す。その英国人は中国語の質問と返答の「意味」がわからないにも関わらず、中国語によるコミュニケーションを成立させており、外部の人からは中国語を理解しているかのように見える。 この思考実験でサールが主張するのは、コンピューターが「計算」することと、「意味」を「理解」することは違うということである。 **思考実験の意味 この思考実験全体はコンピューターのアナロジーになっている。すなわち小部屋全体がコンピューターを表し、マニュアルに従って作業する英国人は、プログラムに従って動くCPUに相当する。 心の哲学の観点からこの思考実験を見ると、[[物理主義]]の一種である[[機能主義]]に対する批判となっている。中国語の部屋では、意味の理解を一切行うことなしに、純粋に機能的なシステムの使用を通じて知的活動を模倣することができるということが証明されている。すなわち「意識体験は機能に付随しないから機能主義は間違っている」ということである。 またサールは言語哲学の観点から以下のように論じている。 >1、コンピューター・プログラムは統語論的である。 >2、統語論がそのまま意味論なのではない。 >3、心には意味論がある。 >4、ゆえに、プログラムの実行がそのまま心なのではない。 人間の心は記号以上のなにかを備えており、心が記号に意味を与えている、となる。 哲学の観点からは、[[チューリングテスト>http://ja.wikipedia.org/wiki/%E3%83%81%E3%83%A5%E3%83%BC%E3%83%AA%E3%83%B3%E3%82%B0%E3%83%BB%E3%83%86%E3%82%B9%E3%83%88]]に合格するような高度な人工知能でも意識(心)を持つことはありえない。これは強いAIの実現可能性の否定である。 なおこのサールの中国語の部屋は、プログラムでは知能を実現できないということを証明するための喩えとして引用される場合があるが、中国語の部屋は、マニュアルに沿うという固定的な処理で理解を実現しているという点で、むしろ逆であり、その引用方法は適切でない。 なお、当初サールは意図しなかったかも知れないが、この思考実験は機能主義への批判を通じて[[意識のハードプロブレム]]の主張と、物理主義への批判にもなっている。つまり現代の科学技術によって脳細胞を観察しても、そこで明らかになるのは個別のニューロンたちの連続的な活動だけである。ここではコンピューターのアナロジーが別の意味で適用できる。ニューロンたちが順番に発火していくその過程で、[[現象的意識]]や[[クオリア]]が現れる様子を見ることはできない。それはコンピューターの活動と同じであり、現象的意識やクオリアは、ニューロンたちの発火という物理現象に、論理的に還元する事はできないのである。 **中国語の部屋に対する反論 強いAI支持者は、「中国語を理解していない」と断定するためには中の人間だけでなく、箱全体が中国語を理解していないこと、すなわち中の人とマニュアルを複合させた存在が、中国語を理解していないことを証明すべきだ、と考える。また「理解」や「意識」の基準となっている人間の場合でさえ、脳内でいかにして意識が生じるかという仕組みが明らかになっていないのだから、中国語の部屋も、中身がどうであれ正しく中国語のやり取りができている時点で、中国語を理解していると判断して良いのでは、という反論も存在する。つまり部屋全体は中国語を理解しているということである。 以上のような反論に対してサールは、中国語の部屋を体内化、すなわち部屋の中にある中国語のマニュアルを英国人が丸暗記することを想定して反論する。部屋の中での実験と違うのは、文字でなく発音のマニュアルの暗記ということであり、中国人が特定の発音をしたら、それに対応した特定の発音を返すということである。その英国人は、中国語を理解していないにもかかわらず、傍から見れば中国語のネイティヴのように会話ができている。もちろんその会話には意味論が欠けているということである。 なお[[コネクショニズム>http://ja.wikipedia.org/wiki/%E3%82%B3%E3%83%8D%E3%82%AF%E3%82%B7%E3%83%A7%E3%83%8B%E3%82%BA%E3%83%A0]]によるシステムは、古典的計算主義のような、統語論的性質をもつ表象に対して統語論的規則を逐次適用するという様式とは異なる仕方で計算を実行するので、サールの批判は当てはまらないという見解がある。 サールはコネクショニズムによっても強いAIが実現不可能なことを示すため、「中国語のジム」という思考実験を行っている。これは中国語の部屋の思考実験同様のマニュアルに従った中国語の応答を、中国語を理解しない複数の英国人で行うというものである。もちろん複数の英国人とは[[ニューラルネットワーク>http://ja.wikipedia.org/wiki/%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%A9%E3%83%AB%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF]]の比喩になっている。意味の理解(クオリア)がない者たち、つまりゼロをいくら足しても乗じてもゼロである、ということである。 **コンピューターは「心」を持てるか? #right(){(以下は管理者の見解)} 私にはコンピューター・プログラムの知識があるが、中国語の部屋の思考実験についてプログラマーとしての見解を述べれば、強いAI支持者の「部屋全体は中国語を理解している」という反論は的外れであり、「理解」という言葉を、意味論を除外して解釈し、矮小化していると思う。すなわち「理解」という語をより厳密に「意味の理解」とするならば、部屋全体は確かにシステムとして中国語を理解しているように動作するが、それはシステムを作った人物が英語と中国語の「意味」を理解できるからであり、従って正確にいうなら「部屋を作った人間は中国語の意味を理解している」、または「部屋は意味を理解できる人間の動作面(機能)を実行できる」となるのである。つまり部屋がシステムとして中国語を理解するよう機能しているよう見えても、その機能にはサールがいうように「意味」の理解をともなっていないし、またクオリアがともなっていないのである。 これはコンピューター・プログラムについても同様であり、プログラムの具体的なソースコード(関数、演算子、記号、数値)を記述する者は、「意味」を理解できる人間である。プログラマーはコンピューターの実行結果――出力されたものが、人間にとって「意味のあるもの」になるようにソースコードを記述するのであり、関数や演算子や数値、その処理過程自体やコンピューターそのものに意味が与えられているのではない。「意味」とはあくまで人間が読み取るものなのである。仮にコンピューターのディスプレイが「今日は凄く暑い」と表示していても、その文字を読む人がいないなら、そこに「意味」は生じない。その文字はプログラムによる「出力(output)」に過ぎないのである。 「意味」の「理解」こそが「心」であると定義するなら、強いAIは実現し得ないことになる。しかし逆に、「理解」という語を限定的に解釈し、「心の機能の実現」と定義するなら、いわゆる「弱いAI」が実現する可能性は十分あるだろう。サールもそのことは否定していない。 AI研究者が「心の機能の実現」を目指しているのならば、サールの批判に対して、「理解」という語の定義に(揚げ足取りのように)拘ってまで無理に反論する必要はないはずである。AI研究者はクオリアを持てるコンピューターの制作を目論んでいるのではないはずだからだ。しかし機能主義的な哲学者はサールに対し、合理的に反論する必要があるだろう。中国語の部屋の思考実験では、心の機能的側面と現象的側面(クオリア)が峻別されているからであり、なおかつ心の本質は現象的側面である「意味の理解」であり、機能的側面ではない、とサールは主張しているからだ。ならば「心とは機能である」と考える機能主義は間違っていることになる。 機能主義を批判する思考実験には、[[中国人民]]、[[マリーの部屋]]、[[逆転クオリア]]、[[哲学的ゾンビ]]など多様なものがあるが、中国語の部屋は「クオリアの不在」を実際に「理解」できる点で、他の思考実験とは決定的に異なっている。逆転クオリアや哲学的ゾンビは思考可能性に訴えるものであり、あくまで可能性を示すものでしかない。また中国人民やマリーの部屋はクオリアの不在を示唆するものであり、実際にクオリアが不在であることは論証できない。しかし中国語の部屋では、実験者が実際にクオリアの不在を体験できるのである。 たとえば中国語ができない英国人が、マニュアルに従って中国語のカードを一回受け取り、返答のカードを一回出したとする。もちろんそれは英国人にとって意味不明なカードの交換に過ぎない。しかしその受け取ったカードには、実は「世界一青く澄んだ海はどこだ?」という意味の中国語が書かれてあったとし、返答のカードには「南太平洋のタヒチあたりだ」という意味の中国語が書かれてあったとする。その中国語の意味を、後になって英国人が教えてもらったなら、自分に「意味の理解」が欠如していたこと、つまり「世界一」「青く澄んだ」「海」といった、「意味(クオリア)」が欠如していたことを端的に理解でき、また心の機能的側面と現象的側面の歴然たる違いを理解することができるのである。 思考実験の結論として、「心」を「機能」だとする機能主義とは、[[クオリア]]や[[現象的意識]]の存在を無視する[[行動主義]]と同じ難点を抱えていることが証明されたはずである。機能主義とは脳科学に吸収さるべき立場であると私は考える。 ---- ・参考文献・論文 ジョン・R・サール『MiND 心の哲学』山本貴光・吉川浩満 訳 朝日出版社 2006年 デイヴィッド・J. チャーマーズ『意識する心―脳と精神の根本理論を求めて』林一 訳 白揚社 2001年 柴田正良『ロボットの心 7つの哲学物語』講談社現代新書 2001年 服部裕幸「[[「中国語の部屋」とその後>http://pssj.info/program/program_data/37/37ws/hattori-2.pdf]]」『アカデミア』人文・社会科学編(南山大学)第77 号、2003, pp.81-103 ・参考サイト http://ja.wikipedia.org/wiki/%E4%B8%AD%E5%9B%BD%E8%AA%9E%E3%81%AE%E9%83%A8%E5%B1%8B ----
#contents ---- **概説 中国語の部屋(英:Chinese Room)とは、[[ジョン・サール]]が[[機能主義]]を批判し、[[強いAI>http://ja.wikipedia.org/wiki/%E5%BC%B7%E3%81%84AI%E3%81%A8%E5%BC%B1%E3%81%84AI]]の実現可能性を否定するため考案した思考実験である。 中国語が理解できない英国人に、沢山の中国語のカードが入った箱と、そのカードの使い方が書かれた分厚い英語のマニュアルを持って部屋に入ってもらう。部屋には小さな穴が開いていて、そこから英国人は中国語で書かれた質問を受け取る。そして英語のマニュアルに従って、決められた中国語のカードを返す。その英国人は中国語の質問と返答の「意味」がわからないにも関わらず、中国語によるコミュニケーションを成立させており、外部の人からは中国語を理解しているかのように見える。 この思考実験でサールが主張するのは、コンピューターが「計算」することと、「意味」を「理解」することは違うということである。 **思考実験の意味 この思考実験全体はコンピューターのアナロジーになっている。すなわち小部屋全体がコンピューターを表し、マニュアルに従って作業する英国人は、プログラムに従って動くCPUに相当する。 心の哲学の観点からこの思考実験を見ると、[[物理主義]]の一種である[[機能主義]]に対する批判となっている。中国語の部屋では、意味の理解を一切行うことなしに、純粋に機能的なシステムの使用を通じて知的活動を模倣することができるということが証明されている。すなわち「意識体験は機能に付随しないから機能主義は間違っている」ということである。 またサールは言語哲学の観点から以下のように論じている。 >1、コンピューター・プログラムは統語論的である。 >2、統語論がそのまま意味論なのではない。 >3、心には意味論がある。 >4、ゆえに、プログラムの実行がそのまま心なのではない。 人間の心は記号以上のなにかを備えており、心が記号に意味を与えている、となる。 哲学の観点からは、[[チューリングテスト>http://ja.wikipedia.org/wiki/%E3%83%81%E3%83%A5%E3%83%BC%E3%83%AA%E3%83%B3%E3%82%B0%E3%83%BB%E3%83%86%E3%82%B9%E3%83%88]]に合格するような高度な人工知能でも意識(心)を持つことはありえない。これは強いAIの実現可能性の否定である。 なおこのサールの中国語の部屋は、プログラムでは知能を実現できないということを証明するための喩えとして引用される場合があるが、中国語の部屋は、マニュアルに沿うという固定的な処理で理解を実現しているという点で、むしろ逆であり、その引用方法は適切でない。 なお、当初サールは意図しなかったかも知れないが、この思考実験は機能主義への批判を通じて[[意識のハードプロブレム]]の主張と、物理主義への批判にもなっている。つまり現代の科学技術によって脳細胞を観察しても、そこで明らかになるのは個別のニューロンたちの連続的な活動だけである。ここではコンピューターのアナロジーが別の意味で適用できる。ニューロンたちが順番に発火していくその過程で、[[現象的意識]]や[[クオリア]]が現れる様子を見ることはできない。それはコンピューターの活動と同じであり、現象的意識やクオリアは、ニューロンたちの発火という物理現象に、論理的に還元する事はできないのである。 **中国語の部屋に対する反論 強いAI支持者は、「中国語を理解していない」と断定するためには中の人間だけでなく、箱全体が中国語を理解していないこと、すなわち中の人とマニュアルを複合させた存在が、中国語を理解していないことを証明すべきだ、と考える。また「理解」や「意識」の基準となっている人間の場合でさえ、脳内でいかにして意識が生じるかという仕組みが明らかになっていないのだから、中国語の部屋も、中身がどうであれ正しく中国語のやり取りができている時点で、中国語を理解していると判断して良いのでは、という反論も存在する。つまり部屋全体は中国語を理解しているということである。 以上のような反論に対してサールは、中国語の部屋を体内化、すなわち部屋の中にある中国語のマニュアルを英国人が丸暗記することを想定して反論する。部屋の中での実験と違うのは、文字でなく発音のマニュアルの暗記ということであり、中国人が特定の発音をしたら、それに対応した特定の発音を返すということである。その英国人は、中国語を理解していないにもかかわらず、傍から見れば中国語のネイティヴのように会話ができている。もちろんその会話には意味論が欠けているということである。 なお[[コネクショニズム>http://ja.wikipedia.org/wiki/%E3%82%B3%E3%83%8D%E3%82%AF%E3%82%B7%E3%83%A7%E3%83%8B%E3%82%BA%E3%83%A0]]によるシステムでは、古典的計算主義のような、統語論的性質をもつ表象に対して、統語論的規則を逐次適用するという様式とは異なる仕方で計算を実行するので、サールの批判は当てはまらないという見解がある。 サールはコネクショニズムによっても強いAIが実現不可能なことを示すため、「中国語のジム」という思考実験を行っている。これは中国語の部屋の思考実験と類似のマニュアルに従った中国語の応答を、中国語を理解しない複数の英国人で行うというものである。もちろん複数の英国人とは[[ニューラルネットワーク>http://ja.wikipedia.org/wiki/%E3%83%8B%E3%83%A5%E3%83%BC%E3%83%A9%E3%83%AB%E3%83%8D%E3%83%83%E3%83%88%E3%83%AF%E3%83%BC%E3%82%AF]]の比喩になっている。意味の理解(クオリア)がない者たちをいくら集めても意味は生じない。つまりゼロをいくら足しても乗じてもゼロである、ということである。 **コンピューターは「心」を持てるか? #right(){(以下は管理者の見解)} 私にはコンピューター・プログラムの知識があるが、中国語の部屋の思考実験についてプログラマーとしての見解を述べれば、強いAI支持者の「部屋全体は中国語を理解している」という反論は的外れであり、「理解」という言葉を、意味論を除外して解釈し、矮小化していると思う。すなわち「理解」という語をより厳密に「意味の理解」とするならば、部屋全体は確かにシステムとして中国語を理解しているように動作するが、それはシステムを作った人物が英語と中国語の「意味」を理解できるからであり、従って正確にいうなら「部屋を作った人間は中国語の意味を理解している」、または「部屋は意味を理解できる人間の動作面(機能)を実行できる」となるのである。つまり部屋がシステムとして中国語を理解するよう機能しているよう見えても、その機能にはサールがいうように「意味」の理解をともなっていないし、またクオリアがともなっていないのである。 これはコンピューター・プログラムについても同様であり、プログラムの具体的なソースコード(関数、演算子、記号、数値)を記述する者は、「意味」を理解できる人間である。プログラマーはコンピューターの実行結果――出力されたものが、人間にとって「意味のあるもの」になるようにソースコードを記述するのであり、関数や演算子や数値、その処理過程自体やコンピューターそのものに意味が与えられているのではない。「意味」とはあくまで人間が読み取るものなのである。仮にコンピューターのディスプレイが「今日は凄く暑い」と表示していても、その文字を読む人がいないなら、そこに「意味」は生じない。その文字はプログラムによる「出力(output)」に過ぎないのである。 「意味」の「理解」こそが「心」であると定義するなら、強いAIは実現し得ないことになる。しかし逆に、「理解」という語を限定的に解釈し、「心の機能の実現」と定義するなら、いわゆる「弱いAI」が実現する可能性は十分あるだろう。サールもそのことは否定していない。 AI研究者が「心の機能の実現」を目指しているのならば、サールの批判に対して、「理解」という語の定義に(揚げ足取りのように)拘ってまで無理に反論する必要はないはずである。AI研究者はクオリアを持てるコンピューターの制作を目論んでいるのではないはずだからだ。しかし機能主義的な哲学者はサールに対し、合理的に反論する必要があるだろう。中国語の部屋の思考実験では、心の機能的側面と現象的側面(クオリア)が峻別されているからであり、なおかつ心の本質は現象的側面である「意味の理解」であり、機能的側面ではない、とサールは主張しているからだ。ならば「心とは機能である」と考える機能主義は間違っていることになる。 機能主義を批判する思考実験には、[[中国人民]]、[[マリーの部屋]]、[[逆転クオリア]]、[[哲学的ゾンビ]]など多様なものがあるが、中国語の部屋は「クオリアの不在」を実際に「理解」できる点で、他の思考実験とは決定的に異なっている。逆転クオリアや哲学的ゾンビは思考可能性に訴えるものであり、あくまで可能性を示すものでしかない。また中国人民やマリーの部屋はクオリアの不在を示唆するものであり、実際にクオリアが不在であることは論証できない。しかし中国語の部屋では、実験者が実際にクオリアの不在を体験できるのである。 たとえば中国語ができない英国人が、マニュアルに従って中国語のカードを一回受け取り、返答のカードを一回出したとする。もちろんそれは英国人にとって意味不明なカードの交換に過ぎない。しかしその受け取ったカードには、実は「世界一青く澄んだ海はどこだ?」という意味の中国語が書かれてあったとし、返答のカードには「南太平洋のタヒチあたりだ」という意味の中国語が書かれてあったとする。その中国語の意味を、後になって英国人が教えてもらったなら、自分に「意味の理解」が欠如していたこと、つまり「世界一」「青く澄んだ」「海」といった、「意味(クオリア)」が欠如していたことを端的に理解でき、また心の機能的側面と現象的側面の歴然たる違いを理解することができるのである。 思考実験の結論として、「心」を「機能」だとする機能主義とは、[[クオリア]]や[[現象的意識]]の存在を無視する[[行動主義]]と同じ難点を抱えていることが証明されたはずである。機能主義とは脳科学に吸収さるべき立場であると私は考える。 ※ここで述べた「意味の理解」とは、言葉の意味とは心的イメージであるとする「心理主義」を含意しているわけではない。言葉の意味が私秘的なものでなく公共的なものであったとしても、その「公共」なるものは人々によって構成されるのだから、言葉の意味が人に理解されて初めて存在できるとするサールの見解は、心理主義を前提にしなくても成り立つことになる。なお心の哲学では心的イメージを「クオリア」と呼び、言葉の「意味」と区別することもあるが、サールは両者をともに「意識」という概念の範疇で理解している(詳細は[[意識とクオリアの違い>http://www21.atwiki.jp/p_mind/pages/67.html#id_95e264ad]]を参照のこと)。上述の私の見解もサールと同じ立場であり、「意味」と「クオリア」を同一視して論じている。 ---- ・参考文献・論文 ジョン・R・サール『MiND 心の哲学』山本貴光・吉川浩満 訳 朝日出版社 2006年 デイヴィッド・J. チャーマーズ『意識する心―脳と精神の根本理論を求めて』林一 訳 白揚社 2001年 柴田正良『ロボットの心 7つの哲学物語』講談社現代新書 2001年 服部裕幸「[[「中国語の部屋」とその後>http://pssj.info/program/program_data/37/37ws/hattori-2.pdf]]」『アカデミア』人文・社会科学編(南山大学)第77 号、2003, pp.81-103 ・参考サイト http://ja.wikipedia.org/wiki/%E4%B8%AD%E5%9B%BD%E8%AA%9E%E3%81%AE%E9%83%A8%E5%B1%8B ----

表示オプション

横に並べて表示:
変化行の前後のみ表示: