読者です 読者をやめる 読者になる 読者になる

現代文最新傾向LABO 斎藤隆

入試現代文の最新傾向を分析し、次年度の傾向を予測する大胆企画

人工知能②ー身体性・自我・倫理問題ー現代文・小論文予想論点

2017センター国語第1問 科学論 科学コミュニケーション 人工知能 AI 神里達博 「人工知能と囲碁」 朝日新聞・月刊安心新聞 小林傳司 人工知能学会・倫理委員会 東ロボくん 自動車の自動運転 テーラーメイド治療 人工知能の暴走 シンギュラリティ 技術特異点 両面価値 人工知能と身体性 人工知能と自我 人工知能と倫理問題 ディープラーニング ネオ・ラッダイド運動 ホーキング博士 内田樹 人間の尊厳 養老孟司 『男女の怪』 山崎正和 小林雅一 『AIの衝撃』 自己 自我 アイデンティティ 入試頻出著者 月本洋 『日本人の脳に主語はいらない』 身体 人類の滅亡 人類の終焉 生命 人間の知性 「人工知能」 知能 地球温暖化 砂漠化 人間を超えた知能 ニューラルネット 現代文明論 現代文明批判 現代社会論 科学と社会の関係 小論文 現代文 国語

2017センター国語第1問・「科学論」・「科学コミュニケーション」を発展的に考察し、「人工知能」について考えます。現代文(国語)・小論文・予想論点として解説します。

 

 以下では、

 

(1)なぜ、この記事を書くのか

(2)神里達博氏の論考・「人工知能と囲碁」(「月刊安心新聞」 朝日新聞)の紹介・解説ー身体性・自我・倫理問題

(3)「人工知能学会・倫理委員会」の取り組みー倫理問題

(4)「『人工知能学会・倫理委員会』の取り組み」は、杞憂とは言えないということ

(5)「人工知能」関連の当ブログの記事の紹介

(6)神里達博氏など、今回、参照した著者の紹介

 

について解説していきます。

 

(1)なぜ、この記事を書くのか? 

 

 今回の記事は「人工知能」の第2回目です。

 今回は、2017センター試験国語・第1問を意識して、前回の記事・「現代文・小論文・予想問題ー『AIの衝撃・人工知能は人類の敵か』」とは、違う視点から「人工知能」を解説します。

 前回の記事については、下にリンク画像を貼っておきます。

 

 今回の記事の主な題材としては、神里達博氏の論考(「人工知能と囲碁」・月刊安心新聞   2016.3.18「朝日新聞」)を使用します。

  

gensairyu.hatenablog.com

 

 

 2017センター試験国語・第1問本文に以下次のような小林傳司氏の論考が出題されました。

 「科学論」における「科学コミュニケーション」の論点です。

 今回のセンター試験の問題の、キーワードの一つは、「科学ー技術の両面価値」です。

 このキーワードで、すぐに思い浮かべるのは、「人工知能」でしょう。

 

 

(2017センター試験・第1問・問題文本文)(概要です) 

(赤字は当ブログによる「強調」です)

 

「十九世から二十世紀前半にかけて、既に「科学」は社会の諸問題を解決する能力を持っていた。「もっと科学を」というスローガンが説得力を持ち得た所以(ゆえん)である。しかし、二十世紀後半の科学ー技術は両面価値的存在になり始める。現代の科学ー技術は、自然に介入し、操作する能力を入手開発するようになっており、その結果、自然の脅威を制御できるようになってきた。同時にその科学ー技術の作り出した人工物が人類にさまざまな災いをもたらし始めてもいる。こうして「もっと科学を」というスローガンの説得力は低下し始め、「科学が問題ではないか」という新たな意識が社会に生まれ始めているのである。」(小林傳司「科学コミュニケーション」)

 

 

gensairyu.hatenablog.com

 

 …………………………… 

 

(当ブログによる解説) 

 

 「科学論」で、最近、最も注目されるべき論点は「人工知能」です

 最近、「人工知能(AI)技術」が大きな話題になっています。

 

 特に、東大受験を諦めた人工知能の「東ロボくん」、自動車の自動運転、囲碁・将棋でプロに勝利した事、個々人の患者に対応したテーラーメイド治療などで、「人工知能」は注目を集めています。

 このように、「人工知能」は、人類の進歩に寄与することが期待される一方で、「人工知能が人間を超える日」も問題になっています。

 つまり、シンギュラリティ(技術的特異点)

(→「シンギュラリティ(Singularity)」とは、「人工知能が人間の能力を超えることで起こる出来事。人類が人工知能と融合し、人類の進化が特異点(成長曲線が無限大になる点)に到達すること」という意味)

という言葉をキーワードにして、「2045年までにAIが人類を超える」とする見解が、最近の様々な月刊誌の「人工知能特集」・新刊本で目立ちます。

 軍事技術への転用、人工知能の暴走への不安もあります。

 

 まさに、「人工知能」には、顕著な「両面価値」が存在しているがゆえに、現在、最も注目されるべき論点なのです。

 

 

 (2)神里達博氏の論考・「人工知能と囲碁」(「月刊安心新聞」朝日新聞)の紹介・解説ー身体性・自我・倫理問題

 

 

文明探偵の冒険 今は時代の節目なのか (講談社現代新書)

文明探偵の冒険 今は時代の節目なのか (講談社現代新書)

 

 

 

 ここで、特に参考になるのは、最近発表された神里達博氏の論考(「人工知能と囲碁」 神里達博 (月刊安心新聞) 2016.3.18 朝日新聞)です。

 以下に、神里氏の論考を紹介しつつ、当ブログの解説をしていきます。


(神里氏の論考)

(概要です)

(赤字は当ブログによる「強調」です)

(青字は当ブログによる「注」です)

 囲碁で、世界トップクラスの棋士が1勝4敗で負け越した。このニュースを聞いて、AIが人類を敵に回すSF映画を思い出した方も多いのではないか。今回のAIの「快挙」は、そんな悪夢の始まりなのだろうか。今月はこのあたりから考えてみよう。

 まず、今回のAI勝利の最大の要因は、ここ数年、大いに注目されている「ディープラーニング」を応用したことにある。

 人工知能の世界では、「パターン認識」という課題が古くから関心を集めてきた。たとえば、この世には無数のバナナがあり、全く同じ形のものは無い。だが人間はバナナに共通のパターンをつかんでいるから、瞬時にバナナだと認識できる。一方、コンピューターは正確な計算を積み上げていくことは得意でも、そういう物事を概略的に捉えるような仕事は元来、不得意である。

 しかし、現実世界に存在するほとんどの情報源は、この種の「パターン」である。従って、コンピューターに人間並みの知的作業をさせようと思えば、パターンを認識してもらうよりない。これは容易ではないものの、長年の研究によりさまざまな手法が開発され、郵便番号などの文字を読みとったり、人の音声や顔を認識したりといった作業は、以前から実用レベルに達している。

 

 さて、ディープラーニングが従来と比べて優れている点は、大量のデータを学ぶことで、自力で「特徴ある何か」の存在を見つけることができる点だ。たとえば「バナナというのは、黄色くて、曲がっている」といった特徴を、あらかじめ人間がコンピューターに教えなくても、大量のバナナを含んだ画像を与えることで、そこから「なにか共通する存在が映り込んでいる」ということを抽出する。あとは人間が「ああ、それはバナナと言うものですよ」と教えてやれば、コンピューター内部に「バナナの概念と名前」のパターンが構築されるのだ。

 ディープラーニングは、AIの歴史の初期から検討されてきた、脳の神経回路網をモデルとする研究の系譜に連なる。だが近年、ハードウェアの計算能力が向上したことや、コンピューターに教えるためのデジタルデータがネット上に大量に蓄積されたこと、またアリゴリズム(算法)の適切な改良などにより、従来のものと比べてはるかに精度の良い認識が可能になったのである。

 

 機械に対する根源的な不安・不信が広がることは過去にも何度か起きている。古くは産業革命期のラッダイト運動

(→19世紀初期にイギリスの織物工業地帯に起こった機械破壊運動。産業革命による機械普及に対して、失業の危機を感じた労働者が起こした)

が有名であるが、1930年代、また60年代にも機械と人間の競争についての議論が盛り上がったことが知られている。

 最近でも、宇宙物理学者のホーキング博士

(→イギリスの理論物理学者。量子宇宙論・現代宇宙論の重要人物。現代の理論的宇宙論を明解に解説した『ホーキング、宇宙を語る』などでも有名。車椅子の物理学者としても知られている)

 が、真に知的なAIが完成することは、人類の終焉(しゅうえん)を意味するだろうと警告したことが話題になった。

 今はAIへの脅威論が広がる「ネオ・ラッダイド

(→技術革新・高度情報化社会を嫌悪し、テレビ・自動車・電気などを拒否する生活を実践する運動)

の季節」なのかもしれない。

 

ーーーーーーーー

 

(当ブログによる解説) 

 2014年、BBCの取材に対して、ホーキング博士は次のように語っています。

「完全な人工知能を開発できたら、それは人類の終焉を意味するかもしれない」

「人工知能が自分の意志をもって自立し、そして、さらに、これまでにないような早さで能力を上げ、自分自身を設計しなおすこともあり得る。ゆっくりとしか進化できない人間に、勝ち目はない。いずれは人工知能に取って代わられるだろう」

 人工知能の進化に人類が歩調を合わせることができる能力を、人工知能が上回ることになる、いわゆる「技術的特異点」についてホーキング博士は、既に重大な懸念を表明しています。

「インディペンデント」(英国の新聞)に2014年に掲載された論説で、博士は、

「人工知能の発明は人類史上最大の出来事だ。だが同時に、『最後』の出来事になってしまう可能性もある」

と述べています。

 

 ホーキング博士は「人工知能」の専門家ではないから、その意見は、あまり問題にする必要はないとする見解もあります。

 が、「人工知能の専門家」でないがゆえに、見えることもあるのではないでしょうか。

 無視しては、いけないと私は思います。

 

ーーーーーーーー

 

 (神里氏の論考)

しかし、すでに述べたように、今回のAIの「快挙」は、長年の人工知能研究の流れの延長線上にあるものだ。それだけでコンピューターが意志を持つなどということはあり得ない。重要なのは、AIには身体がないという点であろう。生命は身体という限界性があるがゆえに、自我(→大学入試の現代文(国語)・小論文レベルでは「アイデンティティ」・「自己」と同様に考えてもよいでしょう)を持つことに「意義」がある。この点でのAIと生命の隔たりは大きい。

 

 ーーーーーーーー

 

(当ブログによる解説) 

 上記の最終段落の「AIと身体性の関係」について、さらに解説します。

 「人工知能(AI)と身体性の関係」は、「人工知能」における重要な論点ですが、少々、分かりにくい側面があります。

 その点で、下記の内田樹氏の論考は、「理解の助け」になると思われるので、紹介します。

 

(内田樹氏の論考) 

(概要です)

(赤字は当ブログによる「強調」です)

(青字は当ブログによる「注」です)

養老孟司先生が書評で取り上げてた月本洋『日本人の脳に主語はいらない』(講談社選書メチエ)を読む。

御影駅の待合室でぱらりと開いて、「私は人工知能の研究をしていたが、数年前に人間並みの知能を実現するには『身体』が必要であるという考えにいたった」(4頁)という箇所を読んで、思わず「おおおお」とのけぞってしまった。

そのときはそれが非常に重要なことであることはわかったのだが、どういうふうに武道の稽古につなげればいいのかよくわからなかった。

そのあと池谷裕二さんと対談したときにミラーニューロンの話を聞いて、学習というのが決定的に身体的な経験であることを教えていただいた。

それからSさんと出会い、その指導を見て、身体図式のブレークスルー(→「打開。突破」という意味)は知的なブレークスルーと同期するということについての確信が深まった。
そして、この本を読んでいろいろなことが繋がった。

月本さんによると、最近の脳科学の実験により、「人間はイメージするときに身体を動かしている」ことがわかった。
月本さんはこれを「仮想的身体運動」と呼ぶ。
「人間は言葉を理解する時に、仮想的に身体を動かすことでイメージを作って、言葉を理解している」(4頁)ということである。

書き手と読み手の「身体的な(要は「脳的な」ということだけれど)同期」が「理解」ということの本質であるという月本説は、「身体で読む」私にはたいへん腑に落ちる説明である。

ミラーニューロンによって、私たちは他人の行動を見ているときに、それと同じ行動を仮想的に脳内で再演している。

その仮想身体運動を通じて「他人の心と自分の心」が同期する(ように感じ)、他人の心が理解できる(ように感じる)のである。」
( 「御影駅からリッツカールトンにゆく途中で考えたこと」内田樹の研究室  2008年05月04日)

 

 

日本人の脳に主語はいらない (講談社選書メチエ 410)

日本人の脳に主語はいらない (講談社選書メチエ 410)

 

 

 

  ーーーーーーーー

 

 (神里氏の論考) 

それでは、私たちが素朴に抱く、AIを含めた社会のIT化に対する不安感は、単に杞憂(きゆう)だろうか。問題の本質は、技術を支配するのは誰かという点だ。いかなる技術も結局は人間のためにあるのだが、技術が社会のなかで適切に機能するかどうかは、制度設計に大きく依存する。

 米国政府は、AIを使ってテロリストの行動の特徴を認識するシステムを作り、空港に導入しようとしている。その倫理的な妥当性は、誰がどう担保すべきなのだろうか。

 このように考えていくと、SF的な視点も時には有効だろうが、真の問題を隠蔽(いんぺい)してしまう可能性も否定できない。人間への脅威は、当面はやはり機械ではなく、人間だ。技術と制度をバランスよく目配りしながら、総合的に判断できる人間の知性こそが今、求められているのである。

(「人工知能と囲碁ー技術を支配するのは誰か」 2016・3・18 「朝日新聞」 月刊安心新聞)

 

 ーーーーーーーー

 

 (当ブログによる解説)

 最終段落が重要です。 

 この点について、さらに解説します。

 上記の、SF的な視点も時には有効だろうが、真の問題を隠蔽(いんぺい)してしまう可能性も否定できない。人間への脅威は、当面はやはり機械(→「人工知能」)ではなく、人間だ。技術と制度をバランスよく目配りしながら、総合的に判断できる人間の知性が今、求められているのである。

の部分は、じっくり考える必要があります。

 

 「技術と制度をバランスよく目配りしながら、総合的に判断できる人間の知性」の内実は、何か?

 この問題は、単純なものでは、ないでしょう。

 悩みつつ、ゆっくり考えていくべきです。

 これについて、参考になるのは、以下の見解です。 

 

 

(3)「人工知能学会・倫理委員会」の取り組みー倫理問題

 

AIと人類は共存できるか?

AIと人類は共存できるか?

 

 

 

 「技術と制度をバランスよく目配りしながら総合的に判断できる人間の知性」について、さらに、考えていきます。

 

 参考になるのは、以下に引用する「人工知能学会・ 倫理委員会の取組み」(「人 工 知 能」30 巻 3 号・2015 年 5 月)です。

(概要です)

(赤字は当ブログによる「強調」です)

(青字は当ブログによる「注」です)

2・2 我々の役割の明確化

では、我々、倫理委員会の役割は何だろうか。人工知能が人工知能をつくるというような未来は当分来ないので、 特に何もしなくてよいのだろうか。
いや、そうではないだろう。
人工知能研究者にとってみると当たり前の技術が社会に大きなインパクトを与えてしまうこともあり得る。
今後、人工知能の技術が、さまざまな 形で社会のインフラに組み込まれていくことは確実であろうから、そうしたときに、思いがけず大きなインパクトを与えてしまうことがあるかもしれない。
専門家として、予見できるものを予見しておくことは、社会に対する誠実な態度であろう。
さまざまな諸問題が起こらないうちに、どういう問題が発生する可能性があるのか、それに対して我々はどのような解決策をもつことができるのかなどを議論しておく必要 があるだろう。
人工知能技術に関して、禁止すべき行為があり得るのかもしれない。例えば、「犯罪的な AI、軍事 AI、中毒や依存をもたらすような AI に基づくシステム」に関しては、社会的な注意を払うべきであると議論されている。
もしこのような AI を抑制すべきことが適切なのであれば、社会を巻き込んでいくことも必要であろう。
また、東日本大震災における原子力発電所の事故を鑑みるに、考え得る最悪なシナリオとその対応を列挙することも専門家の重要な役割であろう。
さらには、現在の技術だけでなく、今後の技術の方向性を指し示すことも社会と対話するうえで重要な役割であろう。

 

2・3 考え方の指針
では,こうした役割を果たしていくために、どのような考え方が活動の指針となるだろうか?
まず、我々は社会と対話しなければならない倫理観は研究者自身ではなく、社会全体でつくっていくものである。

そして、人々の役に立つ人工知能、人々の生活を幸せにし、人生をより豊かにするような人工知能、つまり「万人のための人工知能」を目指すべきであろう。
では、人々を幸せにし、人生をより豊かにするということはどういうことであろうか。
人間にはさまざまな価値基準があるので、一般的には、ある特定の尺度でもって良い悪いを判断することは難しいだろう。
人工知能が使われるうえで、さまざまな良い点や悪い点(→「両面価値」)が出てくるであろうが、おそらく多くの人にとって社会における人工知能システムの良し悪しを判断する価値基準の一つが、「人間としての尊厳が守られるか」ではないだろうか。人工知能が発展することで、人間としての尊厳が侵される(例えばコンピュータに指示されるとおりに動くと生産性が上がるので、それを強要される)ようなことは不幸なことである。
人工知能の技術は、「人間の尊厳」を守るように使われていくべきではないだろうか。
また、人工知能が社会の期待に沿って倫理的に使われるためにはどのような手段を講じれば良いだろうか。
そのためには人工知能システムがオープンであること(透明性をもつこと)が必要であるし、説明可能であることも 必要であろう。
もし人工知能が「暴走する」という危惧を多くの人がもつのであれば、その制御権を複数の人間(市 民)に分散することなども必要かもしれない。
こうした議論を通じて明らかになってくるのは、人工知能の倫理的問題というときに主に議論すべきは、ロボット三原則のような「人工知能がもつべき倫理」ではなく、人間の側の倫理、すなわち「人工知能を使う人間の倫理」、「人工知能を開発する人間の倫理」であるということである。」 (「人工知能学会・ 倫理委員会の取組み」・「人 工 知 能」30 巻 3 号・2015 年 5 月)

 

ーーーーーーーー

 

  (当ブログによる解説)

専門家として、予見できるものを予見しておくことは、社会に対する誠実な態度であろう

万人のための人工知能

人々を幸せにし、人生をより豊かにするということ

人工知能の技術は、「人間の尊厳」を守るように使われていくべきではないだろうか」

人工知能の倫理的問題というときに主に議論すべきは、人間の側の倫理、すなわち「人工知能を使う人間の倫理」、「人工知能を開発する人間の倫理」であるということである」

 

 以上の言葉は、どれもが、誠実、謙虚、聡明であり、極めて正当です。 

 「技術と制度をバランスよく目配りしながら総合的に判断できる人間の知性」

を考える際の、大きなヒントになるものと言えるでしょう。

 

 上記の「人工知能学会・倫理委員会の取り組み」は、2017センター試験国語・第一問で出題された小林傳司氏の問題意識と同方向です。

 小林氏は、「科学と市民の共存」のために「科学コミュニケーション(→科学について、科学者が科学者ではない一般市民と対話すること)」の重要性を主張していますが、上記の「人工知能学会・倫理委員会の取り組み」も、全体として、同様のことを強調しているのです。

 

 小林氏の問題意識の詳細については、最近の当ブログの記事(「2017センター試験国語第一問題・論点的中報告・問題解説」→上にリンク画像があります)で取り上げましたので、そちらを参照してください。

 

 また、

人工知能の倫理的問題というときに主に議論すべきは、人間の側の倫理、すなわち「人工知能を使う人間の倫理」、「人工知能を開発する人間の倫理」であるということである」

の部分は、

人間への脅威は、当面はやはり機械ではなく、人間だ」とする、上記の神里氏の見解とも同方向であり、この見解も卓見だと思います。

 

 

 (4)「『人工知能学会・倫理委員会』の取り組み」は、杞憂とは言えないということ

 

 上記の「ホーキング博士の重大な懸念」を読むと、上記の「人工知能学会・倫理委員会の取り組み」は、決して、杞憂とは言えないことが、分かります。

 

 また、下記に引用する養老孟司氏の見解も、ホーキング博士の重大な懸念」と同様の内容です。

 

  (養老孟司氏の見解)(概要です)

人間は考えたことを必ず実現してきた動物だ。カメラでも、月世界旅行でも、先に考えている、そしてそれを実現する。

 人間には非常に悪い癖があって、考えたものをつくろうとする。考えるだけでは満足できない。

 そうすると、人間が最初に考えてつくりだしたもののひとつが神でしょう。だから、それもいずれ実現するのです。 

 論理で考えるとすぐにわかりますが、もし今以上に大きい脳味噌ができたとすると、われわれが考えることを全部考えられて、われわれが感じることを全部感じることができる。脳にプラス・アルファがついていたら、それでわれわれの仕事は終わり。」 (『男女の怪』養老孟司・阿川佐和子、だいわ文庫)

 

 また、小林雅一氏は、『AIの衝撃ー人工知能は人類の敵か』(→当ブログで最近、予想論点として記事化しました→上にリンク画像があります)の中で、次のような見解を述べています。

 

「人間を超えるものを人間はあえて作るだろうか」という「問い」に対して、

「未来の人間はあえてそうした決断を下す」というのが、小林氏の結論です。

 

 この見解の詳細を以下に引用します。

 以下は、上のリンク画像の記事の一部抜粋です。

 

(概要です)

(太字は当ブログによる「強調」です)

(青字は当ブログによる「注」です)

 

「人間を超えるものを人間はあえて作るだろうか」

 「創造性の萌芽を、最近のコンピュータは示し始めたようです。たとえば、ニューラルネット(→当ブログによる注→人間の脳の神経回路の仕組みを模したモデル。コンピュータに学習能力を持たせることにより、様々な問題を解決するためのアプローチ)

機械学習(→当ブログによる注→人工知能における研究課題の一つ。人間が自然に行っている学習能力と同様の機能をコンピュータで実現しようとする技術)

の研究者たちは、最近のニューラルネットは『ある領域で学んだ事柄を別の領域ヘと応用する能力を示し始めている』と言います。

  ニューラルネット、つまりコンピュータが示す、この種の能力を彼らは『汎化能力』(→当ブログによる注→様々な異なる対象に共通する性質・法則等を見出すこと。一般化。普遍化)と呼んでいます。

 今、この分野の技術は日進月歩で進化しています。今後、最先端のニューラルネットを搭載したロボットが世界を自由に動き回り、外界の情報を吸収して学ぶようになれば、それは多彩な経験から学んで成長する人間に急速に近づいていくでしょう。それは、いずれ意識すらも備えた強いAIヘとつながる道でもあります。

 問題は、人間に勝る知性を備えたAI、あるいはそれを搭載したロボットをあえて人間が開発するだろうか、ということです。

 産業革命を境に、人類は、力の大きさや移動速度、あるいは計算能力などの面において、人間の能力を遥かに超えるマシンを次々と開発してきました。

 しかし、どんなことにも対応できる柔軟な『知能』という最後の砦さえも、あえてロボットやコンピュータに譲りわたす決断を人間は下すでしょうか。」

 

ーーーーーー

 

(前回の記事の一部抜粋です)

(当ブログによる解説)

 この部分は、恐い話です。

 まるで、コンピューターが、犬や猫といった身近な動物よりも、「高等な知的生物」になってしまったかのようです。

 「コンピューターが、学習する」というのは、どういうことなのでしょうか。

 この記事の前半にも書きましたが、コンピューターは人間と違って、「飽き」や「疲れ」がないだけに、自律的な学習能力を身に付けたら、恐ろしい存在になると思います。

 コンピューター・人工知能関係の科学者は、そのような危険性・危機感を感じないのでしょうか。

 あるいは、「それでも、構わない」と思っているのでしょうか。

 もし、コンピュータ・人工知能関係の科学者が、このような「科学の暴走」に対して、何らかの問題意識を持たないのであれば、村上陽一郎氏が様々な論考で主張する通り、「科学の進歩」に対する民主的コントロール」が必要になってくるのでは、ないでしょうか。

 特に、今回の問題は、「人類の存続」に直結する重大な問題です。

「人間にとっての『最後の砦』」

(ここも、前回の記事の一部抜粋です)

 この部分は全体の最終部分です。

 「未来の人間はあえてそうした決断を下す」というのが、小林氏の結論です。

 その理由を、小林氏は以下のように述べています。

 「それは私たち人類が今後、直面するであろう未曾有の困難と危機に対処するためです。現時点で、すでに深刻な様相を呈している地球温暖化や砂漠化、PM2・5のような大気汚染、行き場を失った核廃棄物、等々。これら世界的問題は早晩、人類単独の力では対処しきれなくなるでしょう。そこに人間を超える知能を備えたコンピュータやロボットが必要とされるのではないでしょうか。

 

 ーーーーーーーー

 

(以下は、今回の記事の解説になります)

(当ブログによる解説)

 

 このように、「将来、人工知能が人間を超えるか」については、肯定説・否定説の対立があります。

 しかし、いずれにせよ、人工知能が人間を超える可能性がないわけではないのですから、そのことに伴う危険性と対策を、前もって幅広く考慮しておくことは必要でしょう。

 その点で、私は、人工知能学会の姿勢には賛成です。

 

 今までの入試現代文(国語)・小論文に出題された問題の「出題意図の傾向」(→問題文本文・設問から推測した「出題意図」)も、おおむね、私の立場と同方向です。

 

 

 

 (5)「人工知能」関連の当ブログの記事の紹介

 

 入試頻出著者・山崎正和氏が、『ポスト・ヒューマン誕生』(レイ・カーツワイル・日本放送出版協会)を元に、「人工知能」・「ナノ技術」・「ロボット工学」・「自己」・「身体」・「人間とは何か」・「近代科学」などについて考察した論考、を紹介・解説しました。 

gensairyu.hatenablog.com

 

 

(6)神里達博氏など、今回、参照した著者の紹介

 

①  神里達博氏の紹介

神里達博(かみさと たつひろ)

千葉大学教授。専門は科学史、科学技術社会論。1967年生まれ。1992年東京大学工学部卒業(化学工学専攻)。2002年東京大学大学院総合文化研究科博士課程単位取得満期退学(科学史・科学哲学専攻)。

主な著書に、

『食品リスク―BSEとモダニティ』(弘文堂)、

『科学技術のポリティクス』(城山英明編・東京大学出版会・分担執筆)、

『没落する文明』(萱野稔人との共著・集英社新書)等。

 

 

②  小林傳司氏の紹介

小林傳司(こばやし ただし)

1954年生まれ。科学哲学者、大阪大学教授。1978年京都大学理学部生物学科卒、1983年東京大学大学院理学系研究科博士課程単位取得退学。現在は、大阪大学理事(教育担当)、副学長。専門は、科学哲学・科学技術社会論。

主な著書・共編著として、

『トランス・サイエンスの時代 科学技術と社会をつなぐ』(NTT出版ライブラリーレゾナント)
『公共のための科学技術』(編 玉川大学出版部)
『社会技術概論』(小林信一,藤垣裕子共編著・放送大学教育振興会)等。

 

③  内田樹氏の紹介  

内田樹(うちだ  たつる)

トップレベルの入試頻出著者。

倫理学者、翻訳家。専門は、フランス現代思想ですが、論考で取り上げるテーマは、教育論、グローバル化、政治論等、多方面に及んでいます。

著書としては、

『街場の現代思想』(文春文庫)、

『下流志向』(講談社文庫)、

『日本辺境論』(新潮新書)、

『街場のメディア論』(光文社新書)、

『疲れすぎて眠れぬ夜のために』(角川文庫)等、

 

 

 ④  月本 洋氏の紹介

月本 洋(つきもと  ひろし) 

東京電機大学工学部情報通信工学科教授
現在の専門分野は、知能情報学・言語学。
著書に、『心の発生-認知発達の神経科学的理論』 (ナカニシヤ出版)、『日本語は論理的である』(講談社選書メチエ)  、『日本人の脳に主語はいらない』(講談社選書メチエ) 等。

 


⑤  養老孟司氏の紹介

養老孟司(ようろう  たけし)

1937年、鎌倉市生まれ。東京大学医学部卒業。東京大学名誉教授。『からだの見方』でサントリー学芸賞を受賞。著書として、『形を読む』『解剖学教室へようこそ』『日本人の身体観』『唯脳論』『人間科学』『バカの壁』『養老訓』等、多数。
入試頻出著者。
 なお、入試頻出著者である内田樹氏・養老孟司氏の論考についての、当ブログの他の記事については、下の記事を参照してください。

 

 

gensairyu.hatenablog.com

 

 

⑥  小林雅一氏の紹介  

小林雅一(こばやし・まさかず)。KDDI 総研リサーチフェロー、情報セキュリティ大学院大学准教授。

 東京大学理学部物理学科卒業。同大学院理学系研究科を修了後、ボストン大学に留学、マスコミ論を専攻。

 著書に『グローバル・コミュニケーションの未来図』(光文社新書)、『クラウドからAIヘ』(朝日新書)、『ウェブ進化 最終形』(朝日新書)、『日本企業復活ヘのHTML5戦略』(光文社)等。

 

 ーーーーーーーー 

 

今回の記事は、これで終わります。

次回の記事は、約1週間後に発表の予定です。

 

 

   

 

 

文明探偵の冒険 今は時代の節目なのか (講談社現代新書)

文明探偵の冒険 今は時代の節目なのか (講談社現代新書)

 

 

 

朝日新聞デジタル

朝日新聞デジタル

 

 

 この参考書は、私が制作しました。

頻出難関私大の現代文 (αプラス入試突破)

頻出難関私大の現代文 (αプラス入試突破)

 

 

 

gensairyu.hatenablog.com

 

gensairyu.hatenablog.com

 

gensairyu.hatenablog.com

 

 私は、ツイッタ-も、やっています。こちらの方も、よろしくお願いします。

https://twitter.com/gensairyu 

https://twitter.com/gensairyu2