future design - labs.kbs.keio.ac.jplabs.kbs.keio.ac.jp/naoki50lab/2018group6.pdf · 総論. 目次...

40
FUTURE DESIGN 柿澤裕太・成誠・高﨑史彦・陳俊翰 藤原匠平・増田健・山﨑恵子・柳垠希

Upload: others

Post on 12-Jan-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

FUTURE DESIGN柿澤裕太・成誠・高﨑史彦・陳俊翰藤原匠平・増田健・山﨑恵子・柳垠希

目次

1 4

2 5

3 6

フューチャーデザインとはテーマの設定

フューチャーデザインで考える効用

倫理的側面からの検討

社会的側面での検討

法的側面からの検討

総論

目次

1 4

2 5

3 6

フューチャーデザインとはテーマの設定

フューチャーデザインで考える効用

社会的側面での検討

法的側面からの検討

総論倫理的側面からの検討

フューチャーデザインとは

フューチャーデザイン

将来世代現代世代

将来の利得を考えずに現在の利得を優先 現在の行動が将来の利得を損失

現在の利得を損失を失っても持続可能性のある将来を考える

我々G6ではAIをテーマにフューチャーデザインを論じる

AIとは

人間の知能と人工知能はどこが違うのか?

目次

1 4

2 5

3 6

フューチャーデザインとはテーマの設定

フューチャーデザインで考える効用

倫理的側面からの検討

社会的側面での検討

法的側面からの検討

総論

AI開発促進が将来の利得を収奪しているのか

AI開発による現代世代と将来世代の関係

フューチャーデザイン生活の利便性の向上経済的豊かさの享受

▼将来世代のことを考慮し、

開発を遅らせると損失

現代の世代

今回はAI導入による現在の利得と将来の損失を考える。

倫理的問題社会的問題法的問題

将来の世代

現代世代の利得を犠牲にしてでも将来世代の利得・社会の持続可能性を考える

AI開発促進が将来の利得を収奪している証明

※現実には法規制や利害関係者が既に存在するため、数学的な最大化はできないものとする

定義 文字式

幸福感 = Happiness H

AIの開発 = Artificial intelligence Development A

環境整備 = Environmental arrangement E

AI開発による効用 α

AI環境整備による効用 β

現代世代の幸福度 H(X)

将来世代の幸福度 H(Y)

制約条件:α+β <- 10、A+E <- 10 定式化:H(◯)=A^α + B^β

Max(u)=H(X)*H(Y)上記の式が最大となるような値を算出する

環境整備を行わずにAI開発を続ける場合

現在のAI開発における課題から次の数字を仮定した。

説明変数 効用

AIの開発促進(A) 環境整備(E) AI開発促進効用(α) 環境整備促進効用(β)

現代世代 6 4 5 5

将来世代 3 7 2 8

現代世代:H(X) = 6^5 + 4^5 = 8,800

将来世代:H(Y) = 3^2+ 7^8 = 5,764,810

全体効用:u = H(X)*H(Y) = 50,730,328,000

環境整備を行いAI開発を続ける場合

AI開発を行った場合の数字を以下の通りに仮定した

説明変数 効用

AIの開発促進(A) 環境整備(E) AI開発促進効用(α) 環境整備促進効用(β)

現代世代 4 6 4 6

将来世代 3 7 2 8

現代世代:H(X) = 4^4 + 6^6 = 46,912

将来世代:H(Y) = 3^2+ 7^8 = 5,764,810

全体効用:u = H(X)*H(Y) = 270,438,766,720

現状型と環境整備促進型の比較

全体効用:u = H(X)*H(Y) = 50,730,328,000

現状型

全体効用:u = H(X)*H(Y) = 270,438,766,720

環境整備促進型

現代世代のAI開発による満足(α)を抑制しAI環境整備による満足(β)を高めることが両世代にとって利得が大きくなると言える

フューチャーデザインの図示

A

E

供給曲線(Y)

供給曲線(X)

予算線(Y) 予算線(X)

A

供給曲線(Y)

予算線(Y)

供給曲線(X’)

E予算線(X’)

3つの側面からフューチャーデザインを考察

目次

1 4

2 5

3 6

フューチャーデザインとはテーマの設定

フューチャーデザインで考える効用

倫理的側面からの検討

社会的側面での検討

法的側面からの検討

総論

倫理的側面からの考察

AIに対する倫理的価値観

私たちは知識も大事だが問題の解き方・考え方はもっと大事だといわれてきた。

しかし人工知能の研究によって、問題解決をアルゴリズムのみで行うには限界があり人間の知識にあたる膨大なデータがそもそも大切であることが再認識された。

特に、「心と意識」の問題は、AIの大きな課題となっている。

〈太原 育夫〉東京理科大学

AIに対する倫理的価値観

将来、人間と全く変わらないAIを開発することが技術的には可能になるであろう。

その際、我々は何を考えていくべきか。

将来に起こりうるAIの倫理的課題

(事情により)人間を模造し、必要以上に感情移入する

人間と区別がつかなくなり人格の認識があやふやになる

従来型の人間関係や家族の消滅ライフイベントの認識の希薄化AIに対する許容(過信の防止)

AIの倫理的問題に関するフューチャーデザイン

AIの感情機能をソフトウェア的に止める

人間へのAIに対する認識をつくる

AIを定期的にリセットし、人格の成長を抑止

▶道具やシステムとしての域を越えないような仕組み

AIへの過信の防止

〈AIの不確実性〉

• AIが使用者にとって不適切な判断をする確率を仮定

• 現在の確率を0.1とする

• リスクは10年ごとに10年前の0.1の確率となる

year Risk 一般的な確率

0 0.1 日本人のAB型の割合

10 0.01 初恋の人と結婚する確率

20 0.001 誕生日が2月29日になる確率

30 0.0001 自動車事故で死ぬ確率

40 0.00001 四つ葉のクローバーができる確率

50 0.000001 飛行機が墜落する確率

60 0.0000001 宝くじで1等が当たる確率

70 0.00000001 異星人に遭遇する確率

将来AIを過信することで心理的負担が増大

AIをどのように許すか

AI同士の競争、負けたら誰のせい?AIが起こした自動車事故は誰のせい?

AIのリスクは決して0にはならない→仮に問題が起きた時の責任は?

AIをどのように許すか

AIとは喧嘩ができないAIには責任が果たせない

AI側

誰に責任を追及したらいいのか誰に対して怒ればいいのか

AIを過信したことによる後悔

人間側

いつか壊れるもの、ミスをするものとして認識依存せずに、常に主導権は人間が握る

AIに対する認識の枠組みを変えるAIのアルゴリズムを学ぶのではなく、AIとは何か・どうあるべきかという教育をすべき

→AIに瑕疵(エラー)が生じた際の心理的負担を軽減したり、AIに対する心構えのようなものが準備できる

心理的負担軽減のフューチャーデザイン

家庭での教育学校でのAIリテラシー教育地域社会での相互干渉AI査定士などの公的資格の制定武力使用禁止等の国連での条約制定

多方面からのネットワーク・干渉機能

感情的にならない為のフューチャーデザイン

目次

1 4

2 5

3 6

フューチャーデザインとはテーマの設定

フューチャーデザインで考える効用

倫理的側面からの検討

社会的側面での検討

法的側面からの検討

総論

社会面からの考察

将来に起こりうるAIの社会的課題

AIによって10%〜20%の雇用喪失=1929年の大恐慌

10年後

40%〜50%の雇用喪失=人類が経験したことの無い水準

30年後

AIの倫理的問題に関するフューチャーデザイン

地球レベルでのAIによって効率化された仕事に対する人員のリストラを法律的に禁じる(競合とのコスト劣後性を防ぐ為に)

リストラ規制+人材転用促進補助(税率、補助金、罰則)職能訓練所によって需要の見込める分野への転職誘導

( 介護、保育、農業)

10年後

雇用創出 or 社会保障制度の拡充 生活保障(ベーシックインカム) 人間が携わる職業の高度化

30年後

目次

1 4

2 5

3 6

フューチャーデザインとはテーマの設定

フューチャーデザインで考える効用

倫理的側面からの検討

社会的側面での検討

法的側面からの検討

総論

法的側面からの考察

将来に起こりうるAIの法的課題

プライバシー侵害

検閲

言論・精神の自由

監視社会

ビッグデータによって個人の

属性化が行われ

基本的人権の侵害へ

自由の侵害

責任の所在AIの

意思決定

強制的に情報収集や

結びつけが行われる

Ex.マイナンバー

自己情報コントロール権

損失

法的側面からフューチャーデザインを考察

監視社会にどういう危険があるのか問題を表面化することができる

情報リテラシーを義務教育化

どこまでの情報収集を許容するかを国民が選択できる

透明化かつ拒否権

AI開発企業への責任明記、責任保険等の導入

責任の所在

サービスを人質にとり同意以外の選択肢を事実上奪うことを禁止する

法規制

目次

1 4

2 5

3 6

フューチャーデザインとはテーマの設定

フューチャーデザインで考える効用

倫理的側面からの検討

社会的側面での検討

法的側面からの検討

総論

総論

総論

AIを取り巻く環境整備を行ってから、開発を進めたほうが両世代にとって幸福度が高くなる

解決策は挙げられているものの施行されていない→だから個々人が実行できる開発者・使用者の倫理観の変化が必要となる

Appendix:アシモフの三原則

アイザック・アシモフのロボット工学三原則

第1条ロボットは人間に危害を加えてはならない。また、その危害を看過することによって、人間に危害を及ぼしてはならない。

第2条ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が第1条に反する場合は、この限りではない。

第3条ロボットは前掲第1条および第2条に反するおそれのないかぎり、自己をまもらなければならない。

Fin

参考資料

• 「AI時代の大問題、労働のない社会は成立するのか?」https://jpn.nec.com/techrep/journal/g16/n01/160102.html(2018/06/25)

• AI時代の大問題、労働のない社会は成立するのか?http://jbpress.ismedia.jp/articles/-/49458 (2018/06/25)

• あなたの仕事と給料が「AI」に奪い取られる日https://toyokeizai.net/articles/-/225252 (2018/06/25)

• AIはついに資本主義に終止符を打つか?http://agora-web.jp/archives/2027278.html (2018/06/25)

• AIの法規整をめぐる基本的な考え方https://www.jstage.jst.go.jp/article/johokanri/58/7/58_515/_article/-char/ja/ (2018/06/25)