future design - labs.kbs.keio.ac.jplabs.kbs.keio.ac.jp/naoki50lab/2018group6.pdf · 総論. 目次...
TRANSCRIPT
フューチャーデザインとは
フューチャーデザイン
将来世代現代世代
将来の利得を考えずに現在の利得を優先 現在の行動が将来の利得を損失
現在の利得を損失を失っても持続可能性のある将来を考える
我々G6ではAIをテーマにフューチャーデザインを論じる
AI開発による現代世代と将来世代の関係
フューチャーデザイン生活の利便性の向上経済的豊かさの享受
▼将来世代のことを考慮し、
開発を遅らせると損失
現代の世代
今回はAI導入による現在の利得と将来の損失を考える。
倫理的問題社会的問題法的問題
将来の世代
現代世代の利得を犠牲にしてでも将来世代の利得・社会の持続可能性を考える
AI開発促進が将来の利得を収奪している証明
※現実には法規制や利害関係者が既に存在するため、数学的な最大化はできないものとする
定義 文字式
幸福感 = Happiness H
AIの開発 = Artificial intelligence Development A
環境整備 = Environmental arrangement E
AI開発による効用 α
AI環境整備による効用 β
現代世代の幸福度 H(X)
将来世代の幸福度 H(Y)
制約条件:α+β <- 10、A+E <- 10 定式化:H(◯)=A^α + B^β
Max(u)=H(X)*H(Y)上記の式が最大となるような値を算出する
環境整備を行わずにAI開発を続ける場合
現在のAI開発における課題から次の数字を仮定した。
説明変数 効用
AIの開発促進(A) 環境整備(E) AI開発促進効用(α) 環境整備促進効用(β)
現代世代 6 4 5 5
将来世代 3 7 2 8
現代世代:H(X) = 6^5 + 4^5 = 8,800
将来世代:H(Y) = 3^2+ 7^8 = 5,764,810
全体効用:u = H(X)*H(Y) = 50,730,328,000
環境整備を行いAI開発を続ける場合
AI開発を行った場合の数字を以下の通りに仮定した
説明変数 効用
AIの開発促進(A) 環境整備(E) AI開発促進効用(α) 環境整備促進効用(β)
現代世代 4 6 4 6
将来世代 3 7 2 8
現代世代:H(X) = 4^4 + 6^6 = 46,912
将来世代:H(Y) = 3^2+ 7^8 = 5,764,810
全体効用:u = H(X)*H(Y) = 270,438,766,720
現状型と環境整備促進型の比較
全体効用:u = H(X)*H(Y) = 50,730,328,000
現状型
全体効用:u = H(X)*H(Y) = 270,438,766,720
環境整備促進型
現代世代のAI開発による満足(α)を抑制しAI環境整備による満足(β)を高めることが両世代にとって利得が大きくなると言える
AIに対する倫理的価値観
私たちは知識も大事だが問題の解き方・考え方はもっと大事だといわれてきた。
しかし人工知能の研究によって、問題解決をアルゴリズムのみで行うには限界があり人間の知識にあたる膨大なデータがそもそも大切であることが再認識された。
特に、「心と意識」の問題は、AIの大きな課題となっている。
〈太原 育夫〉東京理科大学
将来に起こりうるAIの倫理的課題
(事情により)人間を模造し、必要以上に感情移入する
人間と区別がつかなくなり人格の認識があやふやになる
従来型の人間関係や家族の消滅ライフイベントの認識の希薄化AIに対する許容(過信の防止)
AIの倫理的問題に関するフューチャーデザイン
AIの感情機能をソフトウェア的に止める
人間へのAIに対する認識をつくる
AIを定期的にリセットし、人格の成長を抑止
▶道具やシステムとしての域を越えないような仕組み
〈AIの不確実性〉
• AIが使用者にとって不適切な判断をする確率を仮定
• 現在の確率を0.1とする
• リスクは10年ごとに10年前の0.1の確率となる
year Risk 一般的な確率
0 0.1 日本人のAB型の割合
10 0.01 初恋の人と結婚する確率
20 0.001 誕生日が2月29日になる確率
30 0.0001 自動車事故で死ぬ確率
40 0.00001 四つ葉のクローバーができる確率
50 0.000001 飛行機が墜落する確率
60 0.0000001 宝くじで1等が当たる確率
70 0.00000001 異星人に遭遇する確率
将来AIを過信することで心理的負担が増大
AIをどのように許すか
AIとは喧嘩ができないAIには責任が果たせない
AI側
誰に責任を追及したらいいのか誰に対して怒ればいいのか
AIを過信したことによる後悔
人間側
いつか壊れるもの、ミスをするものとして認識依存せずに、常に主導権は人間が握る
AIに対する認識の枠組みを変えるAIのアルゴリズムを学ぶのではなく、AIとは何か・どうあるべきかという教育をすべき
→AIに瑕疵(エラー)が生じた際の心理的負担を軽減したり、AIに対する心構えのようなものが準備できる
心理的負担軽減のフューチャーデザイン
AIの倫理的問題に関するフューチャーデザイン
地球レベルでのAIによって効率化された仕事に対する人員のリストラを法律的に禁じる(競合とのコスト劣後性を防ぐ為に)
リストラ規制+人材転用促進補助(税率、補助金、罰則)職能訓練所によって需要の見込める分野への転職誘導
( 介護、保育、農業)
10年後
雇用創出 or 社会保障制度の拡充 生活保障(ベーシックインカム) 人間が携わる職業の高度化
30年後
将来に起こりうるAIの法的課題
プライバシー侵害
検閲
言論・精神の自由
監視社会
ビッグデータによって個人の
属性化が行われ
基本的人権の侵害へ
自由の侵害
責任の所在AIの
意思決定
強制的に情報収集や
結びつけが行われる
Ex.マイナンバー
自己情報コントロール権
損失
法的側面からフューチャーデザインを考察
監視社会にどういう危険があるのか問題を表面化することができる
情報リテラシーを義務教育化
どこまでの情報収集を許容するかを国民が選択できる
透明化かつ拒否権
AI開発企業への責任明記、責任保険等の導入
責任の所在
サービスを人質にとり同意以外の選択肢を事実上奪うことを禁止する
法規制
総論
AIを取り巻く環境整備を行ってから、開発を進めたほうが両世代にとって幸福度が高くなる
解決策は挙げられているものの施行されていない→だから個々人が実行できる開発者・使用者の倫理観の変化が必要となる
Appendix:アシモフの三原則
アイザック・アシモフのロボット工学三原則
第1条ロボットは人間に危害を加えてはならない。また、その危害を看過することによって、人間に危害を及ぼしてはならない。
第2条ロボットは人間にあたえられた命令に服従しなければならない。ただし、あたえられた命令が第1条に反する場合は、この限りではない。
第3条ロボットは前掲第1条および第2条に反するおそれのないかぎり、自己をまもらなければならない。
参考資料
• 「AI時代の大問題、労働のない社会は成立するのか?」https://jpn.nec.com/techrep/journal/g16/n01/160102.html(2018/06/25)
• AI時代の大問題、労働のない社会は成立するのか?http://jbpress.ismedia.jp/articles/-/49458 (2018/06/25)
• あなたの仕事と給料が「AI」に奪い取られる日https://toyokeizai.net/articles/-/225252 (2018/06/25)
• AIはついに資本主義に終止符を打つか?http://agora-web.jp/archives/2027278.html (2018/06/25)
• AIの法規整をめぐる基本的な考え方https://www.jstage.jst.go.jp/article/johokanri/58/7/58_515/_article/-char/ja/ (2018/06/25)