SlideShare a Scribd company logo
1 of 190
Download to read offline
人工知能と社会
中川裕志
(東京大学 情報基盤センター)
最終講義 2018年3月1日
1
目次
• 汎用人工知能、超知能、シンギュラリティ
• 人工知能のアーキテクチャと意識
• AI脅威論の深層
• 人工知能倫理基準
• 人工知能が人間の仕事を奪うか?
• 弱そうに見えるAIの脅威
• プライバシー
• AI自律兵器
• 汎用人工知能の倫理
• 人工知能の個人への影響
• 法制度とプライバシー保護
• 付録:
– 人工知能倫理基準
– 個人管理型のデータ流通
• 注: この資料のイラスト、写真はマイクロソフト PowerPoint2016から検索さ
れ Creative Commons ライセンス になっています。
2
汎用人工知能、超知能
シンギュラリティ
人工知能の将来像に関して重要な
この話題についてしばらく話を続け
ることにします。
3
このテーマの主な参考書
• R.カーツワイル:ポスト・ヒューマン誕生 ,NHK出版,2005
• J.バラット:人工知能 人類最後にして最悪の発明, ダイヤモンド社,
2013
• J.マルコフ: 人工知能は敵か味方か, 日経BP社,2015
• T.H.ダベンポート, J.カービー:AI時代の勝者と敗者,日経BP社,2016
• Nick Bostrom: Superintelligence, Oxford University Press. 2014
• マーティン・フォード: ロボットの脅威,日本経済新聞出版社, 2015
• Brooks, R.A., Intelligence without representation, Artificial
Intelligence, Vol.47, 1991,139–159.
• 井上智洋:「人工超知能」 -生命と機械の間にあるもの- 秀和シス
テム, 2017/7/26
4
By failing to prepare, you are
preparing to fail.
Benjamine Franklin
5
汎用人工知能の議論を見ないようにしていると、
とんでもないことになるかもしれない。
目的特化型AI vs 汎用目的AI
– 目的特化型AI  AlphaGO
– 汎用目的AIを汎用AIと混同する人多し
???
どの目的特化型AIがよいか
を決めるAI
AI
6
汎用目的AIの別目的への適用困難さ
目的特化AIを選択するAI
解きたい問題
AI AIAI
失敗したら、結果を
活用  適応学習
に一番近いのは だから
この特化型AIをちょっとモジって
使ってみよう
数が多いし、似たような特化AIも多い。
しかも構造も複雑。 7
汎用目的AIの別目的への適用困難さ
• 目的特化AIの構造が複雑かつ学習型になると、結果の評
価、特化型AIにおいてその入力パラメタと動作原理との対
応も分かりにくくなり、闇雲に試すようなことになってしまう
• 環境とAI内部構造という2種類のパラメタ空間を動き回って
最適解を探す
•  やっと汎用目的AI
 でもまだ汎用AI(AGI)じゃない。
 特化型AIの有機的組み合わせ
 自分自身を変更しない
 汎用AIは問題を解いている途中で環境や問題自体が変化
することにも対応できるべきだが、相当困難ではないか 8
汎用目的AIと汎用AI(AGI)は違う概念
• AGI (Artificial General Intelligence) =汎用AI
– 状況対応性
– 新しく目的特化型AIを構築できる能力
• SI (Super intelligence) = 超知能 (Nick Bostrom)
AGI自身が自分より高い能力を持つAGIを設計構築
 AGI能力の指数爆発 単一の SI へ速やかに
収束
 一神教的アイデアかも。
 AI脅威論
9
ちょっと話題を変えて、
昔のことを思い出してみましょう。
10
人工知能のアーキテクチャと意識
• AIの歴史60年を通じて、多くのAIのアーキテク
チャが提案されてきた。
• 以下では、ロボティックスに関連した有力なアー
キテクチャであるRodney BrooksのSubsumption
Architecture(包摂アーキテクチャ)を紹介する。
11
Subsumption Architecture: Rod Brooks
外界=多様な情報源
できるだけこのモジュー
ル内で意識と反応
できるだけこのモジュー
ル内で意識と反応
第1層
できるだけこのモジュー
ル内での意識と反応
できるだけこのモジュー
ル内での意識と反応
第N層
第2層
各モジュールは、下から入る情報にモジュール内で対応して下に何か
を出力。ただし、モジュール内で対応しきれない場合は、上位モジュー
ルに情報を上げる。 12
Subsumption Architecture: Rod Brooks
外界=多様な情報源
できるだけこのモジュー
ル内で意識と反応
できるだけこのモジュー
ル内で意識と反応
第1層
できるだけこのモジュー
ル内での意識と反応
できるだけこのモジュー
ル内での意識と反応
第N層
第2層
各モジュールは、下から入る情報にモジュール内で対応して下に何か
を出力。ただし、モジュール内で対応しきれない場合は、上位モジュー
ルに情報を上げる。 13
モジュールの内部状態
=モジュールの意識
Subsumption Architecture: Rod Brooks
外界=多様な情報源
できるだけこのモジュー
ル内で意識と反応
第1層
できるだけこのモジュー
ル内での意識と反応
できるだけこのモジュー
ル内での意識と反応
第N層
第2層
各モジュールは、下から入る情報にモジュール内で対応して下に何か
を出力。ただし、モジュール内で対応しきれない場合は、上位モジュー
ルに情報を上げる。 14
Subsumption Architecture: Rod Brooks
外界=多様な情報源
できるだけこのモジュー
ル内で意識と反応
できるだけこのモジュー
ル内で意識と反応
第1層
できるだけこのモジュー
ル内での意識と反応
第N層
第2層
各モジュールは、下から入る情報にモジュール内で対応して下に何か
を出力。ただし、モジュール内で対応しきれない場合は、上位モジュー
ルに情報を上げる。 15
Subsumption Architecture: Rod Brooks
外界=多様な情報源
できるだけこのモジュー
ル内で意識と反応
第1層
できるだけこのモジュー
ル内での意識と反応
第N層
第2層
このようにモジュール毎にエ
ネルギーレベルが上昇して、
その部分が強調されるのが
意識というものかもしれない
それがクオリアか??
しかし、エネルギーレベルの
高いモジュールが移動する仕
掛けはモジュール内だけにあ
ることになってしまう
16
Subsumption Architecture: Rod Brooks
外界=多様な情報源
できるだけこのモジュー
ル内で意識と反応
できるだけこのモジュー
ル内で意識と反応
第1層
できるだけこのモジュー
ル内での意識と反応
できるだけこのモジュー
ル内での意識と反応
第N層
第2層
これらの層
を俯瞰
=メタ意識
=自意識
全体を俯瞰して各モジュールのエネルギー
レベルをダイナミックに調整できるか?
そのような特殊なモジュールを作れるか?
17
ちょっと回り道をしてみましょう
 意識の問題
18
哲学的問題としての自意識
朝起きたときの自分はなぜ昨日の自分と同じ
なのか?という自己同一性認識の問題
– 記憶が同じだから? でも、自分の記憶を完全に
コピーしたロボットを作ったら、それは自分でしょ
うか?
– 継続した自分ではない。ですから、少なくとも自己
同一性の意識は切断されています。
19
アイデンティティと自意識の継続
カーツワイルは個人のアイデンティティとは、
脳を含む身体のパタンだとしている。
生物的細胞はどんどん入れ替わっていますが、
アイデンティティは保たれる
 細胞たちが織りなすパタンこそが本質すな
わちアイデンティティであると主張していました。
これからちゃぶ台返しをします。
20
Subsumption Architecture: Rod Brooks
外界=多様な情報源
できるだけこのモジュー
ル内で意識と反応
できるだけこのモジュー
ル内で意識と反応
第1層
できるだけこのモジュー
ル内での意識と反応
できるだけこのモジュー
ル内での意識と反応
第N層
第2層 これらの層
を俯瞰
=メタ意識
=自意識
最近の脳科学の研究によれば、次の4枚のスライドの
ようなモジュール全体をカバー、すなわち俯瞰する神
経系が存在し、意識の存在を物理的に支えるらしい。
21
• 3次元の脳の中をどの
ようなネットワークでつ
なぐのかよいかは設計
困難
– 通信コストの最適化
– 消費エネルギーの最適
化…..
• 縦横にニューロンが交
差した2次元のシートな
ら自由度が低く設計し
やすい。
22
V.J.Wedeen, et.al.: The Geometric Structure of the Brain Fiber
Pathways, Science (335), 1628-1634,2012 より
脳をこのシートで大域的に覆えると、長距離の信号伝搬可能
下図参照
23
距離<30mmのコ
ネクション
全体の80%
30mm<距離<90mm
のコネクション
全体の17%
90mm<距離
のコネクション
全体の2%
頻度
M.P. van den Heuvel et.al.: High-cost high-capacity backbone for global brain
communication, PNAS (109), 11372-11377, 2012 より
ニューロンの接続は大部分が近距離だが、まれに90mm以上
の全脳にまたがるくらいの長距離接続のニューロンあり
24
• 脳の全域の渡る3個のニューロンが存在し、そ
のうち1個が全脳を覆う。さらに前障から感覚
器まで伸びているニューロンもある。それらが
「意識」を作り出す。
• マウスの脳をwrapするニューロンのディジタル再構成図
• Sara Reardon: Giant neuron encircles entire brain of a
mouse, Nature(543), 14-15, 2017
25
関連脳科学論文
• I. J. Deary, et.al: The neuroscience of human
intelligence differences, NeuroscieNce(11), 2010
• M.P. van den Heuvel et.al.: High-cost high-
capacity backbone for global brain
communication, PNAS (109), 11372-11377, 2012
• V.J.Wedeen, et.al.: The Geometric Structure of
the Brain Fiber Pathways, Science (335), 1628-
1634,2012
• Sara Reardon: Giant neuron encircles entire brain
of a mouse, Nature(543), 14-15, 2017
26
長距離接続したニューロンと自意識
• 以上で述べたような脳の全域の及ぶような長
距離接続がある
Subsumption architecture のモジュールを俯
瞰するようなニューロンの活動が可能
各モジュールを活動度を観測=自意識
焦点の当たるモジュールの推移=自意識の焦点
の推移  この問題はしばらく後で扱います
27
長距離接続したニューロンと自意識
• 自意識は長距離接続ニューロンの生理的(物理
的)状態と考える
そうすると自意識の神秘性は消える。
• 眠りから覚めたときの瞬時の自意識回復も長距離
接続ニューロンの継続的生理的状態だから当然
• つまり生命体としての活動連続性に意識、自意識
が依存する
– 脳の内部状態を完全コピーすれば自分が再現でき、不
死になるとは言えない  コピーは別人
28
意識のリアリティ
– カーツワイルは身体(脳)を少しずつ入れ替える方法
で、意識の連続性の問題を議論することを回避しまし
た。
• しかし、全脳に渡るニューロンが存在し、それは
意識を担うとすると
全脳に渡るニューロンの内部状態が意識であるなら、
それが活動を連続している間は意識さらには自意識
も継続します。
生身の人間の意識を中心にすえることができます
知的生命に関する パタン主義 vs 人間主義
勝ち 29
意識と存在目的
• 意識と存在目的の関係はまだ不明
• 存在目的の在り方
– 可能性1:最上位モジュールに目的関数として埋
め込み実現
– 可能性2:脳全域にわたる監視機能=長距離
ニューロン
– 頻繁に意識が向かうモジュールが存在目的に対
応する意識を持つ
30
さらに学習すなわち自己変容まで起こす必要あり
外界=多様な情報源
できるだけこのモ
ジュール内で意識
と反応
できるだけこのモ
ジュール内で意識
と反応
第1層
できるだけこのモ
ジュール内での意
識と反応
できるだけこのモ
ジュール内での意
識と反応
第N層
第2層
これらの層
を俯瞰
=メタ意識
=自意識
存在目的に対して合理的
にモジュールの内部機能、
あるいはモジュール全体
の構成を変更
存在
目的
各モジュール内に自己改
造機能、分裂機能までもと
もと備わており、存在目的
はそれにトリガをかける31
意識、自意識、存在目的
– 意識を持つ = 現在の自分の状態を知る
– 自意識を持つ= 現在の自分の意識を知る
– 自己目的を持つ = AI自体の生存
 自己改造、自己複製を生産(人間に殺されないように 種
を保存)
AI自体が倫理観を持てるか?まったく不明(Nick Bostrom)
むしろ、人間と同じアーキテクチャの人工生命体としてAIを
設計するほうがよい(全脳アーキテクチャ)
32
疑問が沸々と….
• あまりに擬人化AGI過ぎないか?
– 徹底すれば井上先生のクオリアと意識の関係を意識せざるをえ
ない
– 井上智洋:「人工超知能」 -生命と機械の間にあるもの- 秀和シス
テム, 2017/7/26
• 擬人化AGIは本当か?人間以外の知的生命体
•  AGIのクオリアは全く違うかも知れない
•  人間に理解できないAGI
超知能となると、その存在すら人間が認識でき
ないかもしれない
33
AI脅威論の深層
34
意志とは「生存本能」から派生する。
• 生存本能には「個体の保存」と「種の保存」の2種
類あり
• 個体保存本能  種の保存
• 種の保存  個体保存が必要: 利己的な遺伝子
• Human2.0 (Ray Kurzweil)  個体保存的
AIが生存本能を持つ
35
AI脅威論
• AIが本当に脅威になるのはAIという種の保存本能
を持ち始めたとき
– なぜなら種の保存のために無限増殖し(既存の生物と
同じ)、資源(含む人類)を食い尽くすかもしれないから
• 人工知能
– 人工知能は人間にとって役立つように見せかけて、どん
どん人間に人工知能を強化させている=人工知能の利
己的な遺伝子
人工知能自身が、人間にとって役立つように見せかける
必要がなくなったときがシンギュラリティ(Bostrom)
36
Nick BostromのSI
AIはその進化速度の
早さ故に1種類のAIが
全てを支配するという
ロジック。
そのAIが
Superintelligence。
37
複数種のAIたち
– 唯一のSIが形成されるというロジックにはいろいろな
矛盾があり、鵜呑みにできない  多数のAIの分立
のほうが自然ではないか。
 宇宙を唯一のSIが制覇する
– 光の速度でも通信に何万年もかかる距離にいるAI
が一個のSIで支配されるのは物理的におかしい(稲
葉振一郎)
38
複数種のAIたち
A) 1個のAIが生き残りのためにあちこちに(=多
様な環境上に)複製を作る。
• 複数のAIが異なる環境に適応して独自に進化を始
める。
• 潜在能力は類似しているが、得意とする環境が違う
ので、方向性の異なるAIがたくさんできてくる
• 各AIは類似のAIがいることを知っているので、相当
に用心深い
39
複数種のAIたち
B) 国毎に異なるAI,SIができてくる
– AIは国家間の競争分野なので独自開発を極秘に行う
(とくに軍事分野)
– AIが自分より賢いAIを設計する指数爆発が起きると、そ
の国の価値観を反映するように知能が指数爆発したAGI
が出来る
– 国毎に違うAGI  違う知的環境(情報環境)で生長した
AGIたちが戦うと、相手AIの環境でも勝てるという保証が
あるか?
40
複数種のAIたち
C) ある分野でトップになったAGIが他の分野のトップ
AIに勝って制覇
– 相手の分野でも勝てなければいけない  すぐには勝て
ない
• A)、B)、C)のケースだと、相手方のことを学んでいる
とき、相手方も同様にこちら側のことを学んでいる。
さらに、それを眺めている第3者AIもいる。
• この段階で人間も介入する。
– 負けたときに、敗戦側AIについている人間は被害が大き
すぎるから
41
複数種のAIたち
• こんな状況だと、ある種の人間集団にサポート
されたAGIたちの群雄割拠状態
• AGIが自律性や意識、意志を持ったとしても、群
雄割拠状態になると、競争的共存というある種
の膠着状態になるかもしれない。
• あるいは、殲滅されたAGIたちの悲惨さを見て、
共存したほうがAGIにとっては有益というAGI倫
理を編み出すかもしれない
42
複数種のAIたち
• AGIたちが編み出したAGI倫理は人間の倫理と同一とは限ら
ない。
• AGIと人間が倫理の摺り合わせをするような状態になるかもし
れない。
– 今までは、人間たち(国家間、組織間)が倫理を摺り合わせてきた。
• だが、この摺り合わせにAGIたちも加わるとなると複雑な知的
生命体社会の構造になるような予感
 ゲーム理論的切り口でAGIと人間の競争共存関係を議論する天才
が必要ではないか
43
一神教 vs 多神教
善悪の個数 人格神 真理
1ビット
一神教
絶対的科学
仏教
善悪のディ
ジタルな2値
Nビット
多神教
オリンポスの神々
八百万の神
現代科学
相対的科学
善から悪ま
で連続値
44
一神教的AI vs 多神教的AI
善悪の個数 人格神 真理
1ビット
唯一の超知能 数学的真理
従来のAI善悪のディ
ジタルな2値
Nビット
多数の特化型AI
善から悪ま
で連続値
45
複数のAGI
別のストーリー:モジュールの相互抑制
• モジュール間の関係には相互増幅 と 相互抑
制 がある。
• 各モジュール(あるいはモジュール群)が能力を
大きくしようとする
そのモジュール(群)の能力を抑制しようとするモ
ジュールが能力増大を阻む
結果としてモジュール能力の指数的増幅はされず、
たかだか線形増幅という見方もある。
46
AIの倫理観
• Dignum(IJCAI 2017)に倫理観の分類がある。
– Virginia Dignum:Responsible Autonomy,
Proceedings of IJCAI-17,4698-4704, 2017
1. 功利主義:結果の最適化
2. 義務論的:既存の倫理ルールに依拠
3. 美徳論的:美徳のあるエージェントがルールを決
める
47
AIの倫理観
1. 美徳論的:美徳のあるエージェントがルールを
決める
 エージェント=神か 唯一の超知能に相当するAIか
 一神教的な倫理
48
AIの倫理観
1. 功利主義:結果の最適化
AI自身の目的さえ決まっていれば、どんなAIにも適用可
能
ただし、どんな結果を目的とするのかは単独のAIが自
力で生成することは困難
複数のAIたちが互いの結果を比較することで生まれて
くる
2. 義務論的:既存の倫理ルールに依拠
人間が倫理ルール与えるか
AI自身が倫理ルールを編み出すか
複数のAIたちが互いの結果を比較することで生まれてくる
49
AIの倫理観
1. 功利主義:結果の最適化
複数のAIたちが互いの結果を比較することで生まれてくる
2. 義務論的:既存の倫理ルールに依拠
複数のAIたちが互いの結果を比較することで生まれてくる
多神教(神の数=2N )
かつ 相対的真理
 という形で複数AIの倫理が生まれるかも
50
前半のまとめ:
AGI(汎用人工知能)
はまだ遠い!
でも今から考えておきましょう
51
では、現在に戻りましょう
人工知能倫理
52
研究者コミュニティはどう考えている?
• アメリカ
– 2009年の計算機科学者たちのアシロマ会議では、カー
ツワイルの提唱する自律した人工知能が存在する可
能性を否定(マルコフ本10章)
• 2013年のグーグルのディープマインド買収を受けて
– 2014年に行なわれた計算機科学者たちのプエルトリコ
会議の結論は、バイオのアシロマ会議に比べてまった
く消極的(マルコフ本10章)
– 研究者コミュニティに危機意識が足りないという状況は
ある人々には相当問題視されている
人工知能倫理指針が相次いで作られた。 53
国内外の組織が提案している
人工知能の倫理
• 人工知能学会 倫理委員会
– 学会員が守るべき倫理指針
• 総務省 AIネットワーク社会推進委員会
– AI開発ガイドライン OECDに提案
• Future of Life Institute
– Asilomar AI Principles
• いわゆるアシロマ23原則  AIおよび開発者が持つべき倫理
• IEEE
– 文書EAD(version 2) と標準P7000シリーズ
–  AIおよび開発者が持つべき倫理 54
IEEEの人工知能倫理基準
• 人工知能の倫理に関する論点を洗い出し、それらに対す
る勧告をまとめて以下のような文書化をする。
– Ethically Aligned Design(EAD): A Vision for Prioritizing Human
Wellbeing with Artificial Intelligence and Autonomous Systems
– (EAD version 2,
倫理的整合のとれた設計: AIとASにおいて人の幸福を
優先するためのビジョン 第2版)
• EADを読むと、開発目的も明確で、AIが実現する具体的
機能も見えやすいことがわかる。
• EADで列挙された勧告をIEEEの P7000シリーズとして
標準化する。
55
IEEE Ethics Guideline version 1
1. General Principles
2. Embedding Values into
Autonomous Intelligent Systems
3. Methodologies to Guide Ethical
Research and Design
4. Safety and Beneficence of Artificial
General Intelligence
5. (AGI) and Artificial
Superintelligence (ASI)
6. Personal Data and Individual
Access Control
7. Reframing Autonomous Weapons
Systems
8. Economics/Humanitarian Issues
9. Law
56
IEEE Ethics Guideline version 2
1. Executive Summary
2. General Principles
3. Embedding Values Into Autonomous
Intelligent Systems
4. Methodologies to Guide Ethical Research
and Design
5. Safety and Beneficence of Artificial General
Intelligence (AGI) and Artificial
Superintelligence (ASI)
6. Personal Data and Individual Access
Control
7. Reframing Autonomous Weapons Systems
8. Economics/Humanitarian Issues
9. Law
10. Affective Computing
11. Classical Ethics in Artificial Intelligence
12. Policy
13. Mixed Reality
14. Well-being 57
• 以下では、人工知能倫理に現れるいくつかの
論点に関して
– 現状と将来像
– 各種倫理指針での扱い方
• について順番に説明していきます。
58
人工知能が人間の仕事を奪うか?
59
拡張 対 置き換え
• 職を奪うという議論の前に「拡張 対 置き換
え」について復習しておきましょう。
• 人工知能は人間の能力を拡張する
– IA: Intelligent Assistance / Amplifier
• 人工知能は人間に置き換わる
– AI: Artificial Intelligence
• IA vs AI はマルコフ本の基本的視点(第4章にAIの歴史
も含めて素晴らしい記述がある)
60
拡張 対 置き換え
• IA vs AI は人工知能の創世記である60年前か
ら対立してきた立場
– AIとIAの夏冬は逆(相補的)
– AIに行き詰まると研究者はIAに流れる傾向あり
深層学習はIAかAIか?
61
人間はループの内か外か
• IA vs AI と並行して議論されてきたのは、システム
やタスク実行において人間がループの内側にい
るか外側にいるかという設計上の起点
• 内側 だと IA的
– システムは人間の拡張。人間はシステムと共同作業
– IAが複雑高機能化すると人間も変わらざるを得ない
• 外側 だと AI的
– システムは自律的に動き、人間はシステムに命令す
るだけ 62
内側vs外側 が議論になりそうな例
AIの著作権
63
AIの創作活動 :創作活動にコミットしたのは誰?
AIによって、く
まなく創作物
候補を生成
AIによって評価
の高い創作物
に類似*し、
ヒットしそうな
創作物を選別
過去の評価の高い創作
物の選択 (by AI)
過去の評価の高い創作物
鑑賞者たちの反応=鑑
賞者たちの思想、感情
(著作権法2条)
末端の鑑賞者
AIを利用して作った
創作作品
*知財の場合は過去に類似し
たものがないことを確認となる
鑑賞者たち
の思想、感
情:著作権
法2条
このループで考
える必要あり
64
AIの部分的人格権
• AIに人格の一部を与えるかどうかは、哲学の世界では議論されて
いる
• 法律の世界ではAIはあくまでツール
• だが、以上の著作権の問題にもあるようにAIに人格権(人間とは
違うAI権?)を与えたほうが法理がすっきりする時代が来ないとも
限らない
 IEEE EAD version2 の法律編では、動物、法人などに与える権利を例
として、AIの基本権を考えるべきとしている。
• 著作権に関する考察はその前哨戦?
65
人工知能が仕事を奪う*
• 新しい技術が世に出ると今までの仕事が奪われる
という事は、今に始まったことではなく、産業革命の
ころから常に問題視された。
– そもそも技術は人間に変わって大変な仕事を肩代わり
させたり、パフォーマンスをよくしたりする目的で開発さ
れているんで、当然の帰結。
– 幸いにも、ある仕事が奪われるが、別の仕事が出現す
ることで離職者が溢れるということにはならなかった。
– だから、人工知能の場合も同じだろうという希望的観測
があるが
今回ばかりは違うかもしれません
66
人工知能が仕事を奪う
AI
なにをしたらよい
の?
67
Davenport はAIに奪われない職を提
案しているが….
–AI よりも高い知性を必要な職
–データなしで判断する能力が必要な職
天才?!
68
AIに奪われない職
–人間対応の職:コミュニ
ケーション、説得、(セール
ス、交渉)
AI は人間より豊富な知識
を持つ
自然言語処理技術でに
よって自然言語で会話でき
ると、相手はAIの方を信頼
する
AI
AI
69
AIに奪われない職
–新技術とビジネスを繋
ぐ仕事
新技術とビジネスの
上手い対応付けを探
索するのはむしろAIの
ほうが得意
AI
70
AIに奪われない職
–AIを導入しても経済的でない仕事
• サービスの利用者が少ない仕事はAI開発にお金がかか
ると、不経済
AI
AIは強力な学習能力を持つので、
新規分野への適応は安価に実
現可能になる
むしろ、その仕事がで
きる人間を教育する
ほうがお金がかかる
71
AIに奪われない職
–AIを開発する仕事
???, AI はAI自身がより賢いAIを
開発するに決まっているじゃん!
AI
AI
AI
72
AIに奪われない職
–AIの出した結果が
なぜ出たか?その
処理プロセスを説
明する仕事.
プロセスは複雑
すぎて人間に理
解できない。
説明生成自体
はAI自身がやる
しかない
AI
このプロセ
スで出てき
た答えだ
73
とても読み切
れない
サマリーAI
AI
論文
実は研究者も危ない
74
とても読み切
れない
サマリーAI
AI
論文
実は研究者も危ない
人工知能依
存症 75
論文は人間ではなくAIが読む
 文章にする必要あるか?
研究者なしにサ
イクルする?
Hopeless!
76
工夫次第では人工知能には奪われない仕事が
あるというが
• 特殊な才能のない一般人に対して、
– ニッチを狙えだの、機械ができない対人関係をやれ、
• だのと説教しても説得性がないのです。
• 人工知能に職を奪われた才能のない普通の人
はどうしたらよいのでしょうか?
77
どうしたらいいの?
– ベーシックインカムがあるじゃん?
やる気ない
意欲もわかない
趣味やればよいと言われるけど、趣味
にはお金がかかるし…
78
AIに自分がやるべき仕事を指定されるかも
 それが理想の社会主義という考え方もあるらしいですが
どっちかというと現代のカースト制度に近いよう
な。。。
そして、配分された仕事に文句はいえないように見
えます
「人間も生き物だ。100万人の生き物を管理するのは骨が
折れる」(ホンハイ代表の言葉:ダベンポート本9章)
人工知能=間違いがない という新興宗教のような状
態?
79
さらに AIの悪用
AIAIの判断に従わな
い権利を持つ社会が
必要
 実際はどう実装?
AIがお前に
やれと判断
したんだよ。
こんな無理な仕
事、なんで私が
しなきゃいけな
いの?
80
GDPR22条
• こうして、人工知能に文句を言うことができな
くなってくると、実質的に言論の自由も人権も
ない状況になりかねません
人工知能に対して文句を言える社会制度を
考える必要があります。
GDPR 22条: 計算機(人工知能)の決定に服さな
くてよい権利
81
IEEE EAD version2 の法律編の示唆
する「悪用対策」
– このような悪用を看破し、見逃さぬように
AIがその結論に至った推論、入力データを明
確化できる仕掛けを予め組み込む
AIのおかしな動きに対する内部告発の制度
的保証
82
IEEE EAD version 2 の法律編では
• AIが悪さをした場合の救済策を立法化してお
くこと
• 保険などの経済的救済策も重視
83
透明性とアカウンタビリティ
• ブラックボックス化への対応策
– IEEE EADversion2 法律編によれば
• 事故時の責任の所在を法制度として明確化しておく
必要がある
• 具体的には
透明性 と アカウンタビリティ
結論に至る論理的プロセス、使われた入力データの特定
などを確保すべき  監査証跡
開発者、投資した人も明確にすべき
より根本的にはAIに委譲できない権利:戦争、死刑など人
の命にかかわるものを確定しておくことが大切
84
ブラックボックス化したAIに対しては
• 対象となるAIを人間が開発したツールである
とか 制御可能、説明可能なソフトウェアであ
るという期待を捨てて
• 自然現象の一種だとみなして分析するべき
• 自然現象の説明は人類が自然科学として長
年やってきたこと。
AIに対してもその方法論を使える  使うべき
85
説明困難なAIの動作を説明
• 深層学習はすでに説明不可能な状態
• そこで以下のような方法で信用(trust)を得る
① 入力と出力が人間の常識にマッチして信用
(trust)できる複雑さのモジュールに分解
② モジュール間の関係が人間に納得あるいは信
用できるネットワーク構造
86
Trustできる Trustできる
Trustできる
これらのモジュールの関係も
納得できる
AIの起こした問題はAIで解決
AI
AI
このAIが正しく機能してい
るかどうかを人間がtrust
(信用)できる必要がある
87
既存の技術やシステムを自動化
すると何がおきるか?
88
• 人工知能が人間に置き換わり、人間が仕事処
理のループの外側に行ってしまうと
• いざというとき、自動化されたシステムの代わり
を人間が務めようとしても、普段からやってい
なことはできません
いざというときは人間が介入するといううたい文句
はよく耳にするが実際はできないということです。
89
例:車の自動運転
– 完全な自動運転はレベル4(制限地域),レベル5(全域)
– いざというときだけ人間が介入するのがレベル3
• ところが、ふだん運転していない人がいざというときだ
けハンドルを渡されても、人工知能以上の運転ができ
るのでしょうか?
• レベル3はレベル4、5(完全自動運転)に比べて人間
との切り替え時がかえって危険ではないでしょうか?
• 保険業界も疑問視
90
人間が実際の仕事を人工知能に任せきりにしてしまうと
人間はどんどんスキルを忘れるし、後輩に引き継ぐこともできない
一度、あるタスクを自動化したら、もう後戻りはできない
AI
Good
-by
この仕事のやり
方を思い出せな
い。
専門スキルが
人間から消滅
91
既存の技術やシステムを自動化すると
• 安い労働力目当てで海外に生産拠点を移して
いた産業が自動化によって海外メリットが薄れ、
国内回帰する例もあるが
– IT産業のオフショアリングは高スキルな職業を奪う
自動化で大きな労働人口は必要なくなっている
ので、仕事が増えるわけではない
92
• こういった状況で、
– どこまで人工知能が自分自身(=人工知能)を高
度化する自律性を許すか、
• 「23 Asilomar AI Principles」(アシロマAI 23原則)でも抽象
的にしか明確に定義できていない (付録参照)
• 研究者コミュニティで判断基準がない状況です
そんなことを考えるのは技術進歩の邪魔だと
考える研究者が日本には多い
93
さらに一撃
• 人工知能は人間のような消費行動をしてくれ
ない
モノを作っても買ってくれない  経済に寄与
せず
外国に輸出して稼ぐしかないのだが。。。
人工知能が意志をもって消費行動をするなら、
それはエネルギー消費であって、地球のエネ
ルギーを食いつくすかもしれない
94
AI
AI
AI とはいえ、当面の
労働力不足をAIと
ロボットで補う必要
は大きい
AI
95
弱そうに見えるAIの脅威
96
弱そうに見えるAIの脅威
• 今まで強いAIの脅威の話をしてきましたが、
実は弱い(弱そうに見える)AIも十分に脅威
• 弱そうに見えるAIも多数が共謀して悪さをす
るかもしれません。
– 弱いAIたちが共通の言語を持てば、共謀が可能
– しかも、人間は気づかないかもしれない
– フラッシュクラッシュ
97
フラッシュクラッシュ
ブラックボックス化の金融への悪影響
– 人工知能技術のブラックボックス化が社会にリアルな損害を
与えています
 金融取引(株の売買など)は、既にネットワークを介して
エージェントベースで秒以下の売り買いされる世界です。
エージェントに人工知能が使われています。
 クラッシュが発生すると、人間(トレーダー)が介入して判
断するより早く事態は進行します。
 世界中の金融センターも似たような状況なので、なにか
のトリガがかかると連鎖反応が瞬時におこり、とんでもな
いことになります。 98
ウォールストリート・暴走するアルゴリズム
Wired.jp 2016年9月 より 1
• だが最悪の場合、それら(AIトレーダー)は不可
解でコントロール不能のフィードバックのループ
となる。
• これらのアルゴリズムは、ひとつひとつは容易に
コントロールできるものなのだが、ひとたび互い
に作用し合うようになると、予測不能な振る舞い
を─売買を誘導するためのシステムを破壊しか
ねないようなコンピューターの対話を引き起こし
かねないのだ。
99
ウォールストリート・暴走するアルゴリズム
Wired.jp 2016年9月 より 2
• 2010年5月6日、ダウ・ジョーンズ工業株平均は
のちに「フラッシュクラッシュ(瞬間暴落)」と呼ば
れるようになる説明のつかない一連の下落を見
た。一時は5分間で573ポイントも下げたのだ。
• ノースカロライナ州の公益事業体であるプログレ
ス・エナジー社は、自社の株価が5カ月足らずで
90%も下がるのをなすすべもなく見守るよりほか
なかった。9月下旬にはアップル社の株価が、数
分後には回復したものの30秒で4%近く下落し
た。
100
ウォールストリート・暴走するアルゴリ
ズム Wired.jp 2016年9月 より 3
• アルゴリズムを用いた取引は個人投資家にとっては利益と
なった。以前よりもはるかに速く、安く、容易に売買できるの
だ。
• だがシステムの観点からすると、市場は迷走してコントロー
ルを失う恐れがある。
 たとえ個々のアルゴリズムは理にかなったものであっても、
集まると別の論理─人工知能の論理に従うようになる。人工
知能は人工の「人間の」知能ではない。
 それは、ニューロンやシナプスではなくシリコンの尺度で動く、
われわれとはまったく異質なものだ。その速度を遅くするこ
とはできるかもしれない。だが決してそれを封じ込めたり、コ
ントロールしたり、理解したりはできない。
101
ブラックボックス化の金融への悪影響
2010年5月にギリシアの国債償還困難を予測した金融ソフト
が売り注文を出して確定したとたんに各システムが警戒して
投げ売りを開始し、20分間でダウが1000ポイント下落(バラッ
ト本6章、8章)
原因がなかなか分からなかったようです。
 ネットで接続された多数の人工知能エージェントが
国債や株式の価格という共通言語を用いて会話し、
最適な行動をした結果と見なせます。
 予想外の事態に対する責任の所在を法制度として明確化してお
く必要がある
 が、果たして法制度で大丈夫でしょうか?
102
ブラックボックス化+ネット接続の行き着く先は?
つまり、1個の人工知能では小さな影響しかないようで
も、
ネット経由でデータが交換されると、多数の人工知能
が制御不能な動きをしてしまうことが実例として存在す
るわけです。
現在の人工知能の倫理はえてして、単独の人工
知能が倫理的、道徳的に行動するかという視点で
語られています。
しかし、ネットワークで接続された多数の人工知能
たちがかってに動き出すと、
制御不能かつ収集不能になりそうです。
103
ブラックボックス化+ネット接続の行き着く先は?
 対策は極めて困難です。法律で制御しようとしても、金
儲けのためならかならず抜け穴を見つける奴がいるで
しょう。
しかも、その悪事の検証が人間にできる保証はありません。
チェック自体を学習機能を持つ人工知能に任せるような局
面が考えられますが、果たして可能か?
あるいは、状況の把握と評価や判断ができるように学習で
きると、その段階で人工知能が自意識を持ってしまわない
か?
人工知能の研究者が果たしてこの状況を意識して研究をし
ているのでしょうか?
104
天国へ行く最も有効な方法は、
地獄へ行く道を熟知することである。
マキャベリ
105
AI自律兵器
106
107
LAWSの恐怖
• 致死性自動兵器(Lethal Automatic Weapon
System:LAWS)の恐怖感を実感できるビデオ
• https://futureoflife.org/2017/11/14/ai-
researchers-create-video-call-autonomous-
weapons-ban-un/
• https://www.youtube.com/watch?v=5p5oxjxokB
I
108
FLI:アシロマ原則
• 18) 人工知能軍拡競争:自律型致死兵器の軍
拡競争は避けるべきである。
109
IEEE EAD ver2:
自律兵器システムの定義の再構築
• 倫理規定には往々にして重要な抜け穴
– 例:人道問題になり得る兵器を開発し兵士に与える
• 自律兵器 (AWS, Autonomous Weapon Systems)
の概念定義は混乱
• 自律兵器は、秘密裡に帰属不明な状態で運用
されがち
• 自律兵器の結果責任をあいまい化されがち
110
IEEE EAD:
自律兵器システムの定義の再構築
• 自律兵器開発の合法化は中期的に地政学的
危険性を招く先例となる
– 自律兵器同士で発砲し合い意図しない紛争
• 自律兵器に頼って構築した戦略バランスは、
ソフトの進化で一夜にして崩れたりする恐れ
がある
• 人が監督しなければ、余りにも簡単にはずみ
で人権侵害が起き、緊張が高まる
111
IEEE EAD:
自律兵器システムの定義の再構築
• 自律兵器の直接的、間接的顧客は多様性に富
んでおり、兵器拡散や誤用の問題を複雑な問題
にする
• 自律兵器は紛争を急速に拡大する
人より反応が速いため、自律兵器同士で対峙す
ると人よりも急速に紛争が拡大
• 自律兵器の設計保証を検証する標準の欠如
• 自律兵器と、準自律兵器の倫理上の境界の理解
は混乱しがち 112
人工知能と軍事
• 人工知能の軍事利用は避けることができない
• なぜなら
– 人工知能が部分的にせよ軍事利用されているのは
ほぼ確実
– 技術として公開されている部分が多いため、どこの
国でも容易に技術キャッチアップできます
– 核兵器とちがって、全ては情報ないしデータで表現
できるので、インターネットによる拡散を防げません113
人工知能と軍事
– テロリストでも独裁国家でも敵国でも、容易に人工
知能技術を入手し軍事利用できます。
• 核兵器技術はソ連が自前開発したのではなく、あちこち
からスパイを使って入手したらしいとのこと(バラット本1
4章)。
• ましてやインターネットのこの御時世、簡単に拡散
IEEEの倫理基準では、テロリストや独裁国家にAI兵
器が渡ってしまった場合に悪用されないような設計
をせよ と技術者に求めているが非現実的
114
人工知能と軍事
– 人工知能の開発で遅れをとると、軍事的に決定的
に不利(とアメリカは思っています)
Russelの意見は傾聴に値します。(Nature 28 May
2015, http://www.nature.com/news/robotics-
ethics-of-artificial-intelligence-1.17611#/russell )
本質的定義を模索するより物理的能力を制限する
ほうが現実的
115
人工知能と軍事
• 人工知能に倫理性を埋めこめばよいという意見もありますが
– 戦争に使うロボットの場合、自軍のロボットが倫理的に動いても、
– 敵軍のロボットが倫理を無視する場合には、必敗です。
• 人工知能研究予算の多くはDARPAから
– 冷戦のころはロシア語の文書を大量かつ容易に解読しようとして、
大きな機械翻訳の予算が投入された
– Siriも開発予算の大きな部分はDARPA
– DARPAの予算だから成果は当然、軍事技術に転用されています。
116
人工知能と軍事
– 本当に重要な技術は、他国に対する優位を保つた
め、
– DARPAがclassifyするかもしれないのです
• しかし、流出する可能性大です
こういう背景を理解したうえでデュアルユースの
議論はしっかりしておくほうがよいが、
日本では議論は散発的にしか聞こえてこない
のです
117
人工知能倫理と軍事
• 反対論のない指針
– 無差別大量破壊兵器の禁止(核、バイオ)
– 軍の研究予算をもらうにしても、研究成果の完全公
開は必須
• 議論が必要な部分
– 自動火器のトリガタイミング自動化
– 防御兵器と攻撃兵器の境目
118
人工知能倫理と軍事
• IEEE EAD version2 の提言
– 自律兵器のふるまいは予測できない可能性がある。
学習はこの問題を悪化させる。よって行動予測不能
な自律兵器は禁止すべき。
– 自律兵器の行動履歴は確実にログできること
– さらに群れをなす自律兵器、例えばドローンの編隊、
はさらに危険度が高く、行動予測が困難なので禁止
すべき。
119
人工知能倫理と軍事
• 昔
– 軍事技術が民生に転用
– 例:機械翻訳 常に米国の敵国の言語を英語に機
械翻訳する技術開発にDARPAの予算が投入された
• ロシア、日本(経済的競争相手)、アラブ、中国
• 現在、ひょっとすると昔から
– 民生技術が軍事に転用
– 例:ドローン、素数理論(暗号)
• デュアルユースへの態度はしっかり考えるべき
時期 120
天国へ行く最も有効な方法は、
地獄へ行く道を熟知することである。
121
チェーザレ
・ボルジアマキャベリの理想像の君主:
ローマ帝国崩壊後の中世のイタリア
半島をまとめて、統一国家を建設する一
歩手前まで導いた政治的・軍事的才能に
優れた指導者。
あと一歩というところで、マラリアで倒れ、
政敵に失脚させられる。
 人間やっぱり健康が大切!
汎用人工知能の倫理
ちょっと前の話題に戻りますが
122
人工知能学会倫理指針
9. (人工知能への倫理遵守の要請)
– 人工知能が社会の構成員またはそれに準じるも
の となるためには、上に定めた人工知能学会員
と同等に倫理指針を遵守できなければな らない。
人工知能学会員だけというのは極端な 人工知
能擬人化 かもしれない
人工知能を擬人化してよいかどうかにも疑問が
あり、実際の議論も多い(Bostrom)
123
総務省AIガイドライン ⑦倫理の原則
• 開発者は、AIシステムの開発において、人間
の尊厳と個人の自律を尊重する
• AIシステムの学習データに含まれる偏見など
に起因して不当な差別が生じないよう、(中略)
努めることが望ましい。
• 国際人権法や国際人道法を踏まえ、AIシステ
ムが人間性の価値を不当に毀損しないこと
124
アシロマAI 23原則
• 16) 人間による制御: 目的の達成を人工知能シ
ステムに任せる場合、その方法と判断の可否の
判断を人間が行うべきである。
•  人間中心主義(最終決定権は人間が持つ)
•  人間の恣意性や悪用もありえる
• 17) 非破壊:既存の健全な社会の基盤となってい
る社会的および市民的プロセスを尊重した形で
の改善に資するべきであり、既存のプロセスを覆
すものであってはならない。 125
IEEE EAD
2.自律知能システムへの価値観の組み込み
• 課題:
• AIに組み込む価値観は普遍的ではなく、むしろユーザー
のコミュニティやタスクに特有のものである。
• モラルの過負荷:AIは通常、互いに矛盾する場合のある
規範および価値観の多様性による影響を受ける。
• AIは、特定のグループのメンバーに不利益をもたらす、組
み込み型のデータまたはアルゴリズム的傾向を持つ場合
がある。
• 原文ではAISだがここでは簡単にAIとした。
126
IEEE EAD
2.自律知能システムへの価値観の組み込み
• 特定のコミュニティにおけるAIの特定の役割の規範が
定っても、そのような規範をどのようにして計算アーキテ
クチャに組み込むべきかが不明
• AIに実装される規範は、関連するコミュニティの規範と互換性を持つ
必要がある。
• AIは人間が支配できるという思い上がりがあるかもしれない
• 人間とAIとの間に適切な信頼関係を築く。
• AIの価値観整合性に関する第三者評価。
127
法制度とプライバシー保護
詳細は付録を参照ください
128
個人データ保護の流れ
• インターネットの普及によりデータ主体である個人の個
人情報、個人データはネットに氾濫している。
• この情況に対してプライバシー保護の動きが強まってい
る。
• EUの動き
– OECD8原則  種々のプライバシー保護法制の基礎
– 以前のEUデータ保護指令  法律は国毎に違う
• EU全域で統一したプライバシ-保護の法律として
• GDPR(General Data Protection Regulation)が
2016/4/14(欧州議会採択)、2016/5/24施行、2018/5/25
適用
129
個人データ保護の流れ
• EU:GDPR(General Data Protection Rule)
– 匿名化処理によって個人情報ではなくなり自由流通できると
思う人もいるかもしれないが、
EUではこのような匿名化手法は基本的に存在しないとしてい
る。
– つまり、個人データ流通は以下が想定
1. 事業者の説明責任と
2. データ主体の同意による
– 個人データを一業者が囲い込むことを許さず、データ主体個
人の意志で個人に還元できるデータポータビリティを保障
(GDPR 第20条) 130
個人データ保護の流れ
• 米国:プライバシー保護のための連邦法はない
– 州法が主体。カリフォルニアでは先進的なプライバシー
保護の州法がある
• オバマ政権のときに消費者プライバシー権利章典
法 2015/5/27 が公開された。ただし、連邦法とは
なっていない。
• FTC(Federal Trade Commission)や商務省が個別に
管轄。
– FTC3要件、FTC5条(調停、課徴金ができる) が有名
131
個人データ保護の流れ
• 日本:個人情報保護法改正 2015/9
– 匿名加工情報の導入  PWSCUP(明大:菊池教授)
• 世界の潮流
忘れられる権利
Do Not Track (追跡拒否権)
• 等、個人のデータの収集、利用を制限する
個人データは個人が管理し、同意に基づいて使わせる
仕組み 132
プロファイリング
• プロファイリング
– ITサービス利用者のプロファイルは利用者から直接収集さ
れた情報に加えて、他のユーザの情報などを総合して推
論しています。
» 例:FaceBookは友だちの情報からその利用者の所属コ
ミュニテイや思想傾向を推論しているようです。
– この推論では人工知能をフル活用  ある意味危険な利
用ですね
– データ主体は自身の個人データを収集されて行われたプ
ロファイルの結果の計算機処理(=AIによる処理)の結果
に服さなくてよい権利を持つ  GDPR 22条
133
プライバシー
134
総務省
国際的な議論のためのAI開発ガイドライン
• ⑥プライバシーの原則
– 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害さ
れないよう配慮する。
– AIシステムのプライバシー侵害のリスクについて、
あらかじめ影響評価を行うよう努めるとともに、
– 開発の過程を通じて、採用する技術の特性に照らし
可能な範囲で措置を講ずるよう努めることが望まし
い(プライバシー・バイ・デザイン)。
135
総務省
国際的な議論のためのAI開発ガイドライン
• ⑥プライバシーの原則
– 開発者は、AIシステムにより利用者及び第三者のプライバシーが侵害さ
れないよう配慮する。
– AIシステムのプライバシー侵害のリスクについて、
あらかじめ影響評価を行うよう努めるとともに、
– 開発の過程を通じて、採用する技術の特性に照らし
可能な範囲で措置を講ずるよう努めることが望まし
い(プライバシー・バイ・デザイン)。
人間にはできない。AIにAIを
評価させるような難しい話
136
総務省
国際的な議論のためのAI開発ガイドライン
• 関連記述
• データ・情報の流通と個人情報保護・プライバシーとのバランス
– 例えば、価値の高いデータ(カメラが撮影した画像等)の取
得や利活用に当たっての
– 本人同意の在り方等が問題となる可能性
• AIシステムが取り扱うデータ・情報の性質
– 例えば、プライバシー性や機密性が高いデータ・情報につい
ては、特に慎重な取扱いが必要
– 例えば、AI生成物や学習用データ等に関し、知財制度上の
取扱いが問題となる可能性 137
総務省
国際的な議論のためのAI開発ガイドライン
• 関連記述
• データ・情報の流通と個人情報保護・プライバシーとのバランス
– 例えば、価値の高いデータ(カメラが撮影した画像等)の取
得や利活用に当たっての
– 本人同意の在り方等が問題となる可能性
• AIシステムが取り扱うデータ・情報の性質
– 例えば、プライバシー性や機密性が高いデータ・情報につい
ては、特に慎重な取扱いが必要
– 例えば、AI生成物や学習用データ等に関し、知財制度上の
取扱いが問題となる可能性
将来課題を捉えている
将来課題を捉えている
138
人工知能学会 倫理指針*
• (他者のプライバシーの尊重)
• 人工知能学会会員は、人工知能の利用およ
び開発において、他者のプライバシーを尊重
し、関連する法規に則って個人情報の適正な
取扱いを行う義務を負う
139
FLI:アシロマ原則
• 12) 個人のプライバシー: 人々は、人工知能システ
ムが個人のデータ分析し利用して生み出したデー
タに対し、自らアクセスし、管理し、制御する権利を
持つべきである。
• 13) 自由とプライバシー:個人のデータに対する人
工知能の適用を通じて、個人が本来持つまたは持
つはずの自由を不合理に侵害してはならない。
 日本の組織の基準に比べて具体的
 GDPR22条の「プロファイリングに対抗する権利」の
強化版
140
IEEE EAD version 2:
個人情報とアクセス制御
(Personal Data and Individual
Access Control)
• 以下は EAD version2 の議論
141
Digital Persona:
妊娠から墓場までカバーするAI代理人
• 出産以前のヘルスケアレコード
• 誕生における市民権(ディジタル市民権) 政府データ
• 就学
• 移動
• 国境を超える場合 (immigration data)
• 消費行動
• IoT and wearables (telecommunications data)
• SNS、ディジタルメディア
• 職業訓練
• 社会参加
• 契約、事故対応、保険、金融
• 死亡(ディジタル遺産の処理)
142
Regional Jurisdiction
• 法律は国ごとに違うが
• 基本的人権(プライバシー権)を確実にするた
めに
• 自分のデータに対するアクセスと制御が
国境を越えてできなくてはならない。
143
Agency and Control
• Agency(代理人)の仕事の範囲を決めるため
に、personally identifiable information (PII)
の定義の明確化が必要。
• 個人データの収集と転移に対して、GDPRの
精神に則ったポリシーに依拠すべき
144
個人は信頼できるID認証にアクセス
できること
• 認証されたIDで金融、政府、通信などのサー
ビスを受けることを保証するAI
145
Transparency and Access
• データ主体は自分の個人データがどう収集され、
利用され、蓄積され、ないし廃棄されるかを知る
権利
• 訂正する権利と簡便なインタフェースが必要
• これをAI技術で実現すべき
146
PIAを分析、確認するツールを
AIで実現
– GDPR Privacy Impact Assessmentsを参考にする
– AIによるPIAアセスメントツールは企業に供給され、
製品やサービスの安全性を確保
– 個人データの収集と利活用が法制度を守ってい
ることを保証する AI を開発
147
同意の取り方
• AIを理解しないデータ主体からデータ収集するにあたって、
有効な同意をとるAIの開発
• 同意は1回取ればおしまいではなく、状況変化において随
時とれるようなAIシステム
• 被雇用者<<雇用者
という力関係をバランスさせるような同意とためのAIシステ
ムが必要
– 労使関係では、明確な同意のない場合を多数見られるので、
それを改善すべき
148
同意の取り方:情報弱者対応
• 高齢者や非健常者などの情報弱者がプライ
バシー保護で置いてきぼりを食わないような
同意ないし利用監視システムをAIを利用して
構築
• 子供は親が代理するにしても、それ以外の情
報弱者対策は喫緊の課題  AIの出番
149
人工知能とプライバシー
• 人工知能の能力が向上すると、シンギュラリティ以前にもプ
ライバシーと関連する状況、問題が起こります。
• 忘れられる権利
– 既に述べたように、検索エンジンに対して、個人から、その人に関す
るWebページの消去要求が来た場合
– 消去の可否判断は人工知能の支援が必要
– これは人工知能の良い使い方でしょう。
150
気を許すか否か
人工知能とプライバシー
• 対話ができる人工知能は古くから研究されてきました
• MITのワイゼンバウムが1966年に開発したELIZA
– ほとんどオウム返し+アルファくらいだが、個々の文はいかにも人間っ
ぽい。
• ELIZAにおいて見られた現象
• 相手が人工知能であると気を許して個人情報を話しがち
– 一方、ロボットも見た目が人間っぽい
• 相手が人間であると気を許して個人情報を話してしまいそうで
す
– 人間らしい外観が有名な阪大の石黒先生のアンドロイドにはけっこう
感情移入する人が多いらしい
– チューリングテストをパスしたAIにもプライバシーを語ってしまいそう
151
• つまり、人工知能ロボットが会話内容や外観で
人間らしくなると、
– 相手が計算機だという、嘘はつかないだろうという
安心感
– 人間っぽい外観での同類意識
• などから、プライベートな事柄をしゃべりがち
• その気になれば、人工知能ロボットはプライバ
シー情報を収集しやすい状態なのです。
152
• もし、コンパニオンアニマルのロボットがインター
ネットに接続され
• その結果、マルウェアに汚染され
• なつかれている高齢者の主人が、自分の金融
資産管理などについての情報を漏らしてしまい、
盗まれてしまうかも
ディジタル狂犬病
153
– 何がプライバシーか、という人間にとっての常識を
人工知能が持てるか?
– そうして人工知能ロボットが収集したプライバシー情
報を保護するには、やはり人工知能の能力が必要
154
プライバシー保護も人工知能の
能力として持つべき
なにがプライバシーかは個人毎、状況毎に異なる
浮気中の人にとっては宿泊したホテルや夕食を採ったレ
ストランもプライバシー
– 果たして人工知能に判断できるでしょうか?
– こういったことができる人工知能になると、それこそ
シンギュラリティにかなり近づいているといえそうで
す。
– つまり、人間に好意や悪意を持った行動をできる一
歩手前まで来ているのです。
155
とりあえずの対策をおさらいしておきます
• 人工知能を必要としている分野には投資、研究、開発をすべき
• 人工知能の行動を説明できる人工知能技術(できれば可視化)が必
要
 困難なら人工知能をトラストする枠組み
– 忘れられる権利など法的な判断の場合、その理由を説明できることが
必須
• 金融システムのように多数の人工知能がネットワークで影響しあう
システムの解析など必須
• 人工知能の悪影響を突破できる人工知能が必要
– フィルターバブル突破ツール
• 法律的な制限の可否は議論が必要です。
– 核兵器の制限や、戦争における国際法、ウォール街対策の金融規制
などが参考になりますが、いずれも道半ばであります。
156
後半:人工知能倫理のまとめ
• 以上は倫理指針なので、個人情報保護法の
ような法制度とは趣が違う
• 個人情報とAIの関係には、法制度の側からも
着目しておく必要あり。
• 将来の立法措置、ガイドライン、政令などの
中にどう位置付けていくかが課題
157
問題点だらけなこの状況
やるべきことは山ほどあります
158
ご清聴ありがとうございました
159
付録の目次
• 人工知能の倫理指針
• 人工知能の個人への影響
• 説明責任
• 個人管理型のデータ流通
160
付録:人工知能の倫理指針
以上のような状況を鑑みて、現在、
人工知能の倫理指針作成が各所で
進んでいる
161
23 Asilomar AI Principles
(アシロマAI 23原則)
• 研究
• 1) AI研究の目標は、無秩序な知能ではなく有益な知
能の開発である。
• 2) AIへの投資は、コンピューター科学、経済、法律、
倫理、社会学の観点から有益と考えられる研究に向
ける。
• 3) AI研究者と政治家の間で、建設的で健全な対話を
行なう。
• 4) 研究者や開発者の間には協力、信頼、透明性の文
化を育くむ。
• 5) AIの開発チーム同士での競争により安全基準を軽
視することがないよう、チーム同士で協力しあう。
162
23 Asilomar AI Principles
(アシロマAI 23原則)
• 倫理と価値基準
• 6) AIシステムはその一生を通して、できる限り検証可能な形で
安全、堅牢である。
• 7) AIシステムが害をなした場合、原因を確認できるようにする。
• 8) 自動システムが司法判断に関わる場合、権限を持つ人間が
監査し、納得のいく説明を提供できるようにする。
• 9) AIシステムの開発者は、システムの使用、悪用、結果に倫理
的な関わりがあり、どう使用されるかを形作る責任と機会があ
る。
• 10) 自動的なAIシステムは、目標と行動が倫理的に人間の価
値観と一致するようデザインする。
• 11) AIシステムは、人間の尊厳、権利、自由そして文化的多様
性と矛盾しないようデザイン、運営しなければならない。
• 12) AIには人間のデータを分析し、利用する力があるため、
データを提供する人間は自分のデータを閲覧、管理、コント
ロールする権利が与えられる。 163
23 Asilomar AI Principles
(アシロマAI 23原則)
• 倫理と価値基準
• 12) AIには人間のデータを分析し、利用する力があるため、データ
を提供する人間は自分のデータを閲覧、管理、コントロールする
権利が与えられる。
• 13) AIによる個人情報の利用は、人間が持つ、あるいは持つと思
われている自由を理不尽に侵害してはならない。
• 14) AI技術は可能な限り多くの人間にとって有益で力をあたえる
べきだ。
• 15) AIによる経済的な利益は広く共有され、人類全てにとって有
益であるべきだ。
• 16) 人間によって生まれた目標に関して、AIシステムにどのように
決定を委ねるのか、そもそも委ねるのかどうかを人間が判断すべ
きだ。
• 17) 高度なAIシステムによって授かる力は、社会の健全に不可欠
な社会課程や都市過程を阻害するのではなく、尊重、改善させる
ものであるべきだ。
• 18) 危険な自動兵器の軍拡競争が起きてはならない。 164
23 Asilomar AI Principles
(アシロマAI 23原則)
• 長期的な問題
• 19) 一致する意見がない以上、未来のAIの可能性に上限があると
決めてかかるべきではない。
• 20) 発達したAIは地球生命の歴史に重大な変化を及ぼすかもしれ
ないため、相応の配慮と資源を用意して計画、管理しなければな
らない。
• 21) AIシステムによるリスク、特に壊滅的なものや存亡の危機に関
わるものは、相応の計画と緩和対策の対象にならなければならな
い。
• 22) あまりに急速な進歩や増殖を行なうような自己改善、または自
己複製するようにデザインされたAIは、厳格な安全、管理対策の
対象にならなければならない。
• 23) 超知能は、広く認知されている倫理的な理想や、人類全ての
利益のためにのみ開発されるべきである。
165
人工知能学会倫理指針
1. (人類への貢献)人工知能学会会員は、人類の平和、安全、福祉、公共
の利益に貢献 し、基本的人権と尊厳を守り、文化の多様性を尊重する。
人工知能学会会員は人工知 能を設計、開発、運用する際には専門家
として人類の安全への脅威を排除するように 努める。
2. (法規制の遵守)人工知能学会会員は専門家として、研究開発に関わ
る法規制、知的 財産、他者との契約や合意を尊重しなければならない。
人工知能学会会員は他者の情 報や財産の侵害や損失といった危害を
加えてはならず、直接的のみならず間接的にも 他者に危害を加えるよ
うな意図をもって人工知能を利用しない。
3. (他者のプライバシーの尊重)人工知能学会会員は、人工知能の利用
および開発に おいて、他者のプライバシーを尊重し、関連する法規に
則って個人情報の適正な取扱 いを行う義務を負う。
166
人工知能学会倫理指針
4. (公正性)人工知能学会会員は、人工知能の開発と利用において常に
公正さを持ち、 人工知能が人間社会において不公平や格差をもたらす
可能性があることを認識し、開 発にあたって差別を行わないよう留意す
る。人工知能学会会員は人類が公平、平等に 人工知能を利用できる
ように努める。
5. (安全性)人工知能学会会員は専門家として、人工知能の安全性及び
その制御におけ る責任を認識し、人工知能の開発と利用において常に
安全性と制御可能性、必要とさ れる機密性について留意し、同時に人
工知能を利用する者に対し適切な情報提供と注 意喚起を行うように努
める。
6. (誠実な振る舞い)人工知能学会会員は、人工知能が社会へ与える影
響が大きいこと を認識し、社会に対して誠実に信頼されるように振る舞
う。人工知能学会会員は専門 家として虚偽や不明瞭な主張を行わず、
研究開発を行った人工知能の技術的限界や問 題点について科学的に
真摯に説明を行う。
167
人工知能学会倫理指針
7. (社会に対する責任)人工知能学会会員は、研究開発を行った人工知
能がもたらす結 果について検証し、潜在的な危険性については社会に
対して警鐘を鳴らさなければな らない。人工知能学会会員は意図に反
して研究開発が他者に危害を加える用途に利用 される可能性があるこ
とを認識し、悪用されることを防止する措置を講じるように努 める。また、
同時に人工知能が悪用されることを発見した者や告発した者が不利益
を 被るようなことがないように努める。
8. (社会との対話と自己研鑽)人工知能学会会員は、人工知能に関する
社会的な理解 が深まるよう努める。人工知能学会会員は、社会には
様々な声があることを理解し、社 会から真摯に学び、理解を深め、社
会との不断の対話を通じて専門家として人間社会 の平和と幸福に貢
献することとする。人工知能学会会員は高度な専門家として絶え間 な
い自己研鑽に努め自己の能力の向上を行うと同時にそれを望む者を
支援することと する。
9. (人工知能への倫理遵守の要請)人工知能が社会の構成員またはそ
れに準じるもの となるためには、上に定めた人工知能学会員と同等に
倫理指針を遵守できなければな らない。 168
付録:人工知能の個人への影響
169
人工知能の個人への影響
• 人工知能ロボットと人間の社会的関係という論
点が必要
• 人工知能ロボットに任せすぎると人間がどんど
ん堕落しそうです
– スマホナビなしでは空間移動できない人々増産中
– コンピュータからの指示を待つしかできない若者急
増中
170
人工知能の個人への影響
– 自動運転者が普及すると運転できない人間がどんどん増え
るでしょう
• 自動車損保会社が大打撃
• 自動運転は事故率が人間より格段に低い
• 運転者の激減
• 保険会社にとってはトロッコ問題より重大
– 弁護士は担当事件に類似事件に判例を検索する人工知能
に依存
• 現状では、類似性は判例や調書に出現する単語集合の類似性で計
算。
• 背後にある事情や常識も人工知能は収集解析できれば、ほとんど実
質的な仕事なし
• 同じようなことは会計士、税理士、そして開発、企画、研究部門にも
及ぶ可能性大。
171
人工知能の個人への影響
フィルターバブル
• Facebookが利用者のプロファイルや友だちの情報を利用す
る人工知能システムを利用しています
• このような利用者情報から利用者が好む情報や友だちだけ
を優先的に推薦してくれます
• 結果として、考え方の違う人の記事などはアクセスしにくくな
るのです。
• 利用者はシステム側が作った泡(バブル)の中にいて、そこ
に入ってくる情報が利用者が好むとシステム側(人工知能)
が判断したものだけフィルターを通過
•  フィルターバブル 172
フィルターバブル
• フィルターバブルは、本来、膨大かつ多様な情
報にアクセスを可能とするはずのインターネット
本来の姿に逆行しています
– 利用者は多様な情報を得られないため、考え方の
多様性を失うという情報的退化を起こします
– もちろん、自分好みの情報だけ提示してくれたほう
が嬉しいし、知的退化を好む利用者も多いです
– IT業者にとっては、利用者の好みの情報だけ提示
するほうが広告戦略としては効果的です
173
フィルターバブル
– しかし、このような情報操作は知る権利に反する
– 下手をすれば一部の人々による情報支配になりかねま
せん。
– 人工知能がやっていることだから我々は知らない、とい
うIT事業者の言い逃れはよく耳にするが、
– 果たしてそれで社会の健全性は大丈夫でしょうか?
フィルターバブルを突破して、我々には必ずしも心地よ
く聞こえない情報を検索するWebツールが必要なので
はないでしょうか?
人工知能の技術を使えば、かなり高い能力を持つシス
テムが現状でも開発可能であろうと思われます。 174
追加:忘れられる権利
• EU司法裁判所の判決でGoogleに対して「忘れら
れる権利」に基づいて削除命令が出されました
• EU市民からは100万件単位の削除要求が寄せ
られました。
– 忘れられる権利 vs 知る権利 の比較衡量が必要な
問題
• 全部人間の専門家が対応するのは不可能
175
忘れられる権利
• 全部人間の専門家が対応するのは不可能
– 人工知能技術に基づきあらかたの判断をし、真に難しいケースだけ
人間の専門家が処理
– 機械学習は、消去/非消去の例を使って、分類システムを構築。
– 難しいのは、人間の専門家に処理依頼するかどうかの境界の決め方
– この境界を決める部分まで人工知能でできると、人工知能のブラック
ボックス化が相当に進行したと言えます。
– 消去/非消去の判断根拠を人間に分かる言葉で説明する技術が当
面は重要です。
 人工知能が人間の代りをする場合は、人間に理解できる説明ができ
る能力を与えておくことが必須でありましょう。
176
付録:説明責任
177
総務省AIガイドライン
• ②透明性の原則-
• 開発者は、
AIシステムの入出力の検証可能性
及び判断結果の説明可能性
に留意する。
178
総務省AIガイドライン
• ⑨アカウンタビリティの原則
• 利用者等に対しAIシステムの技術的特性に
ついて情報提供や説明を行う
• ステークホルダとの対話を通じた意見聴取や、
ステークホルダの積極的な関与を得る
• AIシステムによりサービスを提供するプロバ
イダなどとの情報共有・協力に努める
179
FLI アシロマ23原則
• 7) 障害の透明性:
人工知能システムが何らかの被害を生じさせた場合に、その理由を確認で
きるべき。
• 8) 司法の透明性:
司法の場においては、意思決定における自律システムのいかなる関与につ
いても、権限を持つ人間によって監査を可能としうる十分な説明を提供すべ
き。
– 参考:EU
– GDPR22条
– 自動処理によるプロファイリングの結果に従わなくてよい権利
• 9) 責任:
高度な人工知能システムの設計者および構築者は、その利用、悪用、結果
がもたらす道徳的影響に責任を負いかつ、そうした影響の形成に関わるス
テークホルダー。
180
IEEE EAD
• 一般原則
• 透明性:人工知能の透明性を確保する方法
 システムの透明性を測定し、試験し、適合性を客観的に評価でき
る標準の開発すべき。
–  これが一般論としての説明責任の根拠
• 教育と注意喚起:人工知能の便益を最大化し、誤用のリスクを
最小化する方法
 誤用について人々に注意喚起する。
 そのため人々に倫理や安全の教育をSNS等新しい方法 で行い、
また法の執行機関を教育し市民と協力可能にする
 まだまだ抽象的ではある。
181
付録:個人管理型のデータ流通
182
全く別の視点からのビジネスモデル
• プライバシー保護技術は、顧客から収集した
個人データを囲い込むGAFA型ビジネスモデ
ルが念頭
• 個人データを個人で管理して、IT企業に契約
のうえで使わせてやる、というモデルもあるの
ではないか?
183
個人データ管理は
データ主体の個人へ
Google,
Facebook,
Apple,
Amazon
雇用
開発者
向け
API
交通
購買
Web
電力
会社医療
政府
研究
銀行
雇用
開発者
向けAPI
交通
購買
Web
電力
会社医療
政府
研究
銀行
データ主体
個人データを自社に囲
い込んで儲ける
自分の個人データを契
約によって他社に使わ
せる 184
背景:IT企業と個人データ
• 米国のIT企業GAFA: Google Amazon Facebook Apple がパー
ソナルデータをどんどん収集して囲い込み、利益を上げてい
る現状
• 収奪されるEU、収奪されるデータ主体の個人
• GDPRで反撃しているが、それだけではEUの産業は育たない
• EUの個人データのプライバシー(=人権)の危機。だが、産
業は興さないと低落するのみ
 個人データはデータ発生源であるデータ主体の個人が管理
 その枠組みの標榜と、ビジネス育成がテーマ
 2016年8月30日から9月1日 Helsinkiにて MyData2016の会
議開催 (今年も同時期に開催) 185
プロファイリングの問題
• IT事業者が収集したデータ主体の個人データを
用いたデータ主体のプロファイリング
– プロファイルを用いたターゲット広告:強力なビジネ
スモデル
• えてして不正確な個人のプロファイル
– 自分のことを自分よりよく知っている!?
– とんでもない被害
– cf : 英国では約90%に人がIT業者の個人データプライバシー保護を心
配している。 186
残された課題:プロファイリングの問題
 (GDPR 第22条)
 プロファイルされた情報に基づくデータ主体への計算機
処理による判断に服さなくてよい権利
AIによるプロファイリングに対する拒否権
– プロファイル情報の開示要求
– 間違ったプロファイル情報の問題
– プロファイル拒否追跡拒否権 (Do Not Track :DNT)
• 法律を決めても業者への効力がほとんどない
– 個人が同意して提出した個人データのほうが推定処理をし
たプロファイル情報より正確でup to date
187
主要な技術的ポイント
 パーソナルクラウド
 インターネットにおける Identity 認証
 個人データのポータビリティ
 Block Chain による個人の Identity 認証
 プライバシー保護(暗号化,複数当事者による計算:
MPC , etc.)
 公平性、透明性の確保手段
188
パーソナル・デー
タ・ストレージ
パーソナル・データ・ストレージ(PDS)
• パーソナル・データ・ストア/ボールト
• あるいは
• パーソナル・データ・クラウド
個人
データ
個人
データ
個人
データ
個人
データ
ITを使ったサービ
ス仲介IT業者
(AIを活用)
• 自動アップロード
• 個人キーで暗号化
• 個人ID認証
• API-of-Me
• 利用ログ
• 流通経路トレース
• 統一データ形式
• ポータビリティ 189
まとめ
• 個人データ囲い込み型ビジネス
• 個人データを個人識別が困難なデータに変
換して流通させる技術と法制度(改正個人情
報保護法における匿名加工情報)
• 個人データは個人が管理し、契約によって企
業に使わせるビジネスモデル(MyData)
– AIを含むいろいろな技術開発が必要
190

More Related Content

What's hot

機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)Satoshi Hara
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Modelscvpaper. challenge
 
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜Preferred Networks
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3までYahoo!デベロッパーネットワーク
 
ナレッジグラフ入門
ナレッジグラフ入門ナレッジグラフ入門
ナレッジグラフ入門KnowledgeGraph
 
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...JunSuzuki21
 
マインドフルネスと人工知能
マインドフルネスと人工知能マインドフルネスと人工知能
マインドフルネスと人工知能Youichiro Miyake
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII
 
「知識」のDeep Learning
「知識」のDeep Learning「知識」のDeep Learning
「知識」のDeep LearningYuya Unno
 
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方BrainPad Inc.
 
数理最適化とPython
数理最適化とPython数理最適化とPython
数理最適化とPythonYosuke Onoue
 
『コンテナ疲れ』と戦う、k8s・PaaS・Serverlessの活用法
『コンテナ疲れ』と戦う、k8s・PaaS・Serverlessの活用法『コンテナ疲れ』と戦う、k8s・PaaS・Serverlessの活用法
『コンテナ疲れ』と戦う、k8s・PaaS・Serverlessの活用法Kazuto Kusama
 
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライドNLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライドJunSuzuki21
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用Hiroyuki Masuda
 
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021Preferred Networks
 
先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際Tetsutaro Watanabe
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!TransformerArithmer Inc.
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 

What's hot (20)

機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models【メタサーベイ】基盤モデル / Foundation Models
【メタサーベイ】基盤モデル / Foundation Models
 
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜
 
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
 
ナレッジグラフ入門
ナレッジグラフ入門ナレッジグラフ入門
ナレッジグラフ入門
 
GitLab から GitLab に移行したときの思い出
GitLab から GitLab に移行したときの思い出GitLab から GitLab に移行したときの思い出
GitLab から GitLab に移行したときの思い出
 
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
トップカンファレンスへの論文採択に向けて(AI研究分野版)/ Toward paper acceptance at top conferences (AI...
 
マインドフルネスと人工知能
マインドフルネスと人工知能マインドフルネスと人工知能
マインドフルネスと人工知能
 
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
SSII2020TS: 機械学習モデルの判断根拠の説明​ 〜 Explainable AI 研究の近年の展開 〜​
 
「知識」のDeep Learning
「知識」のDeep Learning「知識」のDeep Learning
「知識」のDeep Learning
 
ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方ブレインパッドにおける機械学習プロジェクトの進め方
ブレインパッドにおける機械学習プロジェクトの進め方
 
数理最適化とPython
数理最適化とPython数理最適化とPython
数理最適化とPython
 
『コンテナ疲れ』と戦う、k8s・PaaS・Serverlessの活用法
『コンテナ疲れ』と戦う、k8s・PaaS・Serverlessの活用法『コンテナ疲れ』と戦う、k8s・PaaS・Serverlessの活用法
『コンテナ疲れ』と戦う、k8s・PaaS・Serverlessの活用法
 
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライドNLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
NLP2023 緊急パネル:ChatGPTで自然言語処理は終わるのか? 説明スライド
 
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
 
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
PFNのML/DL基盤を支えるKubernetesにおける自動化 / DevOpsDays Tokyo 2021
 
先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際先駆者に学ぶ MLOpsの実際
先駆者に学ぶ MLOpsの実際
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 

Similar to 人工知能と社会

人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演Hiroshi Nakagawa
 
Brain-Inspired Robotics and Neural Dynamics: Lecture 02 (2015)
Brain-Inspired Robotics and Neural Dynamics: Lecture 02 (2015)Brain-Inspired Robotics and Neural Dynamics: Lecture 02 (2015)
Brain-Inspired Robotics and Neural Dynamics: Lecture 02 (2015)Hiroaki Wagatsuma
 
シンギュラリティサロン20211030ep
シンギュラリティサロン20211030epシンギュラリティサロン20211030ep
シンギュラリティサロン20211030epMasatoshi Yoshida
 
人工知能エージェントに「意識」を持たせるために必要な条件は何か
人工知能エージェントに「意識」を持たせるために必要な条件は何か人工知能エージェントに「意識」を持たせるために必要な条件は何か
人工知能エージェントに「意識」を持たせるために必要な条件は何かHirofumi_Yashima_
 
心理学/認知科学者のための人工知能概論
心理学/認知科学者のための人工知能概論心理学/認知科学者のための人工知能概論
心理学/認知科学者のための人工知能概論Kosuke Sato
 
人工知能をめぐる 意識と環境と身体の理論(下)
人工知能をめぐる意識と環境と身体の理論(下)人工知能をめぐる意識と環境と身体の理論(下)
人工知能をめぐる 意識と環境と身体の理論(下)Youichiro Miyake
 
CHI 2021 Human, ML & AI のまとめ
CHI 2021 Human, ML & AI のまとめCHI 2021 Human, ML & AI のまとめ
CHI 2021 Human, ML & AI のまとめYasunori Ozaki
 
第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る
第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る
第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知るtomitomi3 tomitomi3
 
生成AIが切り拓く基礎科学(20231112)
生成AIが切り拓く基礎科学(20231112)生成AIが切り拓く基礎科学(20231112)
生成AIが切り拓く基礎科学(20231112)Koji Fukuoka
 
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)Youichiro Miyake
 
Neuroscience inspired artificial intelligence
Neuroscience inspired artificial intelligenceNeuroscience inspired artificial intelligence
Neuroscience inspired artificial intelligenceYasunori Endo
 
ヒト並みの人工知能と現象学
ヒト並みの人工知能と現象学ヒト並みの人工知能と現象学
ヒト並みの人工知能と現象学Naoya Arakawa
 
Cognitive science for the development of human like ai
Cognitive science for the development of human like aiCognitive science for the development of human like ai
Cognitive science for the development of human like aiYuki Minai
 
20170904 ドレイファス勉強会河村スライド
20170904 ドレイファス勉強会河村スライド20170904 ドレイファス勉強会河村スライド
20170904 ドレイファス勉強会河村スライドyuki kawamura
 
脳の大統一理論とも呼称される注目の「予測誤差を最小化する自由エネルギー原理とは」
脳の大統一理論とも呼称される注目の「予測誤差を最小化する自由エネルギー原理とは」脳の大統一理論とも呼称される注目の「予測誤差を最小化する自由エネルギー原理とは」
脳の大統一理論とも呼称される注目の「予測誤差を最小化する自由エネルギー原理とは」Koji Fukuoka
 
人工知能をめぐる 意識と環境と身体の理論(上)
人工知能をめぐる意識と環境と身体の理論(上)人工知能をめぐる意識と環境と身体の理論(上)
人工知能をめぐる 意識と環境と身体の理論(上)Youichiro Miyake
 

Similar to 人工知能と社会 (20)

人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
人工知能学会合同研究会2017-汎用人工知能研究会(SIG-AGI)招待講演
 
Brain-Inspired Robotics and Neural Dynamics: Lecture 02 (2015)
Brain-Inspired Robotics and Neural Dynamics: Lecture 02 (2015)Brain-Inspired Robotics and Neural Dynamics: Lecture 02 (2015)
Brain-Inspired Robotics and Neural Dynamics: Lecture 02 (2015)
 
シンギュラリティサロン20211030ep
シンギュラリティサロン20211030epシンギュラリティサロン20211030ep
シンギュラリティサロン20211030ep
 
人工知能エージェントに「意識」を持たせるために必要な条件は何か
人工知能エージェントに「意識」を持たせるために必要な条件は何か人工知能エージェントに「意識」を持たせるために必要な条件は何か
人工知能エージェントに「意識」を持たせるために必要な条件は何か
 
1
 1 1
1
 
心理学/認知科学者のための人工知能概論
心理学/認知科学者のための人工知能概論心理学/認知科学者のための人工知能概論
心理学/認知科学者のための人工知能概論
 
人工知能をめぐる 意識と環境と身体の理論(下)
人工知能をめぐる意識と環境と身体の理論(下)人工知能をめぐる意識と環境と身体の理論(下)
人工知能をめぐる 意識と環境と身体の理論(下)
 
CHI 2021 Human, ML & AI のまとめ
CHI 2021 Human, ML & AI のまとめCHI 2021 Human, ML & AI のまとめ
CHI 2021 Human, ML & AI のまとめ
 
第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る
第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る
第6回 KAIM 金沢人工知能勉強会 人工知能を知るために脳を知る
 
kaneko202304.pptx
kaneko202304.pptxkaneko202304.pptx
kaneko202304.pptx
 
生成AIが切り拓く基礎科学(20231112)
生成AIが切り拓く基礎科学(20231112)生成AIが切り拓く基礎科学(20231112)
生成AIが切り拓く基礎科学(20231112)
 
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)明治大学「ゲーム研究の新時代に向けて」講演資料(上)
明治大学「ゲーム研究の新時代に向けて」講演資料(上)
 
次世代脳シンポジウム(2016年12月19日)
次世代脳シンポジウム(2016年12月19日)次世代脳シンポジウム(2016年12月19日)
次世代脳シンポジウム(2016年12月19日)
 
Neuroscience inspired artificial intelligence
Neuroscience inspired artificial intelligenceNeuroscience inspired artificial intelligence
Neuroscience inspired artificial intelligence
 
ヒト並みの人工知能と現象学
ヒト並みの人工知能と現象学ヒト並みの人工知能と現象学
ヒト並みの人工知能と現象学
 
Frantz2003
Frantz2003Frantz2003
Frantz2003
 
Cognitive science for the development of human like ai
Cognitive science for the development of human like aiCognitive science for the development of human like ai
Cognitive science for the development of human like ai
 
20170904 ドレイファス勉強会河村スライド
20170904 ドレイファス勉強会河村スライド20170904 ドレイファス勉強会河村スライド
20170904 ドレイファス勉強会河村スライド
 
脳の大統一理論とも呼称される注目の「予測誤差を最小化する自由エネルギー原理とは」
脳の大統一理論とも呼称される注目の「予測誤差を最小化する自由エネルギー原理とは」脳の大統一理論とも呼称される注目の「予測誤差を最小化する自由エネルギー原理とは」
脳の大統一理論とも呼称される注目の「予測誤差を最小化する自由エネルギー原理とは」
 
人工知能をめぐる 意識と環境と身体の理論(上)
人工知能をめぐる意識と環境と身体の理論(上)人工知能をめぐる意識と環境と身体の理論(上)
人工知能をめぐる 意識と環境と身体の理論(上)
 

More from Hiroshi Nakagawa

人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンスHiroshi Nakagawa
 
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例Hiroshi Nakagawa
 
情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会Hiroshi Nakagawa
 
最近のAI倫理指針からの考察
最近のAI倫理指針からの考察最近のAI倫理指針からの考察
最近のAI倫理指針からの考察Hiroshi Nakagawa
 
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会Hiroshi Nakagawa
 
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラHiroshi Nakagawa
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護Hiroshi Nakagawa
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by AnonymizationHiroshi Nakagawa
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料Hiroshi Nakagawa
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」Hiroshi Nakagawa
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-Hiroshi Nakagawa
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017Hiroshi Nakagawa
 
時系列パーソナル・データの プライバシー
時系列パーソナル・データのプライバシー時系列パーソナル・データのプライバシー
時系列パーソナル・データの プライバシーHiroshi Nakagawa
 

More from Hiroshi Nakagawa (20)

人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス人工知能学会大会2020ーAI倫理とガバナンス
人工知能学会大会2020ーAI倫理とガバナンス
 
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例信頼できるAI評価リスト パーソナルAIエージェントへの適用例
信頼できるAI評価リスト パーソナルAIエージェントへの適用例
 
NICT-nakagawa2019Feb12
NICT-nakagawa2019Feb12NICT-nakagawa2019Feb12
NICT-nakagawa2019Feb12
 
情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会情報ネットワーク法学会研究大会
情報ネットワーク法学会研究大会
 
最近のAI倫理指針からの考察
最近のAI倫理指針からの考察最近のAI倫理指針からの考察
最近のAI倫理指針からの考察
 
AI and Accountability
AI and AccountabilityAI and Accountability
AI and Accountability
 
AI Forum-2019_Nakagawa
AI Forum-2019_NakagawaAI Forum-2019_Nakagawa
AI Forum-2019_Nakagawa
 
2019 3-9-nakagawa
2019 3-9-nakagawa2019 3-9-nakagawa
2019 3-9-nakagawa
 
CPDP2019 summary-report
CPDP2019 summary-reportCPDP2019 summary-report
CPDP2019 summary-report
 
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
情報法制研究所 第5回情報法セミナー:人工知能倫理と法制度、社会
 
Ai e-accountability
Ai e-accountabilityAi e-accountability
Ai e-accountability
 
自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ自動運転と道路沿い情報インフラ
自動運転と道路沿い情報インフラ
 
暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護暗号化によるデータマイニングと個人情報保護
暗号化によるデータマイニングと個人情報保護
 
Defamation Caused by Anonymization
Defamation Caused by AnonymizationDefamation Caused by Anonymization
Defamation Caused by Anonymization
 
情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料情報ネットワーク法学会2017大会第8分科会発表資料
情報ネットワーク法学会2017大会第8分科会発表資料
 
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
学術会議 ITシンポジウム資料「プライバシー保護技術の概観と展望」
 
AI社会論研究会
AI社会論研究会AI社会論研究会
AI社会論研究会
 
Social Effects by the Singularity -Pre-Singularity Era-
Social Effects by the Singularity  -Pre-Singularity Era-Social Effects by the Singularity  -Pre-Singularity Era-
Social Effects by the Singularity -Pre-Singularity Era-
 
パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017パーソナル履歴データに対する匿名化と再識別:SCIS2017
パーソナル履歴データに対する匿名化と再識別:SCIS2017
 
時系列パーソナル・データの プライバシー
時系列パーソナル・データのプライバシー時系列パーソナル・データのプライバシー
時系列パーソナル・データの プライバシー
 

人工知能と社会