2. Does Clickbait Actually Attract More Clicks?
Three Clickbait studies you must read
D. Molina, Maria1 and Sundar, S. Shyam2 and Rony, Md Main Uddin3 and Hassan, Naeemul3 and Le, Thai2 and Lee, Dongwon2
1Michigan State University 2The Pennsylvania State University 3University of Maryland
クリックベイト(クリックさせるような誇⼤広告)と
⾃動判別器が認識したものはあんまりクリックしないという理由を分析した
なぜ?
⼀⾒⽭盾した知⾒
例︓クリックベイトの定義が
難しすぎるから
3. Human Perceptions on Moral Responsibility of AI: A
Case Study in AI-Assisted Bail Decision-Making
Lima, Gabriel1 and Grgic-Hlaca, Nina2 and Cha, Meeyoung3
1KAIST 2Max Planck Institute for Software Systems 3Institute for Basic Science
保釈の意思決定を⼈間やAIがアドバイスする際に
いずれのアドバイザーもアドバイスを正当化する責任があると⽰された
説明責任は︖
説明可能なAI (XAI) は重要︕
保釈の意思決定をしましょう
4. Towards Fairness in Practice: A Practitioner-Oriented
Rubric for Evaluating Fair ML Toolkits
Richardson, Brianna1 and Garcia-Gathright, Jean1 and Way, Samuel F. 1 and Thom, Jennifer1 and Cramer, Henriette1
1Spotify
公平性を担保する機械学習⽤ツールはユーザーの意思決定に⼤きな影響を
与えるものの、公平性の実証には多くの課題があることがわかった
公平なモデルを決定しましょう モデルによりデプロイしたさがかわる
公平性を担保するツールを使ったら︖
5. Manipulating and Measuring Model Interpretability
Poursabzi-Sangdeh, Forough1 and Goldstein, Daniel G1 and Hofman, Jake M1 and Wortman Vaughan, Jennifer
Wortman1 and Wallach, Hanna1
1Microsoft Research
解釈可能なモデルを開発するには、
開発者の直感よりも⼈間による厳密な実験が重要であることを⽰した
モデルの解釈可能性ってなんだろう
いくつかのモデルについて3800⼈に聞いてみた
直観に反する結果が得られた。
⼈間による厳密な実験が必要だ。
6. Effects of Communication Directionality and AI Agent
Differences in Human-AI Interaction
Ashktorab, Zahra1 and Dugan, Casey1 and Johnson, James1 and Pan, Qian1 and Zhang, Wei1 and Kumaravel, Sadhana1 and Campbell, Murray2
1IBM Research 2IBM T.J. Watson Research Center
ある共同ゲームの⼤規模な実験を⾏い、エージェントがAIや⼈間と
認識されている場合などに、社会的認知などに有意な差があることを発⾒した
単語ゲームという相⼿が秘密にしている単語を
推察して当てるゲームにおいて、社会的認知はどうなるのか
どうもモデルごとで違うらしい
⼤規模実験してみた
7. Engaging Teachers to Co-Design Integrated AI
Curriculum for K-12 Classrooms
Lin, Phoebe1 and Van Brummelen, Jessica2
1Harvard University 2MIT
⼩中⾼校の教師は、倫理やデータに関する議論を円滑に進めるために、
AIツールやカリキュラムに追加の⾜場を必要としていることがわかった
ワークショップしてみた
⼩中⾼校の教育にAIカリキュラムは
求められているのか︖
いろいろな⾯から求められていた
8. Towards Understanding Perceptual Differences
between Genuine and Face-Swapped Videos
Wohler, Leslie1 and Zembaty, Martin1 and Castillo, Susana1 and Magnor, Marcus2
1TU Braunschweig 2Institut für Computergraphik,
本物の動画と顔交換された動画を視聴者が⾒⽐べたときに
視覚的な認識の仕⽅に定量的な違いが⾒られた
ディープフェイクとかの顔交換アプリが
世の中に出回っているが
本当に視聴者は⾒分けられるのだろうか︖
視線計測器などで調べてみた
どうも潜在的に⾒分けれているらしい
9. Domestic Robots and the Dream of Automation:
Understanding Human Interaction and Intervention
Schneiders, Eike1 and Kanstrup, Anne Marie1 and Kjeldskov, Jesper1 and Skov, Mikael B. 1
1Aalborg University
家庭⽤ロボットを使った家事の⾃動化を
家庭内でどのように実現できるかをインタビューなどにより分析した
インタビューなどして調べてみた
家庭⽤ロボットの研究って
パーソナライゼーションとか
ばっかりやっているけど、
本当にそれは求められているの︖
全然違った。
例︓タスクのルーチン化や
⾃動化のほうが⼤切だとわかった
10. Designers Characterize Naturalness in Voice User
Interfaces: Their Goals, Practices, and Challenges
Kim, Yelim1 and Reza, Mohi1 and McGrenere, Joanna1 and Yoon, Dongwook1
1University of British Columbia
タスク指向のVUI (Voice User Interface) に
⾃然さを備える際の問題などで開発者の課題に関する知⾒を得た
インタビューなどして調べてみた
VUIの⾃然さって
どのように設計したらいいの︖
例えば、同情を表現すると
⾃然になるよ
あと、SSMLはクソ
11. Trade-Offs for Substituting a Human with an Agent in a Pair
Programming Context: The Good, the Bad, and the Ugly
Kuttal, Sandeep Kaur1 and Ong, Bali1 and Kwasny, Kate1 and Robe, Peter1
1University of Tulsa
対話エージェントがペアプログラミングのパートナーとして
効果的に機能することを⽰した
Wizard of Oz法を使って調べてみた
ペアプログラミングのアシスタントを
対話エージェントに置き換えても
利益は得られるのか︖
例︓⼗分な利益が得られたし、
対話エージェントと⼈間との有意差
はなかった
12. What Do We See in Them? Identifying Dimensions of Partner
Models for Speech Interfaces Using a Psycholexical Approach
Doyle, Philip R1 and Clark, Leigh2 and Cowan, Benjamin R.1
1University College Dublin 2Swansea University
VUIをもつエージェントは、⼈間らしさ、反応性と信頼性、
認知能⼒の柔軟さの3つの軸でユーザから認識されていると⽰した
いろんな⽅法で形容詞を集め、
専⾨家などが形容詞を絞り、
その後、SD法して集めたデータを
PCAして軸を調べてみた
VUIを持つエージェントって
どんなパートナーとしてみてるの︖
3つの軸の観点から
⾒ているみたいだよ
13. Effect of Information Presentation on Fairness
Perceptions of Machine Learning Predictors
van Berkel, Niels1 and Goncalves, Jorge2 and Russo, Daniel1 and Hosio, Simo3 and Skov, Mikael B. 1
1Aalborg University 2The University of Melbourne 3University of Oulu
AIシステムが提⽰する結果に対する公平性への認識は
可視化する⼿法、シナリオ、性別や過去の教育が変えることを⽰した
AIシステムの公平性って
⼈々からどう⾒られているの︖
データを可視化して
調べてみた
例︓可視化⽅法によって
公平性が異なることがわかった
14. The Technology-Mediated Reflection Model:
Barriers and Assistance in Data-Driven Reflection
Bentvelzen, Marit1 and Niess, Jasmin2 and Woundefinedniak, Pawel W. 1
1Utrecht University 2University of Bremen
フィットネストラッカーのユーザーにインタビューして、
「技術を媒介とする内省モデル」を作った
フィットネストラッカーとかから得られた
パーソナルデータをどう内省すればよいのか︖
オンラインでインタビューしてみた
なんかすごいモデルができた