SlideShare a Scribd company logo
1 of 101
Download to read offline
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド
博士論文公聴会スライド

More Related Content

What's hot

因果推論を用いた 群衆移動の誘導における介入効果推定
因果推論を用いた 群衆移動の誘導における介入効果推定因果推論を用いた 群衆移動の誘導における介入効果推定
因果推論を用いた 群衆移動の誘導における介入効果推定Koh Takeuchi
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
ベータ分布の謎に迫る
ベータ分布の謎に迫るベータ分布の謎に迫る
ベータ分布の謎に迫るKen'ichi Matsui
 
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向SSII
 
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめohken
 
逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎ShoutoYonekura
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾Yoshitake Takebayashi
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-Shiga University, RIKEN
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルohken
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Keigo Nishida
 
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...Deep Learning JP
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2禎晃 山崎
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~Takuya Ono
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデルlogics-of-blue
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence ModelingDeep Learning JP
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門tmtm otm
 

What's hot (20)

因果推論を用いた 群衆移動の誘導における介入効果推定
因果推論を用いた 群衆移動の誘導における介入効果推定因果推論を用いた 群衆移動の誘導における介入効果推定
因果推論を用いた 群衆移動の誘導における介入効果推定
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
ベータ分布の謎に迫る
ベータ分布の謎に迫るベータ分布の謎に迫る
ベータ分布の謎に迫る
 
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
SSII2020 [OS2-03] 深層学習における半教師あり学習の最新動向
 
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめ
 
ゼロから始める転移学習
ゼロから始める転移学習ゼロから始める転移学習
ゼロから始める転移学習
 
逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎逐次モンテカルロ法の基礎
逐次モンテカルロ法の基礎
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾ベイズ推定の概要@広島ベイズ塾
ベイズ推定の概要@広島ベイズ塾
 
統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-統計的因果推論への招待 -因果構造探索を中心に-
統計的因果推論への招待 -因果構造探索を中心に-
 
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデルSliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
 
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
 
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
[DL輪読会]Model soups: averaging weights of multiple fine-tuned models improves ...
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2PRML 上 2.3.6 ~ 2.5.2
PRML 上 2.3.6 ~ 2.5.2
 
NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~NLPにおけるAttention~Seq2Seq から BERTまで~
NLPにおけるAttention~Seq2Seq から BERTまで~
 
2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル2 6.ゼロ切断・過剰モデル
2 6.ゼロ切断・過剰モデル
 
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 

Recently uploaded

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 

Recently uploaded (11)

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 

Editor's Notes

  1. 構成を述べる. 目次を少し細かく分類したほうがいいかも.
  2. 削除
  3. 削除
  4. 次に研究目標について説明します.本研究では,問題間の類似度の正確な算出の要件として以下の3つをあげます.類似問題を漏れなく検索すること,類似問題だけを検索すること,類似問題を上位に検索することです./上の2つの要件を評価する指標としては,情報検索の分野で一般的に用いられている再現率と適合率を用います.また,3番目の要件を評価するためには検索結果に閾値を設けて再現率,適合率を算出することにより評価を行います. /例えば,ある問題に対してこのように類似問題と類似問題でない問題が存在するとします./このように,類似問題だけが検索される場合,適合率が100%となり,/このように,類似問題がすべて検索される場合,再現率は100%となります. /再現率と適合率は以下のような式で表わされ,閾値を下げ検索される問題数を増やすと,再現率は向上し適合率は低下します.また,閾値を上げ検索される問題数を絞ると再現率は低下し適合率は向上します.このように両者の間にはトレードオフの関係が成り立っています./この再現率・適合率の向上を目標とします.
  5. ここで,一般的な類似度算出手順について簡単に説明します.まず,重要な語の出現箇所を決定し,問題情報のどの部分を使用するか決定します./決定されたテキストを形態素解析し語を抽出します./そして,抽出された語の中から不要となる語を削除します./さらに,残された語に対して重みづけを行い,/最後に重みによってベクトルで表わされた問題間の類似度を算出します.
  6. ここで,技術的な課題とアプローチについて説明します.語の重要性の判断について,問題の類似度を算出する上で重要となる語は既存手法のような語の出現頻度や出現分布から判断することができません.従って,先ほどの重み付けや不要語の削除において既存手法を適用することができません./そこで,本研究では,問題情報の決定において精度の向上を図るというアプローチをとります./具体的には,語を抽出するテキスト情報を自動で絞り込みます.
  7. ここで,技術的な課題とアプローチについて説明します.語の重要性の判断について,問題の類似度を算出する上で重要となる語は既存手法のような語の出現頻度や出現分布から判断することができません.従って,先ほどの重み付けや不要語の削除において既存手法を適用することができません./そこで,本研究では,問題情報の決定において精度の向上を図るというアプローチをとります./具体的には,語を抽出するテキスト情報を自動で絞り込みます.
  8. このアプローチを達成させるためのアプローチは以下の4つになります.まず,類似問題の定義です.これにより重要となる語を明確にし,また,評価の指標とします.2つ目に,語の抽出単位の検討です.重要な語の構造を分析し,語の抽出単位を明確にします.3つ目は,出現箇所の特定です.重要な語が問題情報のどこに含まれているのかを分析して特定します.最後に出現箇所の自動決定方法の検討です.出現箇所を自動で決定できるような手法を検討します.
  9. このアプローチを達成させるためのアプローチは以下の4つになります.まず,類似問題の定義です.これにより重要となる語を明確にし,また,評価の指標とします.2つ目に,語の抽出単位の検討です.重要な語の構造を分析し,語の抽出単位を明確にします.3つ目は,出現箇所の特定です.重要な語が問題情報のどこに含まれているのかを分析して特定します.最後に出現箇所の自動決定方法の検討です.出現箇所を自動で決定できるような手法を検討します.
  10. 本研究では,類似問題を問題で問われている知識や解決の中心となる知識が一致する問題と定義します./問題は1つまたは複数の知識を中心に作成されることから,このような知識に着目した定義としました.以下,この知識を対象知識と呼ばせて頂きます./また,対象知識は5種類の単位が存在します.この表は,対象知識の構造を分析した結果です.単名詞か複合名詞,また,日本語か英語かによって5種類の単位に分類されます.この定義を類似問題を評価する際の指標とします.
  11. 出題パターンの説明
  12. 出題パターンの説明
  13. 出題パターンの説明
  14. 本研究では,類似問題を問題で問われている知識や解決の中心となる知識が一致する問題と定義します./問題は1つまたは複数の知識を中心に作成されることから,このような知識に着目した定義としました.以下,この知識を対象知識と呼ばせて頂きます./また,対象知識は5種類の単位が存在します.この表は,対象知識の構造を分析した結果です.単名詞か複合名詞,また,日本語か英語かによって5種類の単位に分類されます.この定義を類似問題を評価する際の指標とします.
  15. 本研究では,類似問題を問題で問われている知識や解決の中心となる知識が一致する問題と定義します./問題は1つまたは複数の知識を中心に作成されることから,このような知識に着目した定義としました.以下,この知識を対象知識と呼ばせて頂きます./また,対象知識は5種類の単位が存在します.この表は,対象知識の構造を分析した結果です.単名詞か複合名詞,また,日本語か英語かによって5種類の単位に分類されます.この定義を類似問題を評価する際の指標とします.
  16. 以上の結果から,出現箇所の自動決定手順を決定することができました.自然言語処理技術を利用し,各記述形式を解析して出現箇所を決定します.
  17. 現段階で、提案する類似度算出手法について説明します。まず、先ほど述べてたように、出現箇所を自動で決定します。/決定された箇所を形態素解析し、5種類の単位で語を抽出します。/不要語の削除では上位概念を表す語、問題の決まり文句に含まれる語を削除します。/そして、重み付けでは、2進重みを利用します。これは、残っている語に対してすべて1を付与します。/また、キーワードに含まれる語が存在する場合は1加えます。/最後に余弦によって類似度を算出します。
  18. 約1/13削減
  19. ここまでで6分台目安.
  20. ここで,技術的な課題とアプローチについて説明します.語の重要性の判断について,問題の類似度を算出する上で重要となる語は既存手法のような語の出現頻度や出現分布から判断することができません.従って,先ほどの重み付けや不要語の削除において既存手法を適用することができません./そこで,本研究では,問題情報の決定において精度の向上を図るというアプローチをとります./具体的には,語を抽出するテキスト情報を自動で絞り込みます.
  21. α:トピックの生成確率を得るためのパラメータ β:トピックに応じて単語の生成確率を得るためのパラメータ
  22. θに関して積分し,zに関して和を取ることによって,文書の生成確率を得ることができる. α:トピックの生成確率を得るためのパラメータ β:トピックに応じて単語の生成確率を得るためのパラメータ
  23. ここで,技術的な課題とアプローチについて説明します.語の重要性の判断について,問題の類似度を算出する上で重要となる語は既存手法のような語の出現頻度や出現分布から判断することができません.従って,先ほどの重み付けや不要語の削除において既存手法を適用することができません./そこで,本研究では,問題情報の決定において精度の向上を図るというアプローチをとります./具体的には,語を抽出するテキスト情報を自動で絞り込みます.
  24. 共起行列を作成する際に,全てのテキスト情報を用いてしまうと精度が向上しない. 単語間の共起性をある程度考慮に入れる必要があり,そのための前処理が必要になる. そこで,対象知識の出現箇所を自動で決定し,そこに含まれる単語から共起行列を作成する.
  25. 共起行列を作成する際に,全てのテキスト情報を用いてしまうと精度が向上しない. 単語間の共起性をある程度考慮に入れる必要があり,そのための前処理が必要になる. そこで,対象知識の出現箇所を自動で決定し,そこに含まれる単語から共起行列を作成する.
  26. 共起行列を作成する際に,全てのテキスト情報を用いてしまうと精度が向上しない. 単語間の共起性をある程度考慮に入れる必要があり,そのための前処理が必要になる. そこで,対象知識の出現箇所を自動で決定し,そこに含まれる単語から共起行列を作成する.
  27. 現段階で,提案する類似度算出手法について説明します.まず,先ほど述べてたように,出現箇所を自動で決定します./決定された箇所を形態素解析し,5種類の単位で語を抽出します./不要語の削除では上位概念を表す語,問題の決まり文句に含まれる語を削除します./そして,重み付けでは,2進重みを利用します.これは,残っている語に対してすべて1を付与します./また,キーワードに含まれる語が存在する場合は1加えます./最後に余弦によって類似度を算出します.