XAI-SA 2024, Opening talk

XAI-SA Workshop
24 Apr 202406:36

Summary

TLDRこのビデオスクリプトは、説明可能な機械学習(AI)に関するワークショップの概要を提供しています。ディープラーニングの進展により、ブラックボックスモデルが増え、その解釈性が失われています。ワークショップの目的は、これらのモデルを透明化し、ホストウェア解釈方法や解釈可能なモデルの設計など、様々な解決策を探求することです。20の論文発表、4つの口頭発表、ポスターセッション、および招待されたスピーカーのトークが予定されており、音楽、音声、音響の分野における解釈可能なAIの進歩を探求します。

Takeaways

  • 😀 イベントは説明可能な機械学習(説明可能なAI)についての議論を中心としています。
  • 🕵️‍♂️ 説明可能な機械学習は、ディープラーニングの黒箱モデルを透明化する試みです。
  • 🛠️ 説明可能性の向上には、モデルの解釈方法やモデルの設計方法など、いくつかの解決策があります。
  • 📈 今日のワークショップでは、招待されたスピーカーのプレゼンテーションや多数の論文発表が行われます。
  • 🎓 招待されたスピーカーには、音楽機械学習の解釈可能性、解釈可能なモデルとポスト解釈、ディープラーニングのオーディオ処理、AIモデルのデータ記憶の調査、解釈可能なスピーチモデル、オーディオ分類のためのNMFの使用などのトピックが含まれています。
  • 🗓️ 20件のポスター発表と4つの口頭発表が予定されており、参加者は全てポスターセッションに参加する予定です。
  • 📊 提出した論文は、解釈可能なモデル、ポスト解釈方法の適用、音楽や音声の分析、メソッド論的なAIの分野にわたります。
  • 🤝 ワークショップの目標は、この分野で働く人々を集め、協力を促進し、新しいアイデアを出そうとしています。
  • 📹 イベントはYouTubeチャンネルで録画され、招待されたトークも同様にアップロードされる予定です。
  • 📢 参加者は、パネルディスカッションでインタラクティブな議論に参加し、質問をすることができます。

Q & A

  • このワークショップの主なテーマは何ですか?

    -このワークショップの主なテーマは、説明可能な機械学習(説明可能なAI)です。ディープラーニングの進展により、ブラックボックスモデルが増えたことで、それらを透明化しようとする取り組みが議論されています。

  • ブラックボックスモデルとは何を指し、なぜ問題になるのですか?

    -ブラックボックスモデルとは、内部のメカニズムや動作が理解できないモデルを指します。問題になるのは、そのモデルの判断プロセスが透明でなく、検証や信頼性が確保できないためです。

  • 説明可能な機械学習のアプローチにはどのようなものがありますか?

    -説明可能な機械学習のアプローチには、元のモデルを変更せずにトレーニング後に何が起こっているか理解するためのホストウェア解釈方法、または最初から解釈可能なモデルを設計する方法があります。

  • ワークショップの目標は何ですか?

    -ワークショップの目標は、この分野で活動している人々を集め、協力を促進し、良いアイデアを出すことです。

  • ワークショップで何人のポスター発表が行われますか?

    -ワークショップで20人のポスター発表が行われます。

  • ワークショップの日程にどのようなセッションがありますか?

    -ワークショップの日程には、4つの口頭発表、ポスターセッション、および特別な招待講演が含まれています。

  • 招待されたスピーカーの分野は何ですか?

    -招待されたスピーカーは、音声や音響の専門家、メソッドロジーの機械学習研究者など、説明可能なAI分野に貢献する専門家です。

  • ポスター発表の最初のセッションは何時に始まりますか?

    -ポスター発表の最初のセッションは午前10時に始まります。

  • ワークショップのビデオはどこで見ることができますか?

    -ワークショップのビデオは、ワークショップのYouTubeチャンネルで見ることができます。

  • このワークショップで取り上げられる音楽の分野における説明可能性のスペクトルとは何を指しますか?

    -音楽の分野における説明可能性のスペクトルは、音楽の機械学習モデルを理解するための解釈可能性の範囲を指しており、Ethanの講演で詳しく説明される予定です。

  • ワークショップの最終日に何が行われますか?

    -ワークショップの最終日にパネルディスカッションが行われ、参加者は質問を投げかけ、アイデアを出し合うことが期待されています。

Outlines

00:00

😀 解释型AIの紹介とワークショップの目的

この段落では、説明可能な機械学習(AI)のワークショップが始まります。講演者は、ディープラーニングの登場によりモデルがブラックボックス化する傾向があり、その解釈可能性を高めるために説明型機械学習の重要性を強調しています。ワークショップの目的は、この分野で活動している人々を集め、協力を促進し、新しいアイデアを生み出すことです。当日のプログラムには、20の論文発表、4つの口頭発表、ポスターセッションが含まれています。招待されたスピーカーからは、音楽の機械学習、解釈可能なモデルとポスト解釈方法、音声と音響の分野におけるハイブリッド深層神経ネットワークの説明、そしてAIオブジェクトモデルのトレーニングデータのメモ化に関する調査など、多岐にわたるトピックが扱われます。

05:00

📚 レビューアーの感謝とワークショップの詳細

第2段落では、ワークショップの準備と運営に関わった主催者とレビュアーに感謝の意を表しています。それぞれの論文は最低3回、多くの場合は4回のレビューを受け、合計66回のレビューが行われました。また、ワークショップのYouTubeチャンネルについても触れており、ビデオの提出を促しています。イベントは記録されており、参加者は笑顔でカメラに向かっていることが求められています。段落の最後に、次の講演者であるEthanの紹介と、彼のセッションの開始が行われます。

Mindmap

Keywords

💡説明可能機械学習

説明可能機械学習とは、ディープラーニングなどのブラックボックスモデルを理解しやすくするための技術や手法のことを指します。このビデオでは、ディープラーニングの普及によりモデルがブラックボックス化する傾向があり、その解釈性を取り戻すことが重要視されています。例えば、「explainable machine learning」という用語は、ビデオの冒頭で紹介され、その重要性が強調されています。

💡ディープラーニング

ディープラーニングは、人工知能の分野における高度なアルゴリズムのことで、特にニューラルネットワークを指します。ビデオではディープラーニングが普及したことでモデルがブラックボックス化し、その解釈性が失われることが問題視されています。例えば、「before deep learning you happened uh this wasn't really kind of like a feeli because, models were interpretable」という文脈で言及されています。

💡ブラックボックスモデル

ブラックボックスモデルは、内部のメカニズムやプロセスが外部からわからないようなモデルのことを指します。ビデオでは、ディープラーニングが原因で多くのモデルがブラックボックス化し、その中身を理解することが難しくなったと指摘しています。例えば、「the chances are that we, have blackbox models in what we do」という文脈で使用されています。

💡ホストウェア解釈方法

ホストウェア解釈方法とは、モデルのトレーニング後に何らかの方法を用いてモデルの動作を理解することです。ビデオでは、オリジナルのモデルを変更せずに、トレーニング後に解釈を行う手法が提案されています。例えば、「we will see like uh today people will, talk about host HW interpretation, methods where um you don't touch the, original model」という文脈で説明されています。

💡解釈可能なモデル

解釈可能なモデルとは、設計段階で解釈性を持たせたモデルのことを指します。ビデオでは、ブラックボックスモデルの代わりに、解釈可能なモデルを設計することでモデルの理解を容易にするというアプローチが議論されています。例えば、「you could um uh just design an interpretable, model to begin with」という文脈で言及されています。

💡トレードオフ

トレードオフとは、2つの以上の選択肢がある場合、一方を選択することで他方を犠牲にする必要がある状況を指します。ビデオでは、解釈性のあるモデルとディープラーニングモデルの間でトレードオフが存在することを示唆しています。例えば、「there's a trade-off, to explore uh」という文脈で使用されています。

💡スペクトログラム

スペクトログラムは、音声や音楽などの信号を周波数と時間の関数で可視化したグラフです。ビデオでは、スペクトログラムを入力とした際に、モデルが特定の領域に注目していることを解釈する方法が説明されています。例えば、「how can we like what happens if you, have like a spectrogram input your, explainer kind of focus on a particular, area」という文脈で言及されています。

💡音楽機械学習

音楽機械学習とは、音楽に関するデータを使って機械学習モデルをトレーニングし、音楽に関するタスクを自動化する技術のことを指します。ビデオでは、音楽機械学習における解釈性の問題が議論されており、特定のトークがその分野について話す予定とされています。例えば、「Ethan we there uh he will, talk about um spectrum of, interpretability for music machine, learning」という文脈で使用されています。

💡ポスターセッション

ポスターセッションとは、研究者が自分の研究成果をポスターで発表し、参加者が自由に交流する形式のセッションです。ビデオでは、ポスターセッションが行われ、参加者がポスターを用意し、交流することが期待されています。例えば、「the first poster session is, at 10 uh so we ask you to set up set up, your, poster uh at 10」という文脈で説明されています。

💡パネルディスカッション

パネルディスカッションとは、専門家やスペシャリストが座り、特定のテーマについて議論する形式のイベントです。ビデオでは、ビデオの最後にパネルディスカッションが予定されており、参加者が積極的に質問し、アイデアを共有することが期待されています。例えば、「at, the end of today we will have a panel, discussion with these wonderful, panelists」という文脈で言及されています。

Highlights

Explainable AI aims to make black box models transparent.

Different solutions include post hoc interpretation methods and designing interpretable models from the start.

There is a trade-off between model complexity and interpretability.

The workshop will feature presentations on various explainable AI methods and applications.

The goal is to foster collaborations and generate new ideas in the field of explainable AI.

There will be 20 paper presentations, including four oral presentations and 20 poster presentations.

Submissions cover topics like interpretable models, post hoc explanation methods, and applications in speech and audio.

Invited speakers include experts from the speech and audio community and a renowned AI researcher.

Ethan will discuss the spectrum of interpretability for music machine learning.

Cynthia Rudin will compare interpretable models with post hoc interpretations.

Professor Grishar will talk about hybrid and interpretable deep neural audio processing.

Gordon Wi will discuss understanding, probing, and training data memorization in AI models.

Professor Shinji will talk about explainable speech foundation models.

Dr. Janel Pahik will discuss using NMF for interpretable audio classification.

A panel discussion with the invited speakers will conclude the workshop.

The workshop schedule and details are available on the website.

Poster presenters are asked to set up their posters at 10 AM.

The workshop is recording the event for future reference.

The workshop has a YouTube channel for video submissions and recordings.

Transcripts

play00:01

right I think we'll get started um so

play00:04

thanks a lot everyone for uh being here

play00:07

uh 8:30 in the morning um so today it's

play00:11

going to be about explainable machine

play00:12

learning explainable AI we word like

play00:14

machine learning AI intership

play00:16

interchangeably in the title

play00:19

um

play00:22

so let me say uh what is explainable

play00:24

machine learning so I guess few years

play00:27

ago this wasn't like before deep

play00:29

learning you happened uh this wasn't

play00:31

really kind of like a feeli because

play00:33

models were interpretable but like with

play00:37

uh you know everything being deep

play00:38

learning now uh the chances are that we

play00:41

have blackbox models in what we do so

play00:44

basically with explainable machine

play00:45

learning what we try to do is to somehow

play00:48

make these black boxes uh transparent

play00:51

right there's different solutions like

play00:54

we will see like uh today people will

play00:56

talk about host HW interpretation

play00:59

methods where um you don't touch the

play01:02

original model but you do something else

play01:04

after training to U uh understand what's

play01:07

going on going on in in the model or you

play01:10

could um uh just design an interpretable

play01:13

model to begin with there's a trade-off

play01:15

to explore uh so we will see see these I

play01:19

guess in the presentations uh of the

play01:21

invited talks today and

play01:23

also uh there will be quite a few of

play01:26

papers so you'll see that there also

play01:28

here like I just like show for instance

play01:31

uh how can we like what happens if you

play01:33

have like a spectrogram input your

play01:36

explainer kind of focus on a particular

play01:38

area in this case it was like a chirp so

play01:40

you see that maybe you cannot see

play01:42

because the colors uh but like a with an

play01:45

explain with the explanation methods we

play01:47

are able to kind of like show where the

play01:49

model is focusing on U but this Workshop

play01:52

so explaining explainable AI is a

play01:55

develop developing field right um and

play01:59

basically this workshop's goal is to

play02:01

bring together people who are working in

play02:03

this field and hopefully you know like

play02:05

uh Foster collaborations and uh uh come

play02:09

up with some nice ideas hopefully at the

play02:11

end of the day uh so today we will have

play02:14

20 paper presentations uh there will be

play02:17

four oral presentations and in total we

play02:19

will have 20 posters so everybody will

play02:22

do a poster presentation um I'll talk

play02:25

more about the details but like uh we

play02:27

had submissions on interpret

play02:30

models about application of different

play02:33

post talk explanation methods on various

play02:35

various speech and audio applications we

play02:37

had some papers on analysis of llms for

play02:40

music and we also have some

play02:42

methodological explainable AI

play02:45

papers so um we also have invited

play02:48

speakers from the speech and audio like

play02:50

iasp community and also uh we have a

play02:53

methodological machine learning talk uh

play02:55

from a uh from a renowned XI researcher

play02:59

uh um so with that uh we will start

play03:03

today with Ethan we there uh he will

play03:06

talk about um spectrum of

play03:09

interpretability for music machine

play03:11

learning then we will have Cynthia Rudin

play03:14

Professor C Cynthia Ruden from Duke

play03:15

University she will talk about um

play03:20

interpretable models versus uh uh you

play03:22

know post interpretations it will be

play03:24

right after uh Ethan's talk then we will

play03:27

have Professor G rishar from uh

play03:30

telec comp part um it will be about

play03:34

hybrid and interpretable deep neural

play03:35

audio processing it will be after the

play03:38

oral talks 11 15 then we will have

play03:42

Gordon wiin from uh from mer there uh so

play03:46

it will be about uh basically

play03:49

understanding reg tating investigations

play03:52

into probing and training data

play03:54

memorization of AIO Genera models we had

play03:57

one uh then we have Professor Shinji

play04:00

vatan there it's about uh the talk is

play04:04

about toward explainable speech

play04:06

Foundation

play04:07

models and then finally we will have Dr

play04:10

Janel parik on using nmf uh for

play04:14

interpretable audio classification this

play04:16

will be the last talk and in the end at

play04:19

the end of today we will have a panel

play04:21

discussion with these wonderful

play04:23

panelists and hopefully you know it will

play04:25

be an interactive panel so that you know

play04:28

uh you'll ask questions and and we'll

play04:30

come up with ideas hopefully um so let

play04:33

me exp so this is the

play04:35

schedule uh you can find it on the

play04:38

website uh but for the poster presenters

play04:42

basically so the first poster session is

play04:44

at 10 uh so we ask you to set up set up

play04:49

your

play04:49

poster uh at 10 um and basically

play04:54

everybody will present in all the

play04:56

sessions okay uh we'll probably remove

play04:59

some of the

play05:00

chairs back there so that that people

play05:02

have more

play05:04

space um and the organizers so myself

play05:08

Jam suban Franchesco pan over there m

play05:12

rali who's uh not here Shang gupa bcar

play05:16

jman who's on Zoom uh and Paris I don't

play05:19

know where Paris is is like back

play05:22

on yeah um so uh these are our wonderful

play05:28

reviewers um

play05:30

basically we made we tried well each

play05:32

paper had received received at least

play05:35

three reviews and most in most cases we

play05:39

had four reviews and uh in total 66

play05:42

reviews were

play05:44

written uh we thank to reviewers for

play05:46

their

play05:47

work and one last thing we have a

play05:49

YouTube channel so for the authors uh if

play05:53

you haven't sent your video yet please

play05:55

send it to us on our Workshop

play05:58

email um

play06:00

yeah some of us some some of you already

play06:02

did that like and it's on the on the

play06:05

YouTube channel of the of the

play06:08

workshop and we will uh we will put also

play06:11

all the invited talks on the on our

play06:13

YouTube

play06:14

channel uh oh we are recording the uh

play06:18

the event and there's like a camera so

play06:20

uh make sure to smile and uh that's it

play06:24

for me and uh we will continue with uh

play06:28

Ethan so Franchesco will introduce Ethan

play06:32

but maybe yeah Ethan maybe you can come

play06:33

and you can set up everything

Rate This

5.0 / 5 (0 votes)

関連タグ
説明可能AI深層学習解釈モデルセミナー研究者オーラルプレゼンテーションポスターセッション音楽解析音声処理AI教育