audio
audioduration (s)
24.1
30
transcription
stringlengths
151
474
path
stringlengths
15
18
condition_on_prev
sequencelengths
66
254
whisper_transcript
stringlengths
203
829
好 各 位 同 學 大 家 好 我 們 來 上 課 吧 好 那 接 下 來 啊 我 們 要 講 decoder 那 我 們 上 上 週 呢 已 經 講 了 encoder 那 接 下 來 呢 我 們 要 講 decoder 那 decoder 呢 其 實 有 兩 種 等 一 下 呢 會 花 比 較 多 時 間 介 紹 你 比 較 常 見 的 這 個 叫 做 autoregressive 的 decoder 那 這 個 autoregressive 的 decoder 是 怎 麼 運 作 的 呢 那 等 一 下 我 們 是 用 語 音 辨 識
ML2021_ASR_ST-0
null
<|startoftranscript|><|zh|><|transcribe|><|0.00|>好,各位同學大家好,我們來上課吧<|3.32|><|3.32|>那接下來我們要講decoder<|7.28|><|7.28|>我們上上週已經講了encoder<|11.40|><|11.40|>那接下來我們要講decoder<|14.16|><|14.16|>那decoder其實有兩種<|16.84|><|16.84|>等一下會花比較多時間介紹<|20.24|><|20.24|>比較常見的,這個叫做autoregressive decoder<|24.68|><|24.68|>那這個autoregressive decoder是怎麼運作的呢?<|27.72|><|27.72|><|endoftext|>
來 當 作 例 子 來 跟 大 家 說 明 或 用 在 作 業 裡 面 的 機 器 翻 譯 其 實 是 一 模 一 樣 的 你 只 是 把 輸 入 輸 出 改 成 不 同 的 東 西 而 已 好 那 語 音 辨 識 是 怎 麼 做 的 呢 語 音 辨 識 你 知 道 語 音 辨 識 就 是 輸 入 一 段 聲 音 輸 出 一 串 文 字 那 你 會 把 一 段 聲 音 輸 入 給 encoder 比 如 說 你 對 機 器 說 機 器 學 習 機 器 收 到 一 段 聲 音 訊 號 聲 音 訊 號 呢 進 入 encoder 以 後 輸 出 會 是 什 麼 呢
ML2021_ASR_ST-1
[ 50361, 50364, 2131, 11, 22073, 13089, 21372, 15248, 11, 5884, 3763, 5708, 3549, 110, 6062, 50530, 50530, 4184, 40012, 5884, 4275, 11932, 42821, 19866, 50728, 50728, 5884, 5708, 5708, 38003, 25338, 11932, 2289, 22660, 19866, 50934, 50934, 4184, 40012, 5884, 4275, 11932, 42821, 19866, 51072, 51072, 4184, 42821, 19866, 14139, 2412, 16313, 16516, 51206, 51206, 24554, 6236, 20127, 25174, 6392, 20788, 30312, 38193, 51376, 51376, 11706, 23915, 11279, 10470, 1546, 11, 6287, 19855, 10907, 1375, 418, 3091, 488, 979, 19866, 51598, 51598, 4184, 6287, 1375, 418, 3091, 488, 979, 19866, 1541, 11614, 32772, 11914, 1546, 6240, 30, 51750, 51750 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>來當作例子來跟大家說明<|2.00|><|2.00|>不過用在作業裡面的機器翻譯<|4.80|><|4.80|>其實是一模一樣的<|7.00|><|7.00|>你只是把輸入輸出改成不同的東西而已<|11.40|><|11.40|>好那語音辨識是怎麼做的呢<|13.40|><|13.40|>語音辨識你知道語音辨識就是輸入一段聲音<|16.20|><|16.20|>輸出一串文字<|18.10|><|18.10|>那你會把一段聲音輸入給encoder<|21.50|><|21.50|>比如說你對機器說機器學習<|23.80|><|23.80|>機器收到一段聲音訊號<|25.60|><|25.60|>聲音訊號進入encoder以後<|27.80|><|27.80|>輸出會是什麼呢<|29.00|><|endoftext|>
輸 出 會 變 成 一 排 vector 那 我 們 上 週 花 了 很 多 時 間 講 encoder 裡 面 有 什 麼 樣 的 內 容 它 裡 面 非 常 地 複 雜 如 果 你 忘 了 的 話 就 算 了 你 就 記 得 說 encoder 做 的 事 情 就 是 輸 入 一 個 vector sequence 輸 出 另 外 一 個 vector sequence 那 接 下 來 呢 就 輪 到 decoder 運 作 了 decoder 要 做 的 事 情 就 是 產 生 輸 出 接 下 來 輪 到 decoder 產 生 語 音 辨 識 的 結 果
ML2021_ASR_ST-2
[ 50361, 50364, 3763, 13118, 11914, 17797, 7626, 3763, 47349, 4622, 11100, 50464, 50464, 28193, 9254, 3581, 11914, 27119, 32399, 1546, 17543, 34386, 42716, 11823, 107, 50604, 50604, 14139, 1541, 2257, 41908, 22977, 1546, 50714, 50714, 2166, 36859, 16075, 12290, 116, 14028, 12290, 116, 7781, 34490, 11336, 47123, 1546, 26978, 48420, 50934, 50934, 2131, 4184, 31348, 18034, 9830, 101, 43143, 1541, 11614, 10907, 1546, 6240, 51034, 51034, 31348, 18034, 9830, 101, 43143, 28945, 31348, 18034, 9830, 101, 43143, 5620, 12290, 116, 14028, 2257, 28427, 29454, 18034, 51174, 51174, 12290, 116, 7781, 2257, 940, 110, 17174, 22381, 51269, 51269, 4184, 2166, 6236, 16075, 2257, 28427, 29454, 18034, 12290, 116, 14028, 17798, 22660, 19866, 51439, 51439, 36757, 4622, 2166, 2855, 17543, 34386, 4622, 17543, 34386, 21372, 34025, 51554, 51554, 17543, 34386, 18681, 4511, 2257, 28427, 29454, 18034, 5396, 232, 18616, 51644, 51644, 29454, 18034, 5396, 232, 18616, 18214, 14028, 22660, 19866, 3588, 5661, 51754, 51754, 12290, 116, 7781, 6236, 35851, 6240, 51814 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>輸出會變成一排vector<|2.50|><|2.50|>那我們上週花了很多時間講encoder裡面有什麼樣的內容<|5.88|><|5.88|>它裡面非常的複雜<|7.38|><|7.38|>如果你忘了的話就算了<|8.84|><|8.84|>你就記得說encoder做的事情<|10.98|><|10.98|>就是輸入一個vector sequence<|13.18|><|13.18|>輸出另外一個vector sequence<|15.42|><|15.42|>那接下來呢就輪到decoder運作了<|18.32|><|18.32|>decoder要做的事情就是產生輸出<|22.36|><|22.36|>接下來輪到decoder產生語音辨識的結果<|26.56|><|endoftext|>
那 decoder 怎 麼 產 生 這 個 語 音 辨 識 的 結 果 呢 那 decoder 做 的 事 情 就 是 把 encoder 的 輸 出 先 讀 進 去 那 至 於 怎 麼 讀 進 去 那 這 個 我 們 等 一 下 再 講 我 們 先 你 先 假 設 somehow 就 是 有 某 種 方 法 把 encoder 的 輸 出 讀 到 decoder 裡 面 這 步 我 們 等 一 下 再 處 理 那 decoder 怎 麼 產 生 一 段 文 字 呢 語 音 辨 識 機 器 的 輸 出 就 是 一 段 文 字 decoder 怎 麼 產 生 一 段 文 字 呢 那 首 先 呢
ML2021_ASR_ST-3
[ 50361, 50364, 12290, 116, 7781, 6236, 26327, 11336, 2257, 44647, 303, 1672, 50489, 50489, 46714, 5708, 38003, 20127, 2289, 20778, 20788, 11932, 22660, 19866, 32399, 2412, 7598, 6180, 1546, 28472, 25750, 50658, 50658, 11284, 32399, 48263, 164, 97, 229, 6306, 250, 50733, 50733, 45669, 26677, 2289, 21358, 3111, 19497, 2289, 50806, 50806, 41045, 30872, 4622, 22660, 19866, 10907, 1546, 24675, 50913, 50913, 5620, 12290, 116, 14028, 8990, 303, 1672, 8310, 51023, 51023, 12290, 116, 7781, 26202, 8990, 303, 1672, 8310, 51135, 51135, 4184, 40012, 6240, 3111, 12290, 103, 4511, 42821, 19866, 32772, 11914, 2289, 51280, 51280, 42821, 19866, 4275, 10907, 1546, 24675, 5620, 33299, 8244, 12290, 116, 7781, 51482, 51482, 40012, 12290, 103, 4511, 42821, 19866, 33299, 8244, 31348, 18034, 9830, 101, 43143, 1546, 35181, 51692 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那Decoder怎麼產生這個語音辨識的結果呢?<|3.54|><|3.54|>那Decoder做的事情就是把Encoder的輸出先讀進去<|8.54|><|8.54|>那至於怎麼讀進去,這個我們等一下再講<|12.38|><|12.38|>我們先假設商號就是有某種方法把Encoder的輸出讀到Decoder裡面<|17.76|><|17.76|>這部我們等一下再處理<|19.52|><|19.52|>那Decoder怎麼產生一段文字呢?<|23.20|><|23.20|>語音辨識機器的輸出就是一段文字<|26.06|><|26.06|>Decoder怎麼產生一段文字呢?<|28.06|><|28.06|>那首先呢<|29.06|><|endoftext|>
你 要 先 給 它 一 個 特 殊 的 符 號 這 個 特 殊 的 符 號 呢 代 表 開 始 那 在 助 教 的 投 影 片 裡 面 呢 是 寫 begin of sentence 縮 寫 是 bos 這 邊 會 怕 你 不 知 道 bos 是 什 麼 啦 所 以 我 就 把 它 的 意 思 明 確 地 寫 出 來 就 是 開 始 就 是 begin 的 意 思 那 這 個 是 一 個 special 的 token 你 就 是 在 你 的 那 個 lexicon 裡 面 啊 你 就 在 你 可 能 本 來 decoder 可 能 產 生 的 文 字 裡 面 呢 多 加 一 個 特 殊 的 符 號
ML2021_ASR_ST-4
[ 50361, 50364, 4184, 35, 3045, 19866, 11614, 33299, 8244, 6287, 31348, 18034, 9830, 101, 43143, 1546, 35181, 6240, 30, 50541, 50541, 4184, 35, 3045, 19866, 10907, 1546, 24675, 5620, 16075, 16257, 66, 19866, 1546, 12290, 116, 7781, 10108, 7422, 222, 18214, 6734, 50791, 50791, 4184, 20844, 19488, 11614, 7422, 222, 18214, 6734, 11, 6287, 5884, 24554, 8623, 11932, 50983, 50983, 5884, 10108, 31706, 39035, 45581, 18616, 5620, 2412, 17238, 238, 16516, 9249, 11148, 16075, 16257, 66, 19866, 1546, 12290, 116, 7781, 7422, 222, 4511, 35, 3045, 19866, 32399, 51252, 51252, 2664, 13470, 5884, 24554, 8623, 39289, 13876, 51340, 51340, 4184, 35, 3045, 19866, 11614, 33299, 8244, 2257, 28427, 17174, 22381, 6240, 30, 51524, 51524, 31348, 18034, 9830, 101, 43143, 17543, 34386, 1546, 12290, 116, 7781, 5620, 2257, 28427, 17174, 22381, 51667, 51667, 35, 3045, 19866, 11614, 33299, 8244, 2257, 28427, 17174, 22381, 6240, 30, 51767, 51767, 4184, 36490, 6240, 51817 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>你要先給他一個特殊的符號<|2.44|><|2.44|>這個特殊的符號代表開始<|5.72|><|5.72|>那在助教頭影片裡面<|7.56|><|7.56|>是寫begin of sentence<|9.52|><|9.52|>所寫是BOS<|11.24|><|11.24|>那我這邊因為怕你不知道BOS是什麼<|13.20|><|13.20|>所以我就把他的意思明確的寫出來<|15.80|><|15.80|>就是開始就是begin的意思<|17.80|><|17.80|>那這個是一個special的token<|19.76|><|19.76|>你就是在你的lexicon裡面<|23.00|><|23.00|>你就是在你可能本來decoder<|24.64|><|24.64|>可能產生的文字裡面<|26.72|><|26.72|>多加一個特殊的符號<|29.36|><|endoftext|>
多 加 一 個 特 殊 的 字 那 這 個 字 呢 就 代 表 了 begin 代 表 了 開 始 這 個 事 情 好 所 以 decoder 呢 就 吃 到 這 個 特 殊 的 符 號 那 在 這 個 機 器 學 習 裡 面 啊 假 設 你 要 處 理 nlp 的 問 題 每 一 個 token 你 都 可 以 把 它 用 一 個 one-hot 的 vector 來 表 示 one-hot vector 就 其 中 一 維 是 1 其 他 都 是 0 所 以 begin 也 是 用 one-hot vector 來 表 示 其 中 一 維 是 1 其 他 是 0 好 那 接 下 來 呢
ML2021_ASR_ST-5
[ 50361, 50364, 32085, 10108, 17798, 5000, 8990, 17682, 15976, 232, 1546, 5437, 99, 18616, 50486, 50486, 6287, 17682, 15976, 232, 1546, 5437, 99, 18616, 19105, 17571, 21017, 50650, 50650, 4184, 3581, 37618, 21936, 19921, 25373, 32399, 50742, 50742, 1541, 4510, 104, 650, 1494, 295, 8174, 50840, 50840, 5966, 4510, 104, 1541, 33, 4367, 50926, 50926, 4184, 1654, 22821, 11471, 21164, 2166, 17572, 33, 4367, 35851, 51024, 51024, 7239, 22020, 16075, 31309, 16697, 11100, 24293, 1546, 4510, 104, 29741, 51154, 51154, 5620, 21017, 5620, 650, 1494, 1546, 16697, 51254, 51254, 4184, 41427, 8990, 7053, 1013, 1546, 83, 8406, 51352, 51352, 2166, 5620, 3581, 18961, 2021, 11911, 32399, 51514, 51514, 2166, 5620, 3581, 2166, 16657, 8802, 3763, 1479, 1291, 1068, 51596, 51596, 16657, 33299, 8244, 1546, 17174, 22381, 32399, 51700, 51700, 6392, 9990, 8990, 17682, 15976, 232, 1546, 5437, 99, 18616, 51832 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>多加一個特殊的字<|1.66|><|1.66|>那這個字呢<|2.62|><|2.62|>就代表了begin<|4.20|><|4.20|>代表了開始這個事情<|5.80|><|5.80|>好所以decoder呢<|6.70|><|6.70|>就吃到這個特殊的符號<|8.30|><|8.30|>那在這個<|9.22|><|9.46|>機器學習裡面呢<|11.06|><|11.06|>假設你要處理NLP的問題<|13.50|><|13.66|>每一個<|14.50|><|14.86|>token你都可以把它用一個<|16.90|><|16.90|>one-hot vector來表示<|18.90|><|18.90|>one-hot vector就其中一位是1<|20.70|><|20.70|>其他都是0<|21.56|><|21.56|>所以begin<|22.30|><|22.46|>也是用one-hot vector來表示<|24.10|><|24.10|>其中一位是1<|25.20|><|25.20|>其他是0<|25.90|><|25.90|>那接下來呢<|26.86|><|endoftext|>
decoder 會 吐 出 一 個 向 量 這 個 向 量 裡 面 有 什 麼 呢 這 個 vector 裡 面 有 什 麼 呢 這 個 vector 的 長 度 啊 它 很 長 它 的 長 度 呢 跟 你 的 vocabulary 的 size 是 一 樣 的 那 vocabulary 則 是 什 麼 意 思 呢 你 就 先 想 好 說 你 的 decoder 輸 出 的 單 位 是 什 麼 假 設 我 們 今 天 做 的 是 中 文 的 語 音 辨 識 我 們 decoder 輸 出 的 是 中 文
ML2021_ASR_ST-6
[ 50361, 50364, 6392, 9990, 8990, 17682, 15976, 232, 1546, 22381, 50447, 50447, 4184, 6287, 22381, 6240, 50495, 50495, 3111, 19105, 17571, 2289, 650, 1494, 50574, 50574, 19105, 17571, 2289, 21017, 6287, 24675, 50654, 50654, 2131, 7239, 42821, 19866, 6240, 50699, 50699, 3111, 10123, 4511, 6287, 17682, 15976, 232, 1546, 5437, 99, 18616, 50779, 50779, 4184, 3581, 6287, 50825, 50837, 17543, 34386, 21372, 34025, 32399, 6240, 50917, 50917, 31706, 39035, 32085, 39289, 13876, 45, 45196, 1546, 17197, 51039, 51047, 23664, 8990, 51089, 51107, 83, 8406, 2166, 7182, 6723, 42061, 9254, 8990, 51209, 51209, 546, 12, 12194, 8062, 3763, 40053, 51309, 51309, 546, 12, 12194, 8062, 3111, 9572, 5975, 2257, 11160, 1541, 16, 51399, 51399, 9572, 5000, 22796, 15, 51442, 51442, 7239, 650, 1494, 51479, 51487, 22021, 9254, 546, 12, 12194, 8062, 3763, 40053, 51569, 51569, 9572, 5975, 2257, 11160, 1541, 16, 51624, 51624, 9572, 47046, 15, 51659, 51659, 4184, 40012, 6240, 51707 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>Decoder 會吐出一個向量<|3.00|><|3.00|>這個向量裡面有什麼呢?<|5.00|><|5.00|>這個 vector 裡面有什麼呢?<|7.00|><|7.00|>這個 vector 的長度啊,它很長<|9.00|><|9.00|>它的長度呢,跟你的 vocabulary 的 size 是一樣的<|15.00|><|15.00|>這邊的 vocabulary 指的是什麼意思呢?<|18.00|><|18.00|>你就先想好說,你的 decoder 輸出的單位是什麼<|22.00|><|22.00|>假設我們今天做的是中文的語音辨識<|25.00|><|25.00|>我們 decoder 輸出的是中文<|27.00|><|endoftext|>
那 你 這 邊 的 vocabulary 的 size 啊 可 能 就 是 中 文 的 方 塊 字 的 數 目 那 中 文 的 方 塊 字 有 多 少 呢 那 不 同 的 字 典 給 你 的 數 字 可 能 是 不 一 樣 的 那 常 用 的 中 文 的 方 塊 字 大 概 兩 三 千 個 那 一 般 人 呢 可 能 認 得 的 四 五 千 個 那 再 更 多 都 是 罕 見 字 冷 僻 的 字 你 可 能 看 到 也 不 知 道 它 要 怎 麼 唸 你 平 常 寫 也 寫 不 出 來 所 以 你 就 看 看 說
ML2021_ASR_ST-7
[ 50361, 50364, 35, 3045, 19866, 220, 6236, 2392, 238, 7781, 8990, 24282, 26748, 50514, 50514, 6287, 24282, 26748, 32399, 2412, 7598, 6240, 30, 50614, 50614, 6287, 8062, 220, 32399, 2412, 7598, 6240, 30, 50714, 50714, 6287, 8062, 27949, 15353, 13127, 4905, 11, 11284, 4563, 15353, 50814, 50814, 45224, 15353, 13127, 6240, 11, 9678, 18961, 19864, 27949, 2744, 11947, 22977, 1546, 51114, 51114, 22821, 1546, 19864, 220, 25922, 24620, 7598, 16697, 6240, 30, 51264, 51264, 41045, 10108, 7093, 2131, 4622, 11, 18961, 979, 19866, 220, 12290, 116, 7781, 1546, 24227, 11160, 35851, 51464, 51464, 31706, 39035, 5884, 12074, 10907, 24620, 5975, 17174, 1546, 31348, 18034, 9830, 101, 43143, 51614, 51614, 5884, 979, 19866, 220, 12290, 116, 7781, 24620, 5975, 17174, 51714 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那你這邊的Vocabulary的size可能就是中文的方塊字的數目<|8.90|><|8.90|>那中文的方塊字有多少呢?<|11.10|><|11.10|>那不同的字典給你的數字可能是不一樣的<|15.40|><|15.40|>那常用的中文的方塊字大概兩三千個<|18.40|><|18.40|>那一般人可能認得的四五千個<|21.10|><|21.10|>那再更多都是罕見字、冷屁的字<|23.90|><|23.90|>你可能看到也不知道他要怎麼念<|26.00|><|26.00|>你平常寫也寫不出來<|27.80|><|27.80|>所以你就看看說<|29.00|><|endoftext|>
你 要 讓 你 的 decoder 輸 出 哪 些 可 能 的 中 文 的 方 塊 字 你 就 把 它 列 在 這 邊 那 舉 例 來 說 你 覺 得 這 個 decoder 能 夠 輸 出 常 見 的 3000 個 方 塊 字 就 好 了 就 把 它 列 在 這 個 地 方 那 不 同 的 語 言 啊 它 輸 出 的 單 位 不 見 不 會 不 一 樣 這 個 取 決 於 你 對 那 個 語 言 的 理 解 比 如 說 英 文 你 可 以 選 擇 輸 出 字 母 的 a 到 z 輸 出 英 文 的 字 母
ML2021_ASR_ST-8
[ 50361, 50364, 4184, 2166, 22821, 1546, 53, 905, 19189, 1546, 27553, 16657, 5620, 5975, 17174, 1546, 9249, 26268, 22381, 1546, 30622, 11386, 50809, 50809, 4184, 5975, 17174, 1546, 9249, 26268, 22381, 2412, 41492, 6240, 30, 50919, 50919, 4184, 47123, 1546, 22381, 2347, 116, 17798, 18961, 30622, 22381, 16657, 1541, 1960, 22977, 1546, 51134, 51134, 4184, 11279, 9254, 1546, 5975, 17174, 1546, 9249, 26268, 22381, 32044, 16313, 10960, 20787, 3338, 51284, 51284, 4184, 2257, 49640, 4035, 16657, 22041, 5916, 1546, 19425, 21001, 20787, 3338, 51419, 51419, 4184, 8623, 19002, 6392, 22796, 16469, 243, 10470, 22381, 1231, 32499, 9636, 223, 1546, 22381, 51559, 51559, 2166, 16657, 18032, 6404, 17572, 5000, 4275, 11614, 33679, 51664, 51664, 2166, 16716, 11279, 4510, 104, 6404, 4510, 104, 1960, 29741, 51754, 51754, 7239, 41045, 22884, 4622, 51814 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>你要讓你的decoder輸出哪些可能的中文方塊字<|5.22|><|5.22|>你就把它列在這邊<|6.84|><|6.84|>舉例來說,你覺得這個decoder能夠輸出常見的<|10.14|><|10.14|>3000個方塊字就好了<|12.26|><|12.26|>你就把它列在這個地方<|14.44|><|14.44|>那不同的語言,它輸出的單位不會不一樣<|19.06|><|19.06|>這個取決於你對那個語言的理解<|21.70|><|21.70|>比如說英文,你可以選擇輸出字母<|25.08|><|25.08|>A到Z輸出英文的字母<|28.08|><|endoftext|>
但 你 可 能 會 覺 得 字 母 這 個 單 位 太 小 了 有 人 可 能 會 選 擇 輸 出 英 文 的 詞 彙 英 文 的 詞 彙 是 用 空 白 作 為 間 隔 的 但 如 果 都 用 詞 彙 當 作 輸 出 又 太 多 了 所 以 你 會 發 現 剛 才 在 助 教 的 投 影 片 裡 面 助 教 說 他 是 用 subword 當 作 英 文 的 單 位 就 有 一 些 方 法 可 以 把 英 文 的 字 首 字 根 切 出 來 拿 字 首 字 根 當 作 單 位 那 如 果 中 文 的 話 呢 我 覺 得 就 比 較 單 純
ML2021_ASR_ST-9
[ 50361, 50364, 32085, 21195, 18961, 42821, 19866, 12290, 116, 7781, 17028, 13824, 16657, 1546, 5975, 17174, 9249, 26268, 22381, 50625, 50625, 41045, 42061, 43338, 3581, 22821, 50706, 50706, 42828, 17797, 36979, 11, 2166, 11274, 6287, 42821, 19866, 8225, 31649, 12290, 116, 7781, 11279, 10470, 1546, 50871, 50871, 43160, 3338, 9249, 26268, 22381, 3111, 12621, 50977, 50977, 41045, 42061, 43338, 3581, 6287, 30146, 51086, 51086, 4184, 47123, 1546, 31348, 12009, 11, 11284, 12290, 116, 7781, 1546, 24227, 11160, 21121, 1960, 22977, 51317, 51317, 6287, 29436, 33540, 19488, 2166, 2855, 20754, 31348, 12009, 1546, 13876, 17278, 51449, 51449, 36757, 4622, 27869, 17174, 11, 42766, 21625, 13167, 229, 12290, 116, 7781, 22381, 35744, 51618, 51618, 32, 4511, 57, 12290, 116, 7781, 27869, 17174, 1546, 22381, 35744, 51768 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>但你可能會覺得字母這個單位太小了<|2.66|><|2.66|>那有人可能會選擇輸出英文的詞彙<|6.10|><|6.10|>英文的詞彙是用空白作為間隔的<|9.20|><|9.20|>但如果用詞彙當作輸出又太多了<|12.14|><|12.14|>所以你會發現剛才在助教投影片裡面<|14.50|><|14.50|>助教說他是用some word當作英文的單位<|18.86|><|18.86|>就有一些方法可以把英文的字首字根切出來<|22.14|><|22.14|>拿字首字根當作單位<|24.20|><|24.20|>那如果中文的話呢<|25.30|><|25.30|>我覺得就比較單純<|26.80|><|endoftext|>
通 常 今 天 你 可 能 就 用 中 文 的 這 個 方 塊 字 來 當 作 單 位 好 那 在 這 個 向 量 裡 面 啊 這 個 向 量 的 長 度 就 跟 中 文 裡 面 的 方 塊 字 你 希 望 機 器 可 以 輸 出 的 方 塊 字 的 數 目 是 一 樣 多 的 那 每 一 個 中 文 的 字 都 會 對 應 到 一 個 數 值 那 因 為 在 產 生 這 個 向 量 之 前 啊 你 通 常 會 先 跑 一 個 softmax 就 跟 做 分 類 一 樣 做 分 類 在 得 到 最 終 的 輸 出 前
ML2021_ASR_ST-10
[ 50361, 50364, 8395, 2166, 16657, 6236, 11274, 22381, 35744, 6287, 24227, 11160, 9455, 7322, 2289, 50497, 50497, 4184, 45820, 16657, 6236, 21625, 13167, 229, 12290, 116, 7781, 27869, 17174, 1546, 6716, 252, 7391, 247, 50669, 50669, 27869, 17174, 1546, 6716, 252, 7391, 247, 1541, 9254, 23322, 13558, 11914, 6344, 11016, 165, 1206, 1546, 50824, 50824, 8395, 13119, 9254, 6716, 252, 7391, 247, 13118, 11914, 12290, 116, 7781, 17047, 9455, 6392, 2289, 50971, 50971, 7239, 2166, 6236, 38927, 16940, 18888, 3581, 37618, 21936, 37094, 25373, 32399, 51089, 51089, 37618, 21936, 4622, 47046, 9254, 23189, 1349, 13118, 11914, 27869, 17174, 1546, 24227, 11160, 51307, 51307, 3111, 32241, 13824, 9249, 11148, 6723, 16075, 27869, 17174, 1546, 22381, 25444, 22381, 31337, 23632, 29741, 51471, 51471, 24351, 22381, 25444, 22381, 31337, 13118, 11914, 24227, 11160, 51574, 51574, 4184, 13119, 5975, 17174, 21358, 6240, 51629, 51629, 17689, 3111, 25174, 24227, 7732, 242, 51704 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>通常今天你可能就用中文的方塊字來當作單位<|5.00|><|5.00|>那在這個項量裡面<|6.44|><|6.44|>這個項量的長度就跟中文裡面的方塊字<|10.28|><|10.28|>你希望機器可以輸出的方塊字的數目是一樣多的<|14.96|><|14.96|>那每一個中文的字都會對應到一個數值<|20.24|><|20.24|>那因為在產生這個項量之前<|22.32|><|22.32|>你通常會先跑一個softmax<|24.80|><|24.80|>就跟做分類一樣<|26.28|><|26.28|>做分類在得到最終的輸出前<|28.76|><|endoftext|>
我 們 不 是 會 跑 一 個 softmax 嗎 跑 一 個 softmax 所 以 這 一 個 向 量 裡 面 的 分 數 啊 它 是 一 個 distribution 也 就 是 呢 它 這 個 向 量 裡 面 的 值 呢 它 全 部 加 起 來 總 和 呢 會 是 1 好 那 得 到 這 個 向 量 以 後 還 不 是 最 終 輸 出 的 結 果 這 個 向 量 會 給 每 一 個 中 文 的 字 一 個 分 數 那 分 數 最 高 的 那 一 個 中 文 字 它 就 是 最 終 的 輸 出 那 在 這 個 例 子 裡 面 機 的 分 數 最 高 所 以 機 呢
ML2021_ASR_ST-11
[ 50361, 50364, 19550, 11279, 12074, 2166, 16657, 3111, 9254, 5975, 17174, 1546, 9249, 26268, 22381, 3763, 13118, 11914, 24227, 11160, 50614, 50614, 4184, 3581, 6287, 8313, 227, 26748, 32399, 50686, 50686, 6287, 8313, 227, 26748, 1546, 15353, 13127, 3111, 9678, 5975, 17174, 32399, 1546, 9249, 26268, 22381, 50878, 50878, 2166, 29955, 17543, 34386, 6723, 12290, 116, 7781, 1546, 9249, 26268, 22381, 1546, 30622, 11386, 1541, 22977, 6392, 1546, 51112, 51112, 4184, 23664, 8990, 5975, 17174, 1546, 22381, 7182, 6236, 2855, 20481, 4511, 8990, 30622, 40242, 51376, 51376, 4184, 11471, 3581, 33299, 8244, 6287, 8313, 227, 26748, 32442, 51480, 51480, 2166, 19550, 11279, 6236, 10108, 32585, 8990, 13908, 41167, 51604, 51604, 3111, 9678, 10907, 6627, 40092, 22977, 51678, 51678, 10907, 6627, 40092, 3581, 5916, 4511, 8661, 29371, 1546, 12290, 116, 7781, 8945, 51802 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>我們不是會跑一個softmax嗎?<|1.86|><|1.86|>跑一個softmax<|3.10|><|3.10|>所以這一個項量裡面的分數<|5.56|><|5.56|>它是一個distribution<|7.28|><|7.28|>也就是它這個項量裡面的值<|10.58|><|10.58|>它全部加起來 總和會是1<|14.08|><|14.08|>那得到這個項量以後<|16.18|><|16.18|>還不是最終輸出的結果<|18.02|><|18.02|>這個項量會給每一個中文的字一個分數<|21.16|><|21.16|>那分數最高的那一個中文字<|23.96|><|23.96|>它就是最終的輸出<|25.96|><|25.96|>在這個例子裡面<|27.32|><|27.32|><|endoftext|>
就 當 做 是 這 個 decoder 第 一 個 輸 出 然 後 接 下 來 你 把 機 當 做 是 decoder 新 的 input 原 來 decoder 的 input 只 有 begin 這 個 特 別 的 符 號 現 在 它 除 了 begin 以 外 它 還 有 機 作 為 它 的 input 那 機 呢 也 是 表 示 成 一 個 one-hot 的 vector 當 做 decoder 的 輸 入 所 以 decoder 現 在 它 有 兩 個 輸 入 一 個 是 begin 這 個 符 號 一 個 是 機 根 據 這 兩 個 輸 入 呢 它 就 要 得 到 一 個 輸 出
ML2021_ASR_ST-12
[ 50361, 50364, 5884, 7296, 6236, 32585, 8990, 13908, 41167, 7434, 30, 50457, 50457, 32585, 8990, 13908, 41167, 50519, 50519, 7239, 2664, 8990, 8313, 227, 26748, 32399, 1546, 6627, 30622, 50642, 50642, 11284, 1541, 8990, 42649, 30783, 50728, 50728, 6404, 5620, 11284, 6287, 8313, 227, 26748, 32399, 1546, 40242, 50893, 50893, 11284, 38714, 9990, 21670, 220, 26575, 12565, 6236, 1541, 16, 51068, 51068, 4184, 5916, 4511, 6287, 8313, 227, 26748, 3588, 5661, 51173, 51173, 7824, 7296, 8661, 29371, 12290, 116, 7781, 1546, 35181, 51265, 51265, 6287, 8313, 227, 26748, 6236, 17798, 23664, 8990, 5975, 17174, 1546, 22381, 8990, 6627, 30622, 51422, 51422, 4184, 6627, 30622, 8661, 12979, 1546, 4184, 8990, 5975, 17174, 22381, 51562, 51562, 11284, 5620, 8661, 29371, 1546, 12290, 116, 7781, 51662, 51662, 3581, 6287, 17797, 7626, 32399, 51730, 51730 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>就當作是這個Decoder第一個輸出<|3.14|><|3.14|>然後接下來你把G當作是Decoder新的input<|8.48|><|8.48|>原來Decoder的input只有begin這個特別的符號<|11.52|><|11.52|>現在他除了begin以外<|13.32|><|13.32|>他還有G作為他的input<|15.28|><|15.28|>那G也是表示成一個1-hard vector<|18.68|><|18.68|>當作Decoder的輸入<|21.16|><|21.16|>所以Decoder現在還有兩個輸入<|23.06|><|23.06|>一個是begin這個符號,一個是G<|25.26|><|25.26|>根據這兩個輸入呢<|26.60|><|26.60|>他就要得到一個輸出<|28.56|><|endoftext|>
它 輸 出 一 個 藍 色 的 向 量 根 據 這 個 藍 色 的 向 量 裡 面 給 每 一 個 中 文 的 字 的 分 數 那 我 們 會 決 定 第 二 個 輸 出 是 什 麼 誰 哪 一 個 字 的 分 數 最 高 它 就 是 輸 出 器 的 假 設 器 的 分 數 最 高 那 器 就 是 輸 出 那 decoder 接 下 來 會 拿 器 當 作 輸 入 然 後 現 在 decoder 看 到 了 begin 看 到 了 機 看 到 了 器 那 它 接 下 來 呢 還 要 再 決 定 接 下 來 要 輸 出 什 麼 那 它 可 能 呢 就 輸 出 學
ML2021_ASR_ST-13
[ 50361, 50364, 3111, 13118, 11914, 1541, 6287, 35, 3045, 19866, 40760, 12290, 116, 7781, 50521, 50521, 10213, 40012, 2166, 16075, 38, 13118, 11914, 1541, 35, 3045, 19866, 12560, 1546, 259, 2582, 50788, 50788, 19683, 3763, 35, 3045, 19866, 1546, 259, 2582, 35244, 650, 1494, 6287, 38446, 1546, 5437, 99, 18616, 50940, 50940, 12648, 5000, 32999, 2289, 650, 1494, 3588, 12022, 51030, 51030, 5000, 15569, 38, 11914, 6344, 31309, 259, 2582, 51128, 51128, 4184, 38, 22021, 40053, 11336, 8990, 16, 12, 21491, 8062, 51298, 51298, 13118, 11914, 35, 3045, 19866, 1546, 12290, 116, 14028, 51422, 51422, 7239, 35, 3045, 19866, 12648, 15569, 34623, 12290, 116, 14028, 51517, 51517, 8990, 1541, 650, 1494, 6287, 5437, 99, 18616, 11, 8990, 1541, 38, 51627, 51627, 31337, 36841, 2664, 34623, 12290, 116, 14028, 6240, 51694, 51694, 5000, 3111, 4275, 5916, 4511, 8990, 12290, 116, 7781, 51792 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>它輸出一個藍色的項量<|2.00|><|2.00|>根據這個藍色的項量裡面<|3.50|><|3.50|>給每一個中文的字的分數<|6.00|><|6.00|>那我們會決定第二個輸出是什麼<|9.20|><|9.20|>誰哪一個字的分數最高<|11.00|><|11.00|>它就是輸出<|12.20|><|12.20|>那氣的 假如氣的分數最高<|14.20|><|14.20|>那氣就是輸出<|15.70|><|15.70|>那Decoder接下來會拿氣當作輸入<|18.50|><|18.50|>然後現在Decoder看到了begin<|20.90|><|20.90|>看到了機 看到了氣<|22.60|><|22.60|>那它接下來還要再決定<|24.60|><|24.60|>接下來要輸出什麼<|26.00|><|26.00|>那它可能就輸出學<|28.20|><|endoftext|>
這 一 個 過 程 就 反 覆 的 持 續 下 去 機 器 輸 入 學 以 後 學 會 再 被 當 作 輸 入 所 以 現 在 decode 呢 它 看 到 了 begin 機 器 還 有 學 那 encoder 這 邊 其 實 也 有 輸 入 啦 那 我 們 等 一 下 再 講 encoder 的 輸 入 decoder 是 怎 麼 處 理 的 所 以 decoder 看 到 encoder 這 邊 的 輸 入 看 到 機 看 到 器 看 到 學 決 定 接 下 來 呢 要 輸 出 習 它 會 輸 出 一 個 向 量 這 個 向 量 裡 面 習 這 個 中 文 字 的 分 數 最 高 的 所 以 它 就 輸 出 習
ML2021_ASR_ST-14
[ 50361, 50364, 11284, 12290, 116, 7781, 8990, 21782, 235, 17673, 1546, 8313, 227, 26748, 50464, 50464, 31337, 36841, 6287, 21782, 235, 17673, 1546, 8313, 227, 26748, 32399, 50539, 50539, 17798, 23664, 8990, 5975, 17174, 1546, 22381, 1546, 6627, 30622, 50664, 50664, 46714, 6236, 33540, 12088, 49085, 12290, 116, 7781, 35851, 50824, 50824, 20757, 17028, 8990, 22381, 1546, 6627, 30622, 8661, 12979, 50914, 50914, 11284, 5620, 12290, 116, 7781, 50974, 50974, 4184, 24090, 1546, 220, 31706, 8238, 24090, 1546, 6627, 30622, 8661, 12979, 51074, 51074, 4184, 24090, 5620, 12290, 116, 7781, 51149, 51149, 4184, 35, 3045, 19866, 40012, 6236, 24351, 24090, 13118, 11914, 12290, 116, 14028, 51289, 51289, 10213, 12648, 35, 3045, 19866, 18032, 2289, 650, 1494, 51409, 51409, 18032, 2289, 17543, 220, 18032, 2289, 24090, 51494, 51494, 4184, 11284, 40012, 7824, 4275, 8623, 33540, 12088, 51594, 51594, 40012, 4275, 12290, 116, 7781, 7598, 51664, 51664, 4184, 11284, 16657, 3111, 12290, 116, 7781, 21372, 51774 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>這個過程就反覆的持續下去<|3.44|><|3.44|>機器輸入學以後,學會再被當作輸入<|6.88|><|6.88|>所以現在Decoder看到了begin、機、器、學<|11.52|><|11.52|>那Encoder這邊其實也有輸入啦<|13.68|><|13.68|>那我們等一下再講Encoder的輸入<|15.68|><|15.68|>Decoder是怎麼處理的<|17.20|><|17.20|>所以Decoder看到Encoder這邊的輸入<|19.60|><|19.60|>看到機、看到器、看到學<|21.60|><|21.60|>決定接下來要輸出習<|24.08|><|24.08|>它會輸出一個項量<|25.12|><|25.12|>這個項量裡面習這個中文字的分數最高的<|28.00|><|28.00|>所以它就輸出習<|29.44|><|endoftext|>
然 後 這 個 process 呢 就 反 覆 持 續 下 去 那 這 邊 有 一 個 關 鍵 的 地 方 我 們 特 別 用 紅 色 的 虛 線 把 它 標 出 來 也 就 是 說 decoder 看 到 的 輸 入 其 實 是 它 在 前 一 個 時 間 點 自 己 的 輸 出 decoder 會 把 自 己 的 輸 出 當 做 接 下 來 的 輸 入 會 把 自 己 的 輸 出 當 做 接 下 來 的 輸 入 所 以 當 我 們 decoder 在 產 生 一 個 句 子 的 時 候 它 其 實 有 可 能 看 到 錯 誤 的 東 西 因 為 它 看 到 的 是 自 己 的 輸 出 嘛
ML2021_ASR_ST-15
[ 50361, 50364, 6287, 8816, 29649, 3111, 22138, 2888, 228, 1546, 17694, 29583, 34473, 50536, 50536, 17543, 34386, 12290, 116, 14028, 21372, 3588, 5661, 11, 21372, 6236, 8623, 23238, 13118, 11914, 12290, 116, 14028, 50708, 50708, 7239, 12648, 35, 3045, 19866, 18032, 2289, 650, 1494, 1231, 17543, 1231, 34386, 1231, 21372, 50940, 50940, 4184, 16257, 66, 19866, 22821, 14139, 6404, 2412, 12290, 116, 14028, 9724, 51048, 51048, 46714, 24554, 8623, 11932, 16257, 66, 19866, 1546, 12290, 116, 14028, 51148, 51148, 35, 3045, 19866, 1541, 11614, 39289, 13876, 1546, 51224, 51224, 7239, 35, 3045, 19866, 18032, 16257, 66, 19866, 22821, 1546, 12290, 116, 14028, 51344, 51344, 18032, 17543, 1231, 18032, 34386, 1231, 18032, 21372, 51444, 51444, 33540, 12088, 40012, 4275, 12290, 116, 7781, 34025, 51568, 51568, 11284, 6236, 12290, 116, 7781, 8990, 8313, 227, 26748, 51620, 51620, 6287, 8313, 227, 26748, 32399, 34025, 6287, 5975, 17174, 22381, 1546, 6627, 30622, 8661, 12979, 1546, 51764, 51764, 7239, 11284, 3111, 12290, 116, 7781, 34025, 51836 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>這個process就反覆持續下去<|3.00|><|3.00|>那這邊有一個關鍵的地方<|4.50|><|4.50|>我們特別用紅色的虛線把它標出來<|6.86|><|6.86|>也就是說decoder看到的輸入<|9.06|><|9.06|>其實是他在前一個時間點自己的輸出<|14.00|><|14.00|>decoder會把自己的輸出當作接下來的輸入<|17.80|><|17.80|>會把自己的輸出當作接下來的輸入<|21.30|><|21.30|>所以當我們decoder在產生一個句子的時候<|24.00|><|24.00|>他其實有可能看到錯誤的東西<|27.40|><|27.40|>因為他看到的是自己的輸出嘛<|29.40|><|endoftext|>
那 如 果 今 天 decoder 有 語 音 辨 識 的 錯 誤 它 把 機 器 的 器 辨 識 錯 成 天 氣 的 氣 那 接 下 來 decoder 就 會 看 到 錯 誤 的 辨 識 結 果 它 還 是 要 想 辦 法 根 據 錯 誤 的 辨 識 結 果 產 生 它 想 要 產 生 的 期 待 是 正 確 的 輸 出 那 你 可 能 會 覺 得 說 讓 decoder 看 到 錯 誤 的 輸 入 讓 decoder 看 到 自 己 產 生 出 來 的 錯 誤 的 輸 入 再 被 decoder 自 己 吃 進 去 會 不 會 造 成 問 題 呢 會 不 會 造 成 error propagation 的 問 題 呢
ML2021_ASR_ST-16
[ 50361, 50364, 6287, 41075, 3111, 22138, 2888, 228, 17694, 29583, 34473, 50514, 50514, 4184, 22821, 2412, 8990, 14899, 41668, 113, 1546, 30146, 50589, 50589, 5884, 38446, 9254, 33487, 17673, 1546, 12026, 249, 31699, 42061, 46299, 29741, 50707, 50707, 6404, 26222, 42821, 19866, 18032, 1546, 12290, 116, 14028, 50817, 50817, 14139, 1541, 5000, 3581, 8945, 8990, 20788, 8216, 17645, 1546, 12290, 116, 7781, 51064, 51064, 42821, 19866, 6236, 16075, 17645, 1546, 12290, 116, 7781, 13118, 11914, 40012, 1546, 12290, 116, 14028, 51254, 51254, 6236, 16075, 17645, 1546, 12290, 116, 7781, 13118, 11914, 40012, 1546, 12290, 116, 14028, 51429, 51429, 7239, 13118, 5884, 42821, 19866, 3581, 33299, 8244, 8990, 34592, 7626, 20643, 51564, 51564, 5000, 14139, 2412, 16657, 18032, 13133, 3549, 97, 1546, 26978, 51734, 51734, 11471, 5000, 18032, 24620, 17645, 1546, 12290, 116, 7781, 20722, 51834 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那如果今天decoder有語音辨識的錯誤<|3.14|><|3.14|>他把機器的氣辨識錯成天氣的氣<|6.10|><|6.10|>那接下來decoder就會看到錯誤的辨識結果<|10.40|><|10.40|>他還是要想辦法根據錯誤的辨識結果產生<|14.32|><|14.32|>他想要產生的期待是正確的輸出<|17.24|><|17.24|>那你可能會覺得說<|18.22|><|18.22|>讓decoder看到錯誤的輸入<|20.18|><|20.18|>讓decoder看到自己產生出來的錯誤的輸入<|23.36|><|23.36|>再被decoder自己吃進去<|25.26|><|25.26|>會不會造成問題呢<|27.18|><|27.18|><|endoftext|>
所 謂 error propagation 的 問 題 就 是 一 步 錯 步 步 錯 這 樣 就 是 在 這 個 地 方 如 果 不 小 心 把 機 器 的 器 不 小 心 寫 成 天 氣 的 氣 會 不 會 接 下 來 就 整 個 句 子 都 壞 掉 了 都 沒 有 辦 法 再 產 生 正 確 的 詞 彙 了 有 可 能 那 這 個 等 一 下 我 們 最 後 會 稍 微 講 一 下 這 個 問 題 要 怎 麼 處 理 我 們 現 在 呢 先 無 視 這 個 問 題 繼 續 走 下 去 好 那 我 們 那 我 們 來 看 一 下 這 個 decoder 啊
ML2021_ASR_ST-17
[ 50361, 50364, 4184, 13119, 12074, 42821, 19866, 2412, 31348, 18034, 9830, 101, 43143, 1546, 13133, 3549, 97, 50521, 50521, 5000, 16075, 17543, 34386, 1546, 24090, 9830, 101, 43143, 13133, 11336, 6135, 24090, 1546, 24090, 50669, 50669, 4184, 40012, 42821, 19866, 47778, 18032, 13133, 3549, 97, 1546, 9830, 101, 43143, 35181, 50884, 50884, 5000, 25583, 4275, 7093, 40072, 31337, 36841, 13133, 3549, 97, 1546, 9830, 101, 43143, 35181, 33299, 8244, 51080, 51080, 5000, 7093, 4275, 33299, 8244, 1546, 16786, 18390, 1541, 15789, 24293, 1546, 12290, 116, 7781, 51226, 51226, 4184, 2166, 16657, 6236, 11274, 4622, 51275, 51275, 21195, 42821, 19866, 18032, 13133, 3549, 97, 1546, 12290, 116, 14028, 51373, 51373, 21195, 42821, 19866, 18032, 17645, 33299, 8244, 29741, 1546, 13133, 3549, 97, 1546, 12290, 116, 14028, 51532, 51532, 8623, 23238, 42821, 19866, 17645, 10123, 18214, 6734, 51627, 51627, 6236, 21121, 37583, 11336, 17197, 6240, 51723, 51723 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>所謂Error Propagation的問題就是<|2.00|><|2.00|>一步錯 步步錯<|4.50|><|4.50|>就是在這個地方<|5.56|><|5.56|>如果不小心把機器的氣<|7.56|><|7.56|>不小心寫成天氣的氣<|9.56|><|9.56|>會不會接下來就整個句子都壞掉了<|12.80|><|12.80|>都沒有辦法再產生正確的詞彙了<|15.20|><|15.20|>有可能<|16.06|><|16.06|>那這個等一下我們最後會稍微講一下<|18.96|><|18.96|>這個問題要怎麼處理<|20.96|><|20.96|>我們現在先無視這個問題<|23.36|><|23.36|>繼續走下去<|24.66|><|24.66|>那我們來看一下這個Decoder<|27.96|><|endoftext|>
它 內 部 的 結 構 長 什 麼 樣 子 那 我 們 這 邊 呢 把 encoder 的 部 分 先 暫 時 省 略 掉 那 在 transformer 裡 面 decoder 的 結 構 呢 長 得 是 這 個 樣 子 的 看 起 來 有 點 複 雜 比 encoder 還 稍 微 複 雜 一 點 那 我 們 現 在 先 把 encoder 跟 decoder 放 在 一 起 稍 微 比 較 一 下 它 們 之 間 的 差 異 那 你 會 發 現 說 如 果 我 們 把 decoder 中 間 這 一 塊 中 間 這 一 塊 把 它 蓋 起 來
ML2021_ASR_ST-18
[ 50361, 50364, 5966, 4802, 224, 28135, 2874, 21944, 559, 399, 1546, 17197, 5620, 50464, 50464, 2257, 31429, 13133, 220, 31429, 31429, 13133, 50589, 50589, 5620, 3581, 6287, 30146, 50642, 50642, 13119, 1960, 34021, 16075, 17543, 34386, 1546, 24090, 50742, 50742, 1960, 34021, 4510, 104, 11336, 6135, 24090, 1546, 24090, 50842, 50842, 6236, 21121, 40012, 3111, 27662, 3338, 34592, 7626, 7182, 12829, 252, 29327, 2289, 51004, 51004, 7182, 6963, 40072, 8623, 33299, 8244, 15789, 24293, 1546, 6716, 252, 7391, 247, 2289, 51124, 51124, 2412, 16657, 51167, 51167, 4184, 6287, 24554, 5884, 20578, 6236, 10415, 235, 39152, 11932, 8861, 51312, 51312, 6287, 17197, 4275, 11614, 39289, 13876, 51412, 51412, 5884, 12648, 10108, 16976, 27333, 6287, 17197, 51532, 51532, 38459, 9575, 34473, 51597, 51597, 46714, 3763, 28324, 6287, 35, 3045, 19866, 51762 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>它內部的結構長什麼樣子<|3.32|><|3.32|>那我們這邊呢<|4.22|><|4.22|>把Encoder的部分先暫時省略掉<|7.16|><|7.16|>那在Transformer裡面<|8.76|><|8.76|>Decoder的結構呢<|10.08|><|10.08|>長的是這個樣子的<|11.80|><|11.80|>看起來有點複雜<|12.98|><|12.98|>比Encoder還稍微複雜一點<|15.44|><|15.44|>那我們現在先把Encoder跟Decoder放在一起<|18.88|><|18.88|>稍微比較一下它們之間的差異<|21.68|><|21.68|>那你會發現說<|22.88|><|22.88|>如果我們把Decoder中間這一塊<|25.40|><|25.40|>中間這一塊把它蓋起來<|27.60|><|endoftext|>
其 實 encoder 跟 decoder 並 沒 有 那 麼 大 的 差 別 你 看 encoder 這 邊 multi-head attention 然 後 add & norm feed forward add & norm 重 複 n 次 decoder 其 實 也 是 一 樣 當 我 們 把 中 間 這 一 塊 遮 起 來 以 後 我 們 等 一 下 再 講 遮 起 來 這 一 塊 裡 面 做 了 什 麼 事 但 當 我 們 把 中 間 這 塊 遮 起 來 以 後 欸 那 decoder 也 是 有 一 個 multi-head attention add & norm 然 後 feed forward 然 後 add & norm 所 以 encoder 跟 decoder
ML2021_ASR_ST-19
[ 50361, 50364, 11284, 28472, 13470, 1546, 17144, 43362, 15353, 7598, 6180, 7626, 50530, 50530, 46714, 22821, 6240, 50575, 50575, 16075, 16257, 66, 19866, 1546, 32174, 10108, 23826, 104, 6611, 2862, 223, 6904, 98, 29327, 50722, 50722, 4184, 3581, 33339, 837, 260, 32399, 50802, 50802, 35, 3045, 19866, 1546, 17144, 43362, 6240, 50868, 50868, 15353, 24620, 6287, 6180, 7626, 1546, 50954, 50954, 4200, 21670, 42440, 164, 97, 229, 6306, 250, 51013, 51013, 11706, 16257, 66, 19866, 7824, 10415, 235, 39152, 164, 97, 229, 6306, 250, 19202, 51136, 51136, 46714, 12648, 10108, 16075, 16257, 66, 19866, 9678, 35, 3045, 19866, 12744, 3581, 29567, 51308, 51308, 10415, 235, 39152, 25174, 8861, 11284, 4623, 9574, 11016, 1546, 21679, 6904, 108, 51448, 51448, 4184, 2166, 6236, 38927, 4622, 51508, 51508, 13119, 5884, 16075, 35, 3045, 19866, 5975, 11016, 32260, 26268, 51634, 51634, 5975, 11016, 32260, 26268, 42061, 39198, 233, 21670, 51744 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>其實Encoder跟Decoder並沒有那麼大的差別<|4.48|><|4.48|>你看Encoder這邊<|5.84|><|5.84|>Multi-head attention<|7.38|><|7.38|>然後Add and None<|8.78|><|8.78|>Feed forward<|9.58|><|9.58|>Add and None<|10.48|><|10.48|>重複N次<|11.32|><|11.32|>Decoder其實也是一樣<|12.62|><|12.62|>當我們把中間這塊遮起來以後<|14.72|><|14.72|>我們等一下再講遮起來這塊裡面做了什麼事<|17.12|><|17.12|>但當我們把中間這塊遮起來以後<|19.66|><|19.66|>那Decoder也是有一個Multi-head attention<|23.36|><|23.36|>Add and None<|24.16|><|24.16|>然後Feed forward<|25.36|><|25.36|>然後Add and None<|27.16|><|27.16|>所以Encoder跟Decoder<|29.00|><|endoftext|>
其 實 並 沒 有 非 常 大 的 差 別 除 了 中 間 這 一 塊 不 一 樣 的 地 方 被 遮 起 來 的 地 方 以 外 其 實 encoder 跟 decoder 是 一 樣 的 那 只 是 最 後 呢 我 們 可 能 會 再 做 一 個 softmax 使 得 它 的 輸 出 變 成 一 個 機 率 那 這 邊 有 一 個 稍 微 不 一 樣 的 地 方 是 在 decoder 這 邊 啊 multi-head attention 這 一 個 block 上 面 還 加 了 一 個 masked 這 個 masked 是 什 麼 意 思 呢 這 個 masked 的 意 思 是 這 樣 子 的 這 是 我 們 原 來 的 self-attention
ML2021_ASR_ST-20
[ 50361, 50364, 14139, 16257, 66, 19866, 9678, 35, 3045, 19866, 35934, 6963, 20504, 39156, 21679, 16158, 50588, 50588, 16529, 16257, 66, 19866, 22821, 50656, 50656, 44, 723, 72, 12, 1934, 3202, 50733, 50733, 10213, 36189, 293, 14492, 50803, 50803, 37, 5033, 2128, 50843, 50843, 36189, 293, 14492, 50888, 50888, 12624, 164, 97, 229, 45, 9487, 50930, 50930, 35, 3045, 19866, 14139, 22021, 22977, 50995, 50995, 13118, 5884, 16075, 5975, 11016, 2664, 26268, 3330, 106, 21670, 3588, 5661, 51100, 51100, 5884, 24554, 8623, 11932, 3330, 106, 21670, 2664, 26268, 32399, 10907, 2289, 7598, 6973, 51220, 51220, 8395, 13118, 5884, 16075, 5975, 11016, 2664, 26268, 3330, 106, 21670, 3588, 5661, 51347, 51347, 4184, 35, 3045, 19866, 22021, 2412, 8990, 44, 723, 72, 12, 1934, 3202, 51532, 51532, 36189, 293, 14492, 51572, 51572, 10213, 37, 5033, 2128, 51632, 51632, 10213, 36189, 293, 14492, 51722, 51722, 7239, 16257, 66, 19866, 9678, 35, 3045, 19866, 51814 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>其實並沒有非常大的差別<|2.10|><|2.10|>除了中間這塊不一樣的地方<|4.20|><|4.20|>被遮起來的地方以外<|5.40|><|5.40|>其實Encoder跟Decoder是一樣的<|8.80|><|8.80|>那只是最後呢<|9.80|><|9.80|>我們可能會再做一個SolveMask<|11.70|><|11.70|>使得它的輸出變成一個機率<|14.70|><|14.70|>那這邊有一個稍微不一樣的地方是<|17.00|><|17.00|>在Decoder這邊<|18.90|><|18.90|>MultiHeadAttention這個block上面<|21.80|><|21.80|>還加了一個Mask<|24.00|><|24.00|>這個Mask是什麼意思呢<|25.90|><|25.90|>這個Mask的意思是這樣子<|27.50|><|27.50|><|endoftext|>
input 一 排 vector output 另 外 一 排 vector 這 一 排 vector 每 一 個 輸 出 都 要 看 過 完 整 的 input 以 後 才 做 決 定 所 以 輸 出 b1 的 時 候 其 實 是 根 據 a1 到 a4 所 有 的 資 訊 去 輸 出 b1 當 我 們 把 self-attention 轉 成 masked attention 的 時 候 它 的 不 同 點 在 哪 裡 呢 它 的 不 同 點 是 現 在 我 們 不 能 再 看 右 邊 的 部 分 也 就 是 產 生 b1 的 時 候 我 們 只 能 考 慮 a1 的 資 訊
ML2021_ASR_ST-21
[ 50361, 50364, 14139, 35934, 6963, 14392, 39156, 21679, 16158, 50469, 50469, 32999, 2289, 5975, 11016, 2664, 26268, 1960, 22977, 1546, 30146, 50574, 50574, 23238, 3330, 106, 21670, 1546, 30146, 3588, 12022, 50634, 50634, 14139, 16257, 66, 19866, 9678, 35, 3045, 19866, 1541, 22977, 1546, 50804, 50804, 4184, 36859, 20578, 6240, 50854, 50854, 5884, 16657, 6236, 8623, 10907, 8990, 50, 37361, 44, 3863, 50949, 50949, 22982, 5916, 45224, 12290, 116, 7781, 26327, 11336, 8990, 17543, 44866, 51099, 51099, 4184, 22821, 2412, 8990, 10415, 235, 39152, 1960, 22977, 1546, 30146, 1541, 51214, 51214, 3581, 35, 3045, 19866, 22821, 51309, 51309, 44, 723, 72, 39, 2056, 38151, 1251, 6287, 28830, 49750, 51454, 51454, 7824, 9990, 2289, 8990, 44, 3863, 51564, 51564, 6287, 44, 3863, 35851, 16697, 6240, 51659, 51659, 6287, 44, 3863, 1546, 16697, 1541, 24842, 51739, 51739 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>Input一排vector, output另外一排vector<|2.94|><|2.94|>這一排vector每一個輸出都要看過完整的input以後才做決定<|8.64|><|8.64|>所以輸出B1的時候其實是根據A1到A4所有的資訊去輸出B1<|14.84|><|14.84|>當我們把Cell Attention轉成Mask Attention的時候<|18.78|><|18.78|>它的不同點在哪裡呢<|20.54|><|20.54|>它的不同點是現在我們不能再看右邊的部分<|25.16|><|25.16|>也就是產生B1的時候我們只能考慮A1的資訊<|28.96|><|endoftext|>
你 不 能 夠 再 考 慮 a2 a3 a4 產 生 b2 的 時 候 你 只 能 考 慮 a1 a2 的 資 訊 不 能 再 考 慮 a3 a4 的 資 訊 產 生 b3 的 時 候 你 就 不 能 考 慮 a4 的 資 訊 產 生 b4 的 時 候 你 可 以 用 整 個 input sequence 的 資 訊 這 個 就 是 masked 的 self-attention 講 得 更 具 體 一 點 你 做 的 事 情 是 這 樣 當 我 們 要 產 生 b2 的 時 候 我 們 只 拿 b2 的 我 們 只 拿 第 二 個 位 置 的 query
ML2021_ASR_ST-22
[ 50361, 50364, 4575, 2582, 2257, 44647, 303, 1672, 11, 5598, 26202, 2257, 44647, 303, 1672, 50511, 50511, 32260, 44647, 303, 1672, 23664, 8990, 12290, 116, 7781, 7182, 4275, 4200, 8816, 14128, 27662, 1546, 259, 2582, 3588, 5661, 18888, 10907, 33540, 12088, 50796, 50796, 7239, 12290, 116, 7781, 33, 16, 20643, 14139, 1541, 31337, 36841, 32, 16, 4511, 32, 19, 39300, 1546, 35380, 5396, 232, 6734, 12290, 116, 7781, 33, 16, 51106, 51106, 13118, 5884, 16075, 34, 898, 31858, 32739, 11336, 44, 3863, 31858, 20643, 51303, 51303, 45224, 47123, 8216, 3581, 37054, 6240, 51391, 51391, 45224, 47123, 8216, 1541, 12648, 5884, 28590, 8623, 4200, 22060, 14901, 1546, 32174, 51622, 51622, 6404, 5620, 33299, 8244, 33, 16, 20643, 5884, 14003, 8225, 26504, 12358, 106, 32, 16, 1546, 35380, 5396, 232, 51812 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>你不能夠再考慮A2、A3、A4<|2.60|><|2.60|>產生B2的時候<|3.88|><|3.88|>你只能考慮A1、A2的資訊<|6.24|><|6.24|>不能再考慮A3、A4的資訊<|8.40|><|8.40|>產生B3的時候<|10.08|><|10.08|>你就不能考慮A4的資訊<|12.00|><|12.00|>產生B4的時候<|13.24|><|13.24|>你可以用整個input sequence的資訊<|15.80|><|15.80|>這個就是Mask的Self-Attention<|18.76|><|18.76|>講得更具體一點<|20.28|><|20.28|>你做的事情是這樣<|21.88|><|21.88|>當我們要產生B2的時候<|23.76|><|23.76|>我們只拿B2的<|26.08|><|26.08|>我們只拿第二個位置的Query<|28.88|><|endoftext|>
去 跟 第 一 個 位 置 的 key 和 第 二 個 位 置 的 key 去 計 算 attention 第 三 個 位 置 跟 第 四 個 位 置 就 不 管 它 不 去 計 算 attention 我 們 這 樣 子 不 去 管 這 個 a2 右 邊 的 地 方 只 考 慮 a1 跟 a2 只 考 慮 q1 q2 只 考 慮 k1 k2 q2 只 跟 k1 跟 k2 去 計 算 attention 然 後 最 後 只 計 算 v1 跟 v2 的 weighted sum
ML2021_ASR_ST-23
[ 50361, 50364, 2166, 28590, 31649, 8623, 26504, 12358, 106, 32, 17, 1231, 32, 18, 1231, 32, 19, 50494, 50494, 33299, 8244, 33, 17, 20643, 50558, 50558, 2166, 14003, 8225, 26504, 12358, 106, 32, 16, 1231, 32, 17, 1546, 35380, 5396, 232, 50676, 50676, 28590, 8623, 26504, 12358, 106, 32, 18, 1231, 32, 19, 1546, 35380, 5396, 232, 50784, 50784, 33299, 8244, 33, 18, 20643, 50868, 50868, 41045, 28590, 26504, 12358, 106, 32, 19, 1546, 35380, 5396, 232, 50964, 50964, 33299, 8244, 33, 19, 20643, 51026, 51026, 42766, 9254, 27662, 3338, 259, 2582, 8310, 1546, 35380, 5396, 232, 51154, 51154, 6287, 5620, 44, 3863, 1546, 50, 1967, 12, 38151, 1251, 51302, 51302, 11932, 5916, 19002, 39806, 23987, 19202, 51378, 51378, 2166, 10907, 1546, 24675, 49603, 51458, 51458, 13118, 5884, 4275, 33299, 8244, 33, 17, 20643, 51552, 51552, 5884, 14003, 24351, 33, 17, 1546, 51668, 51668, 5884, 14003, 24351, 49085, 11160, 34719, 1546, 35550, 51808 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>去跟第一個位置的Key和第二個位置的Key去計算Attention<|6.08|><|6.08|>第三個位置跟第四個位置就不管它<|9.80|><|9.80|>不去計算Attention<|12.28|><|12.28|>我們這樣子不去管A2右邊的地方<|17.34|><|17.34|>只考慮A1跟A2<|19.32|><|19.32|>只考慮Q1、Q2<|21.48|><|21.48|>只考慮K1、K2<|23.16|><|23.16|>Q2只跟K1跟K2去計算Attention<|26.02|><|26.02|>最後只計算V1跟V2的Weighted Sum<|28.76|><|endoftext|>
然 後 當 我 們 輸 出 這 個 b2 的 時 候 b2 就 只 考 慮 了 a1 跟 a2 就 沒 有 考 慮 到 a3 跟 a4 那 為 什 麼 會 這 樣 呢 為 什 麼 需 要 加 masked 呢 這 件 事 情 其 實 非 常 地 直 覺 怎 麼 說 你 想 想 看 我 們 一 開 始 decoder 的 運 作 方 式 它 是 一 個 一 個 輸 出 它 的 輸 出 是 一 個 一 個 產 生 的 所 以 是 先 有 a1 再 有 a2 再 有 a3 再 有 a4 這 跟 原 來 的 self-attention 不 一 樣 原 來 的 self-attention
ML2021_ASR_ST-24
[ 50361, 50364, 6734, 9678, 40760, 11160, 34719, 1546, 42, 2030, 12565, 49085, 11160, 34719, 1546, 42, 2030, 6734, 30114, 19497, 38151, 1251, 50668, 50668, 35878, 3338, 11160, 34719, 9678, 7536, 19425, 3338, 11160, 34719, 3111, 45376, 11284, 50854, 50854, 1960, 6734, 30114, 19497, 38151, 1251, 50978, 50978, 5884, 24842, 1960, 6734, 23131, 32, 17, 22060, 14901, 1546, 30146, 51231, 51231, 14003, 26504, 12358, 106, 32, 16, 9678, 32, 17, 51330, 51330, 14003, 26504, 12358, 106, 48, 16, 1231, 48, 17, 51438, 51438, 14003, 26504, 12358, 106, 42, 16, 1231, 42, 17, 51522, 51522, 48, 17, 14003, 9678, 42, 16, 9678, 42, 17, 6734, 30114, 19497, 38151, 1251, 51665, 51665, 20578, 14003, 30114, 19497, 53, 16, 9678, 53, 17, 1546, 4360, 397, 292, 8626, 51802 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>當我們輸出這個B2的時候<|2.00|><|2.00|>B2就只考慮了A1跟A2<|4.50|><|4.50|>就沒有考慮到A3跟A4<|6.76|><|6.76|>那為什麼會這樣呢?<|8.30|><|8.30|>為什麼需要加Masking呢?<|11.30|><|11.30|>這件事情其實非常的直覺<|13.38|><|13.38|>怎麼說?<|14.18|><|14.18|>你想想看我們一開始Decoder的運作方式<|16.80|><|16.80|>它是一個一個輸出<|19.34|><|19.34|>它的輸出是一個一個產生的<|21.64|><|21.64|>所以是先有A1再有A2再有A3再有A4<|26.10|><|26.10|>這跟原來的Self-Attention不一樣<|28.06|><|28.06|>原來的Self-Attention<|29.36|><|endoftext|>
a1 跟 a4 是 一 次 整 個 輸 進 去 你 的 model 裡 面 的 在 我 們 講 encoder 的 時 候 encoder 是 一 次 把 a1 跟 a4 都 整 個 都 讀 進 去 但 是 對 decoder 而 言 先 有 a1 才 有 a2 才 有 a3 才 有 a4 所 以 實 際 上 當 你 有 a2 你 要 計 算 b2 的 時 候 你 是 沒 有 a3 跟 a4 的 所 以 你 根 本 就 沒 有 辦 法 把 a3 a4 考 慮 進 來 所 以 這 就 是 為 什 麼 在 那 個 decoder 的 那 個 圖 上 面
ML2021_ASR_ST-25
[ 50361, 50364, 13118, 5884, 12290, 116, 7781, 6287, 33, 17, 20643, 50464, 50464, 33, 17, 3111, 14003, 26504, 12358, 106, 2289, 32, 16, 9678, 32, 17, 50589, 50589, 3111, 6963, 26504, 12358, 106, 4511, 32, 18, 9678, 32, 19, 50702, 50702, 4184, 18987, 6236, 8377, 6240, 30, 50779, 50779, 18987, 35748, 9990, 44, 47211, 6240, 30, 50929, 50929, 2664, 49459, 14139, 48263, 16186, 9463, 51033, 51033, 11614, 4622, 30, 51073, 51073, 38386, 7093, 4200, 5884, 2257, 21017, 35, 3045, 19866, 1546, 32772, 11914, 9249, 27584, 51204, 51204, 11284, 1541, 8990, 8990, 12290, 116, 7781, 51331, 51331, 45224, 12290, 116, 7781, 1541, 8990, 8990, 33299, 8244, 1546, 51446, 51446, 7239, 1541, 10108, 2412, 32, 16, 8623, 2412, 32, 17, 8623, 2412, 32, 18, 8623, 2412, 32, 19, 51669, 51669, 2664, 9678, 19683, 3763, 1546, 50, 1967, 12, 38151, 1251, 1960, 22977, 51767, 51767, 19683, 3763, 1546, 50, 1967, 12, 38151, 1251, 51832 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>A1跟A4是一次整個輸進去你的model裡面的<|3.94|><|3.94|>在我們講encoder的時候<|5.44|><|5.44|>encoder是一次把A1跟A4整個都讀進去<|9.00|><|9.00|>但是對decoder而言<|10.54|><|10.80|>先有A1才有A2才有A3才有A4<|13.94|><|13.94|>所以實際上當你有A2<|16.10|><|16.10|>你要計算B2的時候<|17.76|><|17.84|>你是沒有A3跟A4的<|19.94|><|20.04|>所以你根本就沒有辦法把A3 A4<|22.96|><|23.10|>考慮進來<|23.90|><|23.90|>所以這就是為什麼在那個decoder的<|26.50|><|26.50|>那個圖上面<|27.64|><|endoftext|>
transformer 原 始 的 paper 特 別 跟 你 強 調 說 那 不 是 一 個 一 般 的 attention 這 是 一 個 masked 的 self-attention 意 思 只 是 想 要 告 訴 你 說 decoder 它 的 token 它 輸 出 的 東 西 是 一 個 一 個 產 生 的 所 以 它 只 能 考 慮 它 左 邊 的 東 西 它 沒 有 辦 法 考 慮 它 右 邊 的 東 西 好 但 是 講 到 這 裡 啊 我 們 講 了 一 下 我 們 講 了 decoder 的 運 作 方 式 但 是 這 邊 呢 還 有 一 個 非 常 關 鍵 的 問 題 這 個 關 鍵 的 問 題 是 decoder 必 須 自 己 決 定
ML2021_ASR_ST-26
[ 50361, 50364, 32, 16, 9678, 32, 19, 1541, 27505, 27662, 3338, 12290, 116, 18214, 6734, 18961, 8014, 338, 32399, 1546, 50561, 50561, 3581, 5884, 11932, 22660, 19866, 20643, 50636, 50636, 22660, 19866, 1541, 27505, 16075, 32, 16, 9678, 32, 19, 27662, 3338, 7182, 7422, 222, 18214, 6734, 50814, 50814, 11189, 2855, 42821, 19866, 11070, 12009, 50891, 50904, 10108, 2412, 32, 16, 18888, 2412, 32, 17, 18888, 2412, 32, 18, 18888, 2412, 32, 19, 51061, 51061, 7239, 10376, 34837, 5708, 13118, 43320, 32, 17, 51169, 51169, 32085, 30114, 19497, 33, 17, 20643, 51252, 51256, 32526, 6963, 32, 18, 9678, 32, 19, 1546, 51361, 51366, 7239, 2166, 31337, 8802, 3111, 6963, 40072, 16075, 32, 18, 316, 19, 51512, 51519, 26504, 12358, 106, 18214, 3763, 51559, 51559, 7239, 2664, 5620, 18987, 3581, 20754, 42821, 19866, 1546, 51689, 51689, 20754, 2523, 244, 49750, 51746 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>Transformer原始的paper特別跟你強調說<|2.66|><|2.66|>那不是一個一般的Attention<|4.40|><|4.40|>這是一個Masked的Zone Attention<|7.16|><|7.16|>意思只是想要告訴你說<|8.56|><|8.56|>Decoder他的Token<|10.20|><|10.20|>他輸出的東西是一個一個產生的<|12.56|><|12.56|>所以他只能考慮他左邊的東西<|14.76|><|14.76|>他沒有辦法考慮他右邊的東西<|17.60|><|17.60|>好但是講到這裡啊<|19.12|><|19.12|>我們講了一下<|20.06|><|20.06|>我們講了Decoder的運作方式<|22.12|><|22.12|>但是這邊呢還有一個非常關鍵的問題<|25.20|><|25.20|>這個關鍵的問題是<|26.60|><|26.92|>Decoder必須自己決定<|29.02|><|endoftext|>
輸 出 的 sequence 的 長 度 可 是 到 底 輸 出 的 sequence 的 長 度 應 該 是 多 少 呢 我 們 不 知 道 你 沒 有 辦 法 輕 易 的 從 輸 入 的 sequence 的 長 度 就 知 道 輸 出 的 sequence 的 長 度 是 多 少 並 不 是 說 輸 入 是 4 個 向 量 輸 出 一 定 就 是 4 個 向 量 這 邊 在 這 個 例 子 裡 面 輸 入 跟 輸 出 的 長 度 是 一 樣 的 但 是 你 知 道 實 際 上 在 你 真 正 的 應 用 裡 面 並 不 是 這 樣 輸 入 跟 輸 出 長 度 的 關 係 是 非 常 複 雜 的
ML2021_ASR_ST-27
[ 50361, 50364, 33339, 837, 260, 19683, 15476, 1546, 22104, 38446, 24131, 22752, 32943, 4622, 50497, 50497, 4184, 7296, 8990, 2257, 49640, 1546, 38151, 1251, 50584, 50584, 16600, 8990, 44, 3863, 292, 1546, 57, 546, 31858, 50722, 50722, 16697, 36859, 7093, 4275, 31080, 42920, 50792, 50792, 35, 3045, 19866, 31309, 51, 8406, 50874, 50874, 5000, 12290, 116, 7781, 1546, 26978, 1541, 8990, 8990, 33299, 8244, 1546, 50992, 50992, 7239, 5000, 14003, 8225, 26504, 12358, 106, 5000, 21975, 14901, 1546, 26978, 51102, 51102, 5000, 6963, 40072, 26504, 12358, 106, 5000, 22060, 14901, 1546, 26978, 51244, 51244, 2131, 11189, 11932, 4511, 18771, 4905, 51320, 51320, 5884, 11932, 2289, 8861, 51367, 51367, 5884, 11932, 2289, 35, 3045, 19866, 1546, 32772, 11914, 9249, 27584, 51470, 51470, 11189, 22821, 6240, 15569, 8990, 14392, 14899, 41668, 113, 1546, 17197, 51624, 51624, 6287, 14899, 41668, 113, 1546, 17197, 1541, 51694, 51710, 35, 3045, 19866, 28531, 8313, 230, 17645, 33540, 12088, 51815 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>輸出的sequence的長度<|2.60|><|2.60|>可是到底輸出的sequence的長度應該是多少呢?<|6.00|><|6.00|>我們不知道<|7.60|><|7.60|>你沒有辦法輕易地從輸入的sequence的長度<|11.00|><|11.00|>就知道輸出的sequence的長度是多少<|14.20|><|14.20|>並不是說輸入是四個向量<|17.80|><|17.80|>輸出一定就是四個向量<|19.60|><|19.60|>這邊在這個例子裡面輸入跟輸出的長度是一樣的<|22.40|><|22.40|>但是你知道實際上在你真正的應用裡面並不是這樣<|25.80|><|25.80|>輸入跟輸出長度的關係是非常複雜的<|29.60|><|endoftext|>
我 們 其 實 是 期 待 機 器 可 以 自 己 學 到 今 天 給 它 一 個 input sequence 的 時 候 output 的 sequence 應 該 要 多 長 但 在 我 們 目 前 的 這 整 個 decoder 的 這 個 運 作 的 機 制 裡 面 機 器 不 知 道 它 什 麼 時 候 應 該 停 下 來 它 產 生 完 習 以 後 它 還 可 以 繼 續 重 複 一 模 一 樣 的 process 就 把 習 呢 當 做 輸 入 然 後 也 許 decoder 呢 就 會 接 一 個 慣 然 後 接 下 來 呢 就 一 直 持 續 下 去
ML2021_ASR_ST-28
[ 50361, 50364, 12290, 116, 7781, 1546, 11834, 655, 1546, 15353, 13127, 50494, 50494, 23359, 33883, 12290, 116, 7781, 1546, 11834, 655, 1546, 15353, 13127, 26087, 1541, 41492, 6240, 30, 50664, 50664, 5884, 17572, 50744, 50744, 2166, 6963, 40072, 34801, 31962, 10928, 21068, 12290, 116, 14028, 1546, 11834, 655, 1546, 15353, 13127, 50914, 50914, 3111, 7758, 12290, 116, 7781, 1546, 11834, 655, 1546, 15353, 13127, 1541, 41492, 51074, 51074, 35934, 7296, 4622, 12290, 116, 14028, 1541, 19425, 3338, 24282, 26748, 51254, 51254, 12290, 116, 7781, 24272, 5620, 19425, 3338, 24282, 26748, 51344, 51344, 22821, 3581, 6287, 17797, 7626, 32399, 12290, 116, 14028, 9678, 12290, 116, 7781, 1546, 15353, 13127, 1541, 22977, 1546, 51484, 51484, 11189, 28945, 10376, 34837, 5708, 3581, 2166, 6303, 15789, 1546, 20481, 9254, 32399, 35934, 7296, 8377, 51654, 51654, 12290, 116, 14028, 9678, 12290, 116, 7781, 15353, 13127, 1546, 25802, 1541, 14392, 164, 97, 229, 6306, 250, 1546, 51844 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>我們其實是期待機器可以自己學到<|3.40|><|3.40|>今天給他一個input sequence的時候<|5.80|><|5.80|>output sequence應該要多長<|7.76|><|7.76|>但在我們目前的這整個decoder的運作機制裡面<|12.70|><|12.70|>機器不知道他什麼時候應該停下來<|16.40|><|16.40|>他產生完錫以後<|18.30|><|18.30|>他還可以繼續重複一模一樣的process<|21.70|><|21.70|>就把錫當作輸入<|24.16|><|24.16|>然後也許decoder就會接一個罐<|27.00|><|27.00|>然後接下來就一直持續下去<|29.50|><|endoftext|>
永 遠 都 不 會 停 下 來 這 讓 我 想 到 什 麼 呢 就 讓 我 想 到 推 文 接 龍 啦 我 不 知 道 大 家 知 不 知 道 這 是 什 麼 這 是 一 個 這 個 古 老 的 民 俗 傳 統 流 傳 在 ptt 上 面 這 個 民 俗 傳 統 是 怎 麼 運 作 的 呢 就 有 一 個 人 呢 先 推 一 個 中 文 字 然 後 推 一 個 超 然 後 接 下 來 呢 就 會 有 另 外 一 個 鄉 民 呢 去 推 另 外 一 個 字 然 後 可 以 接 上 去 的 所 以 就 可 以 產 生 一 排 的 詞 彙 啦 一 排 字 啦
ML2021_ASR_ST-29
[ 50361, 50364, 5884, 14139, 1541, 16786, 18390, 17543, 34386, 6723, 17645, 21372, 4511, 50534, 50534, 12074, 17798, 5000, 8990, 259, 2582, 8310, 20643, 50654, 50654, 346, 2582, 8310, 26087, 4275, 6392, 15353, 50752, 50752, 8395, 3581, 5884, 39004, 1546, 2664, 27662, 3338, 42821, 19866, 1546, 32772, 11914, 17543, 25491, 32399, 50999, 50999, 17543, 34386, 17572, 5000, 7598, 14010, 26087, 36135, 27769, 51184, 51184, 5000, 33299, 8244, 14128, 9567, 104, 3588, 5661, 51279, 51279, 5000, 7824, 6723, 38459, 12624, 164, 97, 229, 2257, 41908, 22977, 1546, 41075, 51449, 51449, 3111, 16075, 9567, 104, 13118, 11914, 12290, 116, 14028, 51572, 51572, 10213, 6404, 40914, 42821, 19866, 47778, 14468, 8990, 16469, 238, 51714, 51714, 10213, 40012, 3111, 34448, 17694, 29583, 34473, 51839 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>永遠都不會停下來<|2.36|><|2.36|>這讓我想到什麼呢?<|3.66|><|3.66|>這讓我想到推文接龍啦<|5.60|><|5.60|>我不知道大家知不懂是什麼<|7.40|><|7.40|>這是一個古老的民俗傳統<|10.96|><|10.96|>流傳在PTT上面<|13.30|><|13.30|>這個民俗傳統是怎麼運作的呢?<|15.60|><|15.60|>就有一個人先推一個中文字<|18.80|><|18.80|>推一個抄<|19.84|><|19.84|>然後接下來就會有另外一個鄉民<|22.44|><|22.44|>去推另外一個字<|24.20|><|24.20|>然後可以接上去的<|25.44|><|25.44|>所以就可以產生一排的詞彙啦<|27.84|><|27.84|>一排字啦<|28.64|><|endoftext|>
就 是 超 人 正 大 中 天 外 飛 仙 草 不 知 道 在 說 些 什 麼 這 個 process 呢 可 以 持 續 好 幾 個 月 都 不 停 下 來 我 也 不 知 道 為 什 麼 那 怎 麼 讓 這 個 process 停 下 來 呢 那 要 怎 麼 讓 它 停 下 來 呢 要 有 人 冒 險 去 推 一 個 斷 推 個 斷 它 就 停 下 來 了 所 以 我 們 要 讓 decoder 做 的 事 情 也 是 一 樣 要 讓 它 可 以 輸 出 一 個 斷 所 以 你 要 特 別 準 備 一 個 特 別 的 符 號 這 個 符 號 呢 就 叫 做 斷
ML2021_ASR_ST-30
[ 50361, 50364, 42503, 34489, 7182, 21121, 36135, 27769, 50482, 50482, 2664, 21195, 25246, 4511, 7598, 6240, 30, 50547, 50547, 2664, 21195, 25246, 4511, 33597, 17174, 14468, 39473, 9724, 50644, 50644, 47826, 6868, 6498, 1960, 29624, 35851, 50734, 50734, 16600, 8990, 46335, 10439, 1546, 16113, 7792, 245, 40852, 33725, 50912, 50912, 27854, 40852, 3581, 47, 28178, 49750, 51029, 51029, 6287, 16113, 7792, 245, 40852, 33725, 1541, 11614, 32772, 11914, 1546, 6240, 30, 51144, 51144, 3111, 2412, 8990, 4035, 10108, 33597, 8990, 5975, 17174, 22381, 51304, 51304, 33597, 8990, 7235, 226, 51356, 51356, 10213, 40012, 47778, 2412, 26202, 8990, 49500, 231, 16113, 51486, 51486, 6734, 33597, 26202, 8990, 22381, 51574, 51574, 10213, 6723, 14468, 5708, 6734, 1546, 51636, 51636, 7239, 36781, 33299, 8244, 2257, 44647, 1546, 6716, 252, 7391, 247, 9724, 51756, 51756, 2257, 44647, 22381, 9724, 51796 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>就是超人、正大、中天、外飛仙、超人不知道在說些什麼<|3.64|><|3.64|>這個process可以持續好幾個月都不停下來<|7.88|><|7.88|>我也不知道為什麼<|8.88|><|8.88|>那怎麼讓這個process停下來呢?<|11.56|><|11.56|>那要怎麼讓它停下來呢?<|13.24|><|13.24|>要有人冒險去推一個段<|15.64|><|15.64|>推一個段,它就停下來了<|18.08|><|18.08|>所以我們要讓decoder做的事情也是一樣<|21.64|><|21.64|>要讓它可以輸出一個段<|24.28|><|24.28|>所以你要特別準備一個特別的符號<|27.20|><|27.20|>這個符號就叫做段<|29.44|><|endoftext|>
我 們 這 邊 呢 用 end 來 表 示 這 個 特 殊 的 符 號 所 以 除 了 所 有 中 文 的 方 塊 字 還 有 begin 以 外 你 還 要 準 備 一 個 特 殊 的 符 號 叫 做 斷 那 其 實 在 助 教 的 程 式 裡 面 啊 它 是 把 begin 跟 end 就 是 開 始 跟 這 個 斷 用 同 一 個 符 號 來 表 示 反 正 這 個 這 個 begin 只 會 在 輸 入 的 時 候 出 現 斷 只 會 在 輸 出 的 時 候 出 現 所 以 在 助 教 的 程 式 裡 面 如 果 你 仔 細 研 究 一 下 的 話 會 發 現 說 end 跟 begin
ML2021_ASR_ST-31
[ 50361, 50364, 5620, 19869, 4035, 1231, 15789, 3582, 1231, 5975, 6135, 1231, 12022, 34629, 1550, 247, 1231, 19869, 4035, 17572, 3581, 4622, 13824, 7598, 50546, 50546, 6287, 41075, 6723, 17694, 29583, 2131, 23575, 3338, 6939, 7182, 1960, 36135, 27769, 50758, 50758, 27761, 17572, 18987, 50808, 50808, 4184, 11614, 21195, 6287, 41075, 36135, 27769, 6240, 30, 50942, 50942, 4184, 4275, 11614, 21195, 11284, 36135, 27769, 6240, 30, 51026, 51026, 4275, 45820, 5676, 240, 49753, 6734, 33597, 8990, 28427, 51146, 51146, 33597, 8990, 28427, 11, 11284, 3111, 36135, 4438, 25364, 51268, 51268, 7239, 5884, 4275, 21195, 42821, 19866, 10907, 1546, 24675, 22021, 22977, 51446, 51446, 4275, 21195, 11284, 6723, 12290, 116, 7781, 8990, 28427, 51578, 51578, 7239, 32085, 38446, 36241, 8990, 38446, 1546, 5437, 99, 18616, 51724, 51724, 6287, 5437, 99, 18616, 3111, 19855, 10907, 28427, 51836 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>這邊用end來表示這個特殊的符號<|4.36|><|4.36|>所以除了所有中文的方塊字還有begin以外<|9.40|><|9.40|>你還要準備一個特殊的符號叫做段<|12.60|><|12.60|>那其實在助教的程式裡面<|14.60|><|14.60|>它是把begin跟end<|16.88|><|16.88|>就是開始跟這個段用同一個符號來表示<|20.08|><|20.08|>反正這個begin只會在輸入的時候出現<|23.40|><|23.40|>段只會在輸出的時候出現<|25.12|><|25.12|>所以在助教程式裡面<|26.16|><|26.16|>如果你仔細研究一下的話<|27.76|><|27.76|><|endoftext|>
用 的 其 實 是 同 一 個 符 號 但 你 用 不 同 的 符 號 也 是 完 全 可 以 的 也 完 全 沒 有 問 題 好 所 以 我 們 現 在 呢 這 樣 decoder 它 可 以 輸 出 斷 這 個 符 號 輸 出 end 這 個 符 號 那 我 們 期 待 說 當 今 天 呢 產 生 完 習 以 後 再 把 習 當 作 decoder 的 輸 入 以 後 decoder 就 要 能 夠 輸 出 斷 也 就 是 說 當 把 習 當 作 輸 入 以 後 就 decoder 看 到 encoder 輸 出 的 這 個 embedding
ML2021_ASR_ST-32
[ 50361, 50364, 22821, 9254, 521, 3763, 40053, 6287, 17682, 15976, 232, 1546, 5437, 99, 18616, 50582, 50582, 7239, 32999, 2289, 39300, 5975, 17174, 1546, 9249, 26268, 22381, 15569, 650, 1494, 3588, 12022, 50834, 50834, 2166, 7824, 4275, 36241, 8990, 17682, 15976, 232, 1546, 5437, 99, 18616, 19855, 10907, 28427, 50994, 50994, 4184, 14139, 3581, 37618, 21936, 1546, 29649, 27584, 32399, 51094, 51094, 11284, 1541, 16075, 650, 1494, 9678, 521, 51208, 51208, 5620, 21017, 9678, 6287, 28427, 9254, 13089, 8990, 5437, 99, 18616, 3763, 40053, 51368, 51368, 22138, 15789, 6287, 650, 1494, 14003, 6236, 3581, 12290, 116, 14028, 20643, 7781, 9581, 51534, 51534, 28427, 14003, 6236, 3581, 12290, 116, 7781, 20643, 7781, 9581, 51620, 51620, 7239, 3581, 37618, 21936, 29649, 27584, 32399, 51672, 51672, 45669, 49385, 41588, 23230, 242, 44704, 8861, 21358, 51752, 51752 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>用的其實是同一個符號<|1.54|><|1.54|>但你用不同的符號<|2.84|><|2.84|>也是完全可以的<|4.32|><|4.32|>也完全沒有問題<|5.96|><|5.96|>所以我們現在呢<|7.48|><|7.48|>這樣Decoder它可以輸出<|9.60|><|9.60|>斷這個符號<|10.84|><|10.84|>輸出End這個符號<|12.52|><|12.52|>那我們期待說<|14.04|><|14.04|>當今天呢<|15.36|><|15.36|>產生完習以後<|17.12|><|17.12|>再把習當作Decoder的輸入以後<|19.96|><|19.96|>Decoder就要能夠輸出斷<|22.92|><|22.92|>也就是說當把習當作輸入以後<|25.36|><|25.36|>就Decoder看到Encoder輸出的<|28.36|><|28.36|><|endoftext|>
看 到 了 begin 然 後 機 器 學 習 以 後 看 到 這 些 資 訊 以 後 它 要 知 道 說 這 個 語 音 辨 識 的 結 果 已 經 結 束 了 不 需 要 再 產 生 更 多 的 詞 彙 了 它 產 生 出 來 的 向 量 裡 面 這 個 end 就 是 斷 的 那 個 符 號 它 的 機 率 必 須 要 是 最 大 的 然 後 你 就 輸 出 斷 這 個 符 號 那 整 個 運 作 的 過 程 整 個 decoder 產 生 sequence 的 過 程 就 結 束 了 好 那 這 個 呢
ML2021_ASR_ST-33
[ 50361, 50364, 9254, 1546, 14139, 1541, 13089, 8990, 5437, 99, 18616, 50441, 50441, 8395, 2166, 9254, 47123, 1546, 5437, 99, 18616, 50506, 50506, 22021, 37100, 6723, 1546, 50580, 50580, 6404, 37100, 6963, 17197, 50662, 50662, 7239, 5884, 12648, 6240, 50738, 50738, 8377, 35, 3045, 19866, 11284, 6723, 12290, 116, 7781, 50844, 50844, 4307, 115, 6287, 5437, 99, 18616, 50906, 50906, 12290, 116, 7781, 36952, 6287, 5437, 99, 18616, 50990, 50990, 46714, 16786, 18390, 4622, 51066, 51066, 13118, 12074, 6240, 51132, 51132, 33299, 8244, 14128, 34025, 3588, 5661, 51220, 51220, 8623, 16075, 34025, 13118, 11914, 35, 3045, 19866, 1546, 12290, 116, 14028, 3588, 5661, 51362, 51362, 35, 3045, 19866, 3111, 4275, 8225, 31649, 12290, 116, 7781, 4307, 115, 51510, 51510, 6404, 26222, 13118, 16075, 34025, 13118, 11914, 12290, 116, 14028, 3588, 5661, 51632, 51632, 3111, 35, 3045, 19866, 18032, 16257, 66, 19866, 12290, 116, 7781, 1546, 51782, 51782 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>看到了begin,然後機器學習以後<|3.80|><|3.80|>看到這些資訊以後,他要知道說<|5.80|><|5.80|>這個語音辨識的結果已經結束了<|8.80|><|8.80|>不需要再產生更多的詞彙了<|11.60|><|11.60|>他產生出來的向量裡面<|13.60|><|13.60|>這個end,就是斷的那個符號<|15.80|><|15.80|>他的機率必須要是最大的<|18.60|><|18.60|>然後你就輸出斷這個符號<|20.60|><|20.60|>那整個運作的過程,整個decoder<|23.20|><|23.20|>產生sequence的過程就結束了<|25.80|><|25.80|>好,那這個呢<|27.80|><|endoftext|>
也 縮 寫 成 at non-autoregressive 的 model 是 怎 麼 運 作 的 呢 這 個 autoregressive 的 model 是 先 輸 入 begin 然 後 出 現 w1 然 後 再 把 w1 當 做 輸 入 再 輸 出 w2 直 到 輸 出 end 為 止 那 nat 是 這 樣 它 不 是 一 次 產 生 就 假 設 我 們 現 在 產 生 是 中 文 的 句 子 它 不 是 一 次 產 生 一 個 字 它 是 一 次 把 整 個 句 子 都 產 生 出 來 怎 麼 一 次 把 整 個 句 子 都 產 生 出 來 呢 nat 的 decoder 啊
ML2021_ASR_ST-34
[ 50361, 50364, 18032, 2289, 650, 1494, 11, 10213, 17543, 34386, 21372, 34025, 3588, 5661, 50554, 50554, 18032, 29869, 35380, 5396, 232, 3588, 5661, 11, 5000, 4275, 7758, 4622, 50654, 50654, 6287, 31348, 18034, 9830, 101, 43143, 1546, 35181, 25338, 17144, 44320, 2289, 50804, 50804, 1960, 35748, 8623, 33299, 8244, 19002, 6392, 1546, 6716, 252, 7391, 247, 2289, 50944, 50944, 5000, 33299, 8244, 29741, 1546, 24282, 26748, 32399, 51044, 51044, 6287, 521, 11, 5620, 4307, 115, 1546, 20754, 5437, 99, 18616, 51154, 51154, 31309, 17543, 44866, 28531, 8313, 230, 4275, 1541, 8661, 39156, 51294, 51294, 10213, 41045, 12290, 116, 7781, 4307, 115, 6287, 5437, 99, 18616, 51394, 51394, 4184, 27662, 3338, 32772, 11914, 1546, 8816, 29649, 11, 27662, 3338, 1479, 1291, 1068, 51524, 51524, 33299, 8244, 11834, 655, 1546, 8816, 29649, 3111, 17144, 44320, 2289, 51654, 51654, 2131, 11, 4184, 6287, 6240, 51754 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>也縮寫成at<|1.76|><|1.76|>那AutoRegressive的model是怎麼運作的呢<|4.28|><|4.28|>這個AutoRegressive的model是<|6.20|><|6.20|>先輸入begin,然後出現w1<|8.88|><|8.88|>然後再把w1當作輸入,再輸出w2<|11.68|><|11.68|>直到輸出end的位置<|14.12|><|14.12|>那NAT是這樣<|15.40|><|15.40|>它不是一次產生<|17.52|><|17.52|>就假設我們現在要產生的是中文的句子<|19.36|><|19.36|>它不是一次產生一個字<|20.72|><|20.72|>它是一次把整個句子都產生出來<|23.36|><|23.36|>怎麼一次把整個句子都產生出來呢<|26.28|><|26.28|>NAT的decoder啊<|27.60|><|endoftext|>
它 可 能 吃 的 是 一 整 排 的 begin 的 token 你 就 把 一 堆 一 排 begin 的 token 都 丟 給 它 讓 它 一 次 產 生 一 排 token 就 結 束 了 舉 例 來 說 如 果 你 丟 給 它 4 個 begin 的 token 它 就 產 生 4 個 中 文 的 字 變 成 一 個 句 子 就 結 束 了 所 以 它 只 要 一 個 步 驟 就 可 以 完 成 句 子 的 生 成 這 邊 你 可 能 會 問 一 個 問 題 剛 才 不 是 說 不 知 道 要 有 多 輸 出 的 長 度 應 該 是 多 少 嗎
ML2021_ASR_ST-35
[ 50361, 50364, 6404, 21030, 106, 4510, 104, 11336, 267, 50452, 50452, 4184, 32, 8262, 40888, 22733, 1546, 8014, 338, 1541, 11614, 32772, 11914, 1546, 6240, 50578, 50578, 6287, 32, 8262, 40888, 22733, 1546, 8014, 338, 1541, 50674, 50674, 10108, 12290, 116, 14028, 650, 1494, 11, 10213, 7781, 9581, 86, 16, 50808, 50808, 10213, 8623, 16075, 86, 16, 13118, 11914, 12290, 116, 14028, 11, 8623, 12290, 116, 7781, 86, 17, 50948, 50948, 16186, 4511, 12290, 116, 7781, 521, 1546, 11160, 34719, 51070, 51070, 4184, 45, 2218, 49603, 51134, 51134, 11284, 7296, 27505, 33299, 8244, 51240, 51240, 3111, 31706, 39035, 5884, 12648, 4275, 33299, 8244, 24620, 5975, 17174, 1546, 34592, 7626, 51332, 51332, 11284, 7296, 27505, 33299, 8244, 8990, 22381, 51400, 51400, 11284, 1541, 27505, 16075, 27662, 3338, 34592, 7626, 7182, 33299, 8244, 29741, 51532, 51532, 11614, 27505, 16075, 27662, 3338, 34592, 7626, 7182, 33299, 8244, 29741, 6240, 51678, 51678, 45, 2218, 1546, 42821, 19866, 4905, 51744 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>他可能吃的是一整排的begin的token<|4.00|><|4.00|>你就把一堆一排begin的token都丟給他<|7.12|><|7.12|>讓他一次產生一排token就結束了<|9.92|><|9.92|>舉例來說如果你丟給他四個begin的token<|12.72|><|12.72|>他就產生四個中文的字<|14.88|><|14.88|>變成一個句子就結束了<|17.44|><|17.44|>所以他只要一個步驟就可以完成句子的生成<|21.44|><|21.44|>這邊你可能就會問一個問題<|23.12|><|23.12|>剛才不是說不知道要有多...<|26.08|><|26.08|>輸出的長度應該是多少嗎<|27.84|><|endoftext|>
那 我 們 這 邊 怎 麼 知 道 begin 要 放 多 少 個 當 做 nat decoder 的 收 入 呢 沒 錯 這 件 事 沒 有 辦 法 很 自 然 的 知 道 沒 有 辦 法 很 直 接 的 知 道 所 以 有 幾 個 所 以 有 幾 個 做 法 一 個 做 法 是 你 另 外 扔 一 個 classifier 這 個 classifier 呢 它 吃 encoder 的 input 然 後 輸 出 是 什 麼 輸 出 是 一 個 數 字 這 個 數 字 代 表 decoder 應 該 要 輸 出 的 長 度 所 以 你 就 扔 一 個 classifier 這 個 classifier 可 能 吃 encoder 的 input 可 能 吃
ML2021_ASR_ST-36
[ 50361, 50364, 5000, 16657, 10123, 24620, 2257, 27662, 44647, 1546, 650, 1494, 1546, 83, 8406, 50564, 50564, 41045, 16075, 2257, 10726, 228, 2257, 44647, 650, 1494, 1546, 83, 8406, 7182, 940, 253, 17798, 5000, 50720, 50720, 21195, 5000, 27505, 33299, 8244, 2257, 44647, 83, 8406, 3111, 17144, 44320, 2289, 50860, 50860, 42828, 17797, 36979, 45669, 940, 253, 17798, 5000, 19425, 3338, 650, 1494, 1546, 83, 8406, 51000, 51000, 5000, 3111, 33299, 8244, 19425, 3338, 5975, 17174, 1546, 22381, 51108, 51108, 26327, 11336, 8990, 34592, 7626, 3111, 17144, 44320, 2289, 51236, 51236, 7239, 5000, 14003, 4275, 8990, 31429, 24023, 253, 36781, 41509, 34592, 7626, 1546, 8244, 11336, 51436, 51436, 22821, 2166, 16657, 47778, 11361, 8990, 17197, 51520, 51520, 16940, 18888, 7296, 4622, 17572, 4275, 2412, 6392, 485, 51668, 51668, 12290, 116, 7781, 1546, 15353, 13127, 26087, 1541, 41492, 7434, 51756 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那我們這邊怎麼知道Begin要放多少個當作NAT decoder的輸入呢?<|4.80|><|4.80|>沒錯,這件事沒有辦法很自然的知道,沒有辦法很直接的知道<|8.56|><|8.56|>所以有幾個做法,一個做法是你另外認一個classifier<|13.32|><|13.32|>這個classifier它吃encoder的input,然後輸出是什麼?<|18.96|><|18.96|>輸出是一個數字,這個數字代表decoder應該要輸出的長度<|23.44|><|23.44|>所以你就認一個classifier,這個classifier可能吃encoder的input<|28.48|><|28.48|><|endoftext|>
把 encoder output 那 些 向 量 讀 進 去 它 output 一 個 數 字 比 如 說 output 4 它 output 4 以 後 decoder 就 會 吃 到 nat 的 decoder 就 會 吃 到 4 個 begin 的 token 然 後 它 就 產 生 4 個 中 文 的 字 這 是 一 種 可 能 的 做 法 另 一 種 可 能 做 法 就 是 你 就 不 管 三 七 二 十 一 給 它 一 堆 begin 的 token 你 就 假 設 說 你 現 在 輸 出 的 句 子 的 長 度 絕 對 不 會 超 過 300 個 字 你 就 假 設 一 個 句 子 長 度 的 上 限 然 後 begin 呢 你 就 給 它 300 個 begin
ML2021_ASR_ST-37
[ 50361, 50364, 46714, 22821, 11614, 7758, 33, 1146, 259, 4275, 12744, 41492, 3338, 13118, 11914, 45, 2218, 979, 19866, 1546, 12290, 116, 14028, 6240, 30, 50604, 50604, 23800, 11, 2664, 20485, 6973, 6963, 40072, 4563, 9722, 5823, 1546, 7758, 11, 6963, 40072, 4563, 43297, 1546, 7758, 50792, 50792, 7239, 2412, 23575, 3338, 10907, 11148, 11, 8990, 10907, 11148, 1541, 2166, 26202, 22041, 8990, 11665, 9902, 51030, 51030, 6287, 11665, 9902, 11284, 10123, 22660, 19866, 1546, 259, 2582, 11, 10213, 12290, 116, 7781, 35851, 30, 51312, 51312, 12290, 116, 7781, 1541, 8990, 30622, 22381, 11, 6287, 30622, 22381, 19105, 17571, 42821, 19866, 26087, 4275, 12290, 116, 7781, 1546, 15353, 13127, 51536, 51536, 7239, 41045, 22041, 8990, 11665, 9902, 11, 6287, 11665, 9902, 16657, 10123, 22660, 19866, 1546, 259, 2582, 51788, 51788 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>把encoder output的那些向量讀進去<|2.46|><|2.46|>它output一個數字,比如說output4<|4.54|><|4.54|>它output4以後<|5.76|><|5.76|>decoder就會吃到<|7.52|><|7.52|>NAT的decoder就會吃到4個begin的token<|10.14|><|10.14|>然後它就產生4個中文的字<|12.50|><|12.50|>這是一種可能的做法<|14.42|><|14.42|>另一種可能的做法就是<|16.06|><|16.06|>你就不管3721<|17.56|><|17.56|>給它一堆begin的token<|19.30|><|19.30|>你就假設說<|20.24|><|20.24|>你現在輸出的句子的長度絕對不會超過300個字<|23.38|><|23.38|>你就假設一個句子長度的上限<|25.26|><|25.26|>然後begin呢<|26.26|><|26.26|>你就給它300個begin<|28.50|><|endoftext|>
然 後 就 會 輸 出 300 個 字 嘛 然 後 呢 你 再 看 看 說 什 麼 地 方 輸 出 了 斷 什 麼 地 方 呢 輸 出 end 輸 出 end 右 邊 的 就 當 做 它 沒 有 輸 出 就 結 束 了 這 是 另 外 一 種 處 理 nat 的 這 個 decoder 它 應 該 輸 出 的 長 度 的 方 法 那 nat 的 decoder 它 有 什 麼 樣 的 好 處 呢 它 第 一 個 好 處 是 平 行 化 這 個 at 的 decoder 它 在 輸 出 它 的 句 子 的 時 候
ML2021_ASR_ST-38
[ 50361, 50364, 16075, 22660, 19866, 5598, 1546, 4184, 13824, 24282, 26748, 7422, 222, 18214, 6734, 50487, 50487, 11284, 346, 2582, 8990, 30622, 22381, 11, 36757, 4622, 346, 2582, 19, 50591, 50591, 11284, 346, 2582, 19, 3588, 5661, 50652, 50652, 42821, 19866, 47778, 10123, 4511, 50740, 50740, 45, 2218, 1546, 42821, 19866, 47778, 10123, 4511, 19, 3338, 650, 1494, 1546, 83, 8406, 50871, 50871, 10213, 11284, 3111, 33299, 8244, 19, 3338, 5975, 17174, 1546, 22381, 50989, 50989, 16600, 2257, 16516, 16657, 1546, 10907, 11148, 51085, 51085, 22762, 2257, 16516, 16657, 1546, 10907, 11148, 5620, 51167, 51167, 41045, 45376, 12851, 4436, 51242, 51242, 17798, 11284, 2257, 10726, 228, 650, 1494, 1546, 83, 8406, 51329, 51329, 41045, 31706, 39035, 4622, 51376, 51376, 2166, 12648, 12290, 116, 7781, 1546, 34592, 7626, 1546, 15353, 13127, 6948, 243, 2855, 21121, 19869, 8816, 12566, 3338, 22381, 51533, 51533, 41045, 31706, 39035, 8990, 34592, 7626, 15353, 13127, 1546, 5708, 43446, 51627, 51627, 10213, 650, 1494, 6240, 51677, 51677, 41045, 17798, 11284, 12566, 3338, 650, 1494, 51789 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>然後就會輸出300個字嘛<|2.10|><|2.10|>然後呢,你再看看說什麼地方輸出了段<|6.50|><|6.50|>什麼地方呢,輸出end<|8.54|><|8.54|>輸出end的右邊的,就當作他沒有輸出,就結束了<|12.54|><|12.54|>這是另外一種處理NAT的這個decoder<|16.68|><|16.68|>他應該輸出的長度的方法<|18.62|><|18.62|>那NAT的decoder,他有什麼樣的好處呢<|22.12|><|22.12|>他第一個好處是平行化<|24.96|><|24.96|>這個AT的decoder啊,他在輸出他的句子的時候<|28.96|><|endoftext|>
是 一 個 一 個 一 個 字 產 生 的 所 以 你 有 你 的 假 設 要 輸 出 長 度 一 百 個 字 的 句 子 那 你 就 需 要 做 一 百 次 的 decode 但 是 nat 的 decoder 不 是 這 樣 不 管 句 子 的 長 度 如 何 都 是 一 個 步 驟 就 產 生 出 完 整 的 句 子 所 以 在 速 度 上 nat 的 decoder 它 會 跑 得 比 at 的 decoder 要 快 那 你 可 以 想 像 說 這 個 nat decoder 的 想 法 顯 然 是 在
ML2021_ASR_ST-39
[ 50361, 50364, 10213, 47778, 12290, 116, 7781, 12566, 3338, 22381, 20722, 50469, 50469, 10213, 6240, 11, 2166, 8623, 22884, 4622, 7598, 30146, 12290, 116, 7781, 2289, 28427, 50689, 50689, 7598, 30146, 6240, 11, 12290, 116, 7781, 521, 50791, 50791, 12290, 116, 7781, 521, 1546, 22060, 14901, 1546, 11, 3111, 13118, 11914, 5000, 6963, 12290, 116, 7781, 11, 3111, 17144, 44320, 2289, 50991, 50991, 16600, 26202, 2257, 16516, 39289, 13876, 45, 2218, 1546, 6287, 42821, 19866, 51198, 51198, 5000, 26087, 12290, 116, 7781, 1546, 15353, 13127, 1546, 9249, 11148, 51295, 51295, 4184, 45, 2218, 1546, 42821, 19866, 11, 5000, 2412, 7598, 6180, 1546, 2131, 39289, 6240, 51470, 51470, 5000, 40760, 2131, 39289, 1541, 16716, 8082, 23756, 51612, 51612, 6287, 2218, 1546, 42821, 19866, 4905, 11, 5000, 3581, 12290, 116, 7781, 31309, 34592, 7626, 20643, 51812 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>是一個一個一個字產生的<|3.08|><|3.08|>所以假設你要輸出長度100個字的句子<|7.68|><|7.68|>那你就需要做100次的decode<|10.88|><|10.88|>但是NAT的decoder不是這樣<|12.88|><|12.88|>不管句子的長度如何<|14.52|><|14.52|>都是一個步驟就產生出完整的句子<|19.04|><|19.04|>所以在速度上<|20.28|><|20.28|>NAT的decoder會跑得比AT的decoder要快<|24.36|><|24.36|>那你可以想像說這個NAT decoder的想法<|27.72|><|27.72|>顯然是在<|28.72|><|endoftext|>
由 這 個 transformer 以 後 有 這 種 self-attention 的 decoder 以 後 才 有 的 對 不 對 因 為 以 前 如 果 你 是 用 那 個 lstm 用 rnn 的 話 那 你 就 算 給 它 一 排 begin 它 也 沒 有 辦 法 同 時 產 生 全 部 的 輸 出 它 的 輸 出 還 是 一 個 一 個 產 生 的 所 以 在 沒 有 這 個 self-attention 之 前 只 有 rnn 只 有 lstm 的 時 候 根 本 就 不 會 有 人 想 要 做 什 麼 nat 的 decoder 不 過 自 從 有 了 self-attention 以 後
ML2021_ASR_ST-40
[ 50361, 50364, 1541, 8990, 8990, 8990, 22381, 33299, 8244, 1546, 50518, 50518, 7239, 31706, 39035, 32085, 12290, 116, 7781, 15353, 13127, 6879, 3338, 22381, 1546, 34592, 7626, 50748, 50748, 4184, 41045, 35748, 10907, 6879, 9487, 1546, 42821, 1429, 50908, 50908, 11189, 45, 2218, 1546, 42821, 19866, 7296, 8377, 51008, 51008, 45376, 34592, 7626, 1546, 15353, 13127, 43526, 51090, 51090, 22796, 8990, 31429, 24023, 253, 3111, 33299, 8244, 7781, 14128, 27662, 1546, 34592, 7626, 51316, 51316, 7239, 3581, 31217, 13127, 5708, 51378, 51378, 45, 2218, 1546, 42821, 19866, 6236, 32585, 5916, 11706, 2218, 1546, 42821, 19866, 4275, 10251, 51582, 51582, 4184, 42766, 7093, 12760, 4622, 6287, 45, 2218, 979, 19866, 1546, 7093, 11148, 51750, 51750, 46605, 5823, 1541, 3581, 51800 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>由這個Transformer以後<|2.70|><|2.70|>有這種SELF-ATTENTION的DECODER以後<|5.30|><|5.30|>才有的 對不對<|6.40|><|6.40|>因為以前如果你是用那個LSTM<|9.60|><|9.60|>用RNN的話<|10.90|><|10.90|>那你就算給他一排PICKIN<|13.10|><|13.10|>他也沒有辦法同時產生全部的輸出<|15.80|><|15.80|>他的輸出還是一個一個產生的<|17.90|><|17.90|>所以在沒有這個SELF-ATTENTION之前<|21.30|><|21.30|>只有RNN 只有LSTM的時候<|24.20|><|24.20|>根本就不會有人想要做什麼NAP的DECODER<|26.90|><|26.90|>不過自從有了SELF-ATTENTION以後<|29.10|><|endoftext|>
那 nat 的 decoder 現 在 就 算 是 一 個 熱 門 的 研 究 的 主 題 了 那 nat 的 decoder 還 有 另 外 一 個 好 處 就 是 你 比 較 能 夠 控 制 它 輸 出 的 長 度 怎 麼 說 呢 舉 語 音 合 成 為 例 好 了 其 實 在 語 音 合 成 裡 面 nat 的 decoder 算 是 非 常 常 用 的 它 並 不 是 一 個 什 麼 稀 罕 罕 見 的 招 數 比 如 說 有 所 以 語 音 合 成 今 天 你 都 可 以 用 sequence to sequence 的 模 型 來 做 那 最 知 名 的 呢
ML2021_ASR_ST-41
[ 50361, 50364, 23786, 6287, 33339, 837, 260, 3588, 5661, 50499, 50499, 2412, 33005, 50, 3158, 37, 12, 43321, 2195, 7413, 1546, 35, 8140, 14632, 1598, 3588, 5661, 50629, 50629, 18888, 2412, 1546, 35164, 50684, 50684, 11471, 44996, 13119, 32526, 9254, 20754, 43, 6840, 44, 50844, 50844, 9254, 49, 45, 45, 21358, 50909, 50909, 4184, 41045, 19497, 17798, 5000, 2257, 44647, 47, 12141, 1464, 51019, 51019, 5000, 6404, 6963, 40072, 13089, 6611, 33299, 8244, 38714, 1546, 12290, 116, 7781, 51154, 51154, 31309, 12290, 116, 7781, 25583, 8990, 8990, 33299, 8244, 1546, 51259, 51259, 7239, 3581, 6963, 6287, 50, 3158, 37, 12, 43321, 2195, 7413, 32442, 51429, 51429, 35244, 49, 45, 45, 220, 35244, 43, 6840, 44, 20643, 51574, 51574, 31337, 8802, 3111, 21121, 45820, 7093, 4275, 10907, 7598, 45, 4715, 1546, 35, 8140, 14632, 1598, 51709, 51709, 28193, 9722, 21068, 2412, 2289, 50, 3158, 37, 12, 43321, 2195, 7413, 3588, 5661, 51819 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那NAT的decoder現在就算是一個熱門的研究的主題了<|4.80|><|4.80|>那NAT的decoder還有另外一個好處就是<|7.54|><|7.54|>你比較能夠控制它輸出的長度<|11.84|><|11.84|>怎麼說呢?<|12.70|><|12.70|>舉語音合成為例好了<|15.50|><|15.50|>其實在語音合成裡面<|16.88|><|16.88|>NAT的decoder算是非常常用的<|20.08|><|20.08|>它並不是一個什麼稀罕罕見的招數<|23.34|><|23.34|>比如說有<|24.34|><|24.34|>就語音合成今天你都可以用sequence-to-sequence的模型來做<|27.88|><|27.88|>那最知名的呢<|29.08|><|endoftext|>
是 一 個 叫 做 tacotron 的 模 型 那 它 是 at 的 decoder 那 有 另 外 一 個 模 型 叫 fastspeech 那 它 是 nat 的 decoder 那 nat 的 decoder 有 一 個 好 處 就 是 你 可 以 控 制 你 輸 出 的 長 度 那 我 們 剛 才 說 怎 麼 決 定 nat 的 decoder 輸 出 多 長 呢 你 可 能 有 一 個 classifier 決 定 nat 的 decoder 應 該 輸 出 的 長 度 那 如 果 在 做 語 音 合 成 的 時 候 假 設 你 現 在 突 然 想 要 讓 你 的 系 統 講 快 一 點 加 速
ML2021_ASR_ST-42
[ 50361, 50364, 4184, 45, 2218, 1546, 42821, 19866, 12648, 3111, 19497, 1541, 8990, 32745, 37232, 1546, 23230, 242, 44704, 1546, 13557, 14475, 2289, 50604, 50604, 4184, 45, 2218, 1546, 42821, 19866, 15569, 26202, 8990, 2131, 39289, 5620, 50741, 50741, 2166, 25174, 8225, 31649, 48707, 25491, 11284, 12290, 116, 7781, 1546, 15353, 13127, 50956, 50956, 11614, 4622, 6240, 30, 50999, 50999, 42828, 31348, 18034, 14245, 11336, 6344, 17797, 12621, 51139, 51139, 14139, 3581, 31348, 18034, 14245, 11336, 32399, 51208, 51208, 45, 2218, 1546, 42821, 19866, 19497, 1541, 14392, 11279, 9254, 1546, 51368, 51368, 11284, 35934, 7296, 8990, 7598, 10415, 222, 16469, 243, 16469, 243, 10470, 1546, 6852, 249, 30622, 51531, 51531, 36757, 4622, 2412, 51581, 51581, 3111, 31348, 18034, 14245, 11336, 12074, 2166, 7182, 6723, 9254, 11834, 655, 12, 1353, 12, 11834, 655, 1546, 41908, 39823, 3763, 10907, 51758, 51758, 4184, 8661, 6498, 15940, 1546, 6240, 51818 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>是一個叫做Tacotron的模型<|2.32|><|2.32|>那它是AT的decoder<|4.96|><|4.96|>那有另外一個模型叫FastSpeech<|7.40|><|7.40|>那它是NAT的decoder<|9.64|><|9.64|>那NAT的decoder有一個好處就是<|11.72|><|11.72|>你可以控制你輸出的長度<|13.56|><|13.56|>那我們剛才說<|15.04|><|15.04|>怎麼決定NAT的decoder輸出多長呢<|17.64|><|17.64|>你可能有一個classifier<|19.64|><|19.64|>決定NAT的decoder應該輸出的長度<|22.28|><|22.28|>那如果在做語音合成的時候<|23.76|><|23.76|>假設你現在突然想要讓你的系統<|26.08|><|26.08|>講快一點,加速<|27.60|><|endoftext|>
那 你 就 把 那 個 classifier 的 output 除 以 二 它 講 話 速 度 就 變 兩 倍 快 然 後 如 果 你 想 要 這 個 講 話 放 慢 速 度 那 你 就 把 那 個 classifier 輸 出 的 那 個 長 度 啊 它 predict 出 來 的 長 度 乘 兩 倍 那 你 的 這 個 decoder 呢 說 話 的 速 度 就 變 兩 倍 慢 所 以 你 可 以 如 果 有 這 種 nat 的 decoder 那 你 有 explicit 去 model output 長 度 應 該 是 多 少 的 話 你 就 比 較 有 機 會 去 控 制 你 的 decoder 輸 出 的 長 度 應 該 是 多 少 你 就 可 以 做 種 種 的 變 化
ML2021_ASR_ST-43
[ 50361, 50364, 1541, 8990, 19855, 10907, 51, 326, 310, 2044, 1546, 41908, 39823, 50480, 50480, 4184, 11284, 1541, 2218, 1546, 42821, 19866, 50612, 50612, 4184, 2412, 26202, 8990, 41908, 39823, 19855, 37, 525, 19588, 5023, 50734, 50734, 4184, 11284, 1541, 45, 2218, 1546, 42821, 19866, 50846, 50846, 4184, 45, 2218, 1546, 42821, 19866, 2412, 8990, 2131, 39289, 5620, 50950, 50950, 42766, 48707, 25491, 2166, 12290, 116, 7781, 1546, 15353, 13127, 51042, 51042, 46714, 16940, 18888, 4622, 51116, 51116, 11614, 33540, 12088, 45, 2218, 1546, 42821, 19866, 12290, 116, 7781, 6392, 15353, 6240, 51246, 51246, 2166, 16657, 2412, 8990, 11665, 9902, 51346, 51346, 33540, 12088, 45, 2218, 1546, 42821, 19866, 26087, 12290, 116, 7781, 1546, 15353, 13127, 51478, 51478, 4184, 13119, 3581, 10907, 31348, 18034, 14245, 11336, 20643, 51552, 51552, 31706, 39035, 2166, 12648, 40859, 5823, 7093, 4275, 21195, 18961, 25368, 33725, 51668, 51668, 11932, 10251, 19202, 11, 9990, 31217, 51744 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那你就把那個classifier的output除以2<|2.94|><|2.94|>他講話速度就變兩倍快<|4.38|><|4.38|>然後如果你想要講話放慢速度<|7.42|><|7.42|>那你就把那個classifier輸出的長度<|10.26|><|10.26|>他predict出來的長度乘兩倍<|12.12|><|12.12|>那你的decoder說話的速度就變兩倍慢<|15.78|><|15.78|>所以你可以如果有這種NAT的decoder<|19.26|><|19.26|>那你有explicit的去model output的長度應該是多少的話<|22.74|><|22.74|>你就比較有機會去控制你的decoder輸出的長度應該是多少<|27.98|><|27.98|>你就可以做種種的變化<|29.42|><|endoftext|>
那 為 什 麼 nat 的 decoder 最 近 是 一 個 熱 門 的 研 究 主 題 呢 它 之 所 以 是 一 個 熱 門 研 究 主 題 就 是 它 雖 然 表 面 上 看 起 來 有 種 種 的 厲 害 之 處 尤 其 是 平 行 化 是 它 最 大 的 優 勢 但 是 nat 的 decoder 呢 它 的 performance 往 往 都 不 如 at 的 decoder 所 以 發 現 有 很 多 很 多 的 研 究 試 圖 讓 nat 的 decoder 的 performance 越 來 越 好 試 圖 去 逼 近 at 的 decoder 不 過 今 天 你 要 讓 nat 的 decoder
ML2021_ASR_ST-44
[ 50361, 50364, 4184, 41045, 16075, 20754, 11665, 9902, 1546, 346, 2582, 32999, 3588, 17, 50511, 50511, 5000, 11932, 11103, 31217, 13127, 3111, 26327, 16313, 35477, 10251, 50583, 50583, 10213, 13119, 38386, 4275, 11932, 11103, 12744, 20645, 31217, 13127, 50735, 50735, 4184, 41045, 16075, 20754, 11665, 9902, 12290, 116, 7781, 1546, 15353, 13127, 50877, 50877, 5000, 79, 24945, 29741, 1546, 15353, 13127, 2930, 246, 16313, 35477, 50970, 50970, 4184, 18961, 1479, 1291, 1068, 4622, 11103, 1546, 31217, 13127, 3111, 26327, 16313, 35477, 20645, 51153, 51153, 7239, 42766, 13119, 2412, 33005, 45, 2218, 1546, 1479, 1291, 1068, 51327, 51327, 4184, 43320, 3121, 4770, 270, 1546, 6734, 8014, 338, 5598, 1546, 15353, 13127, 26087, 1541, 41492, 21358, 51501, 51501, 41045, 25174, 2412, 46520, 6734, 48707, 25491, 18961, 1479, 1291, 1068, 12290, 116, 7781, 1546, 15353, 13127, 26087, 1541, 41492, 51763, 51763, 2166, 36781, 10907, 16516, 16516, 1546, 26327, 23756, 51835 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那為什麼NAT的Decoder最近是一個熱門的研究主題呢?<|4.04|><|4.04|>它之所以是一個熱門研究主題就是<|6.08|><|6.08|>它雖然表面上看起來有種種的厲害之處<|10.76|><|10.76|>尤其是平行化是它最大的優勢<|13.36|><|13.36|>但是NAT的Decoder呢<|15.08|><|15.08|>它的Performance往往都不如AT的Decoder<|19.36|><|19.36|>所以發現有很多很多的研究<|21.16|><|21.16|>試圖讓NAT的Decoder的Performance越來越好<|24.24|><|24.24|>試圖去逼近AT的Decoder<|27.40|><|27.40|>不過今天你要讓NAT的Decoder<|29.08|><|endoftext|>
跟 at 的 decoder performance 一 樣 好 你 必 須 要 用 非 常 多 的 trick 才 能 夠 辦 到 就 at 的 decoder 隨 便 train 一 下 nat 的 decoder 你 要 花 很 多 力 氣 才 有 可 能 跟 at 的 performance 差 不 多 為 什 麼 nat 的 decoder performance 不 好 呢 有 一 個 問 題 我 們 今 天 就 不 細 講 了 叫 做 multi-modality 的 問 題 那 如 果 你 想 要 這 個 深 入 了 解 nat 那 就 把 之 前 上 課 助 教 這 個 上 課 補 充 的 內 容 呢 連 結 放 在 這 邊 給 大 家 參 考
ML2021_ASR_ST-45
[ 50361, 50364, 4184, 18987, 45, 2218, 1546, 35, 3045, 19866, 46777, 1541, 8990, 32745, 37232, 1546, 23230, 242, 44704, 13557, 14475, 6240, 30, 50566, 50566, 11284, 9574, 7239, 1541, 8990, 32745, 37232, 23230, 242, 44704, 13557, 14475, 5620, 50668, 50668, 11284, 6306, 244, 5823, 17571, 8833, 5708, 4200, 21670, 2412, 16516, 16516, 1546, 20939, 9574, 39289, 50902, 50902, 1530, 97, 9572, 1541, 16716, 8082, 23756, 1541, 11284, 8661, 39156, 12827, 103, 7978, 95, 51032, 51032, 11189, 45, 2218, 1546, 35, 3045, 19866, 6240, 51118, 51118, 45224, 23232, 837, 719, 29510, 29510, 7182, 1960, 8238, 2218, 1546, 35, 3045, 19866, 51332, 51332, 7239, 38927, 2412, 20778, 20778, 1546, 23230, 242, 44704, 51422, 51422, 22099, 2523, 244, 21195, 45, 2218, 1546, 35, 3045, 19866, 1546, 23232, 837, 719, 25761, 3763, 25761, 2131, 51576, 51576, 22099, 2523, 244, 6734, 2215, 120, 17463, 2218, 1546, 35, 3045, 19866, 51734, 51734, 28193, 12074, 32085, 21195, 45, 2218, 1546, 35, 3045, 19866, 51818 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>跟AT的decoder performance一樣好<|2.00|><|2.00|>你必須要用非常多的trick才能辦到<|4.88|><|4.88|>AT的decoder隨便train一下<|6.52|><|6.52|>NAT的decoder你要花很多力氣<|8.26|><|8.26|>才有可能跟AT的performance差不多<|10.26|><|10.26|>那為什麼NAT的decoder performance不好呢<|13.12|><|13.12|>有一個問題我們今天就不細講了<|15.96|><|15.96|>叫做Multi-Modality的問題<|18.80|><|18.80|>那如果你想要深入了解NAT<|22.16|><|22.16|>那就把之前上課補充的內容<|26.52|><|26.52|>連結放在這邊給大家參考<|29.20|><|endoftext|>
nat 也 是 一 個 大 坑 啊 助 教 也 是 講 了 一 個 半 小 時 才 稍 微 給 大 家 一 個 nat 的 大 概 大 致 的 描 述 所 以 這 也 是 個 大 坑 不 是 我 們 今 天 可 以 講 的 就 只 是 告 訴 大 家 說 世 界 上 有 nat 這 個 東 西 而 已 那 接 下 來 我 們 就 要 講 encoder 跟 decoder 它 們 中 間 是 怎 麼 傳 遞 資 訊 的 了 也 就 是 我 們 要 講 剛 才 我 們 刻 意 把 它 遮 起 來 的 那 一 塊 那 如 果 你 仔 細 觀 察 這 一 塊 的 話
ML2021_ASR_ST-46
[ 50361, 50364, 9678, 2218, 1546, 42821, 19866, 3389, 22977, 2131, 50464, 50464, 2166, 28531, 8313, 230, 4275, 9254, 14392, 6392, 1546, 6903, 618, 18888, 8225, 23626, 4511, 50608, 50608, 2218, 1546, 42821, 19866, 48890, 27364, 83, 7146, 8861, 50690, 50690, 45, 2218, 1546, 42821, 19866, 32085, 20127, 20778, 13486, 24090, 50777, 50777, 18888, 2412, 16657, 9678, 2218, 1546, 50242, 37876, 50877, 50877, 4184, 18987, 45, 2218, 1546, 42821, 19866, 3389, 15769, 6240, 51020, 51020, 2412, 8990, 17197, 5884, 12074, 3111, 1960, 41588, 11932, 2289, 51162, 51162, 19855, 10907, 44, 723, 72, 12, 44, 378, 1860, 1546, 17197, 51304, 51304, 4184, 13119, 38386, 4275, 24043, 14028, 2289, 17278, 45, 2218, 51472, 51472, 46887, 16075, 32442, 5708, 3549, 110, 8083, 250, 2347, 227, 1546, 28472, 25750, 51690, 51690, 36252, 17144, 12744, 3581, 22821, 17798, 6868, 47375, 26504, 51824 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>NAT也是一個大坑啊<|1.88|><|1.88|>助教也是講了一個半小時<|3.76|><|3.76|>才稍微給大家一個NAT的大概大致的描述<|7.72|><|7.72|>所以這也是個大坑<|8.72|><|8.72|>不是我們今天可以講的<|10.44|><|10.44|>就只是告訴大家說<|11.68|><|11.68|>世界上有NAT這個東西而已<|13.80|><|13.80|>那接下來呢<|14.80|><|14.80|>我們就要講Encoder跟Decoder<|17.64|><|17.64|>他們中間是怎麼傳遞資訊的了<|21.04|><|21.04|>也就是我們要講<|22.20|><|22.20|>剛才我們刻意把它遮起來的那一塊<|25.56|><|25.56|>那如果你仔細觀察這一塊的話<|27.84|><|endoftext|>
這 塊 呢 叫 做 cross attention 它 是 連 接 encoder 跟 decoder 之 間 的 橋 樑 那 這 一 塊 裡 面 啊 你 會 發 現 有 兩 個 輸 入 來 自 於 encoder encoder 提 供 兩 個 箭 頭 然 後 decoder 提 供 了 一 個 箭 頭 然 後 所 以 從 左 邊 這 兩 個 箭 頭 decoder 可 以 讀 到 encoder 的 輸 出 那 這 個 模 組 實 際 上 是 怎 麼 運 作 的 呢
ML2021_ASR_ST-47
[ 50361, 50364, 45, 2218, 22021, 8990, 3582, 14872, 239, 4905, 50458, 50458, 37618, 21936, 22021, 11932, 2289, 8990, 30018, 46997, 50552, 50552, 18888, 10415, 235, 39152, 17798, 6868, 8990, 45, 2218, 1546, 32044, 3582, 6784, 112, 1546, 11673, 237, 3316, 108, 50750, 50750, 7239, 2664, 22021, 3338, 3582, 14872, 239, 50800, 50800, 7296, 5884, 12074, 6723, 11932, 1546, 50886, 50886, 3111, 36859, 31080, 6868, 4622, 50948, 50948, 24486, 5708, 2412, 45, 2218, 6287, 26978, 48420, 51054, 51054, 4184, 40012, 6240, 51104, 51104, 5884, 3111, 4275, 11932, 16257, 66, 19866, 9678, 35, 3045, 19866, 51246, 51246, 20486, 5975, 11016, 1541, 11614, 40852, 3330, 252, 35380, 5396, 232, 1546, 2289, 51416, 51416, 6404, 5620, 5884, 4275, 11932, 51474, 51474, 16940, 18888, 5884, 45500, 9042, 42061, 3330, 106, 21670, 1546, 4184, 2257, 26268, 51642, 51642, 4184, 45669, 49385, 41588, 25179, 47550, 32260, 26268, 21358, 51756 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>這一塊叫做CrossAttention<|3.20|><|3.20|>它是連接Encoder跟Decoder之間的橋樑<|7.74|><|7.74|>那這一塊裡面你會發現有兩個輸入來自於Encoder<|13.92|><|13.92|>Encoder提供兩個箭頭<|16.18|><|16.18|>然後Decoder提供了一個箭頭<|18.88|><|18.88|>所以從左邊這兩個箭頭<|21.68|><|21.68|>Decoder可以讀到Encoder的輸出<|25.22|><|25.22|>那這個模組實際上是怎麼運作的呢<|27.86|><|endoftext|>
那 我 們 就 實 際 把 它 運 作 的 過 程 跟 大 家 展 示 一 下 好 這 個 是 你 的 encoder 輸 入 一 排 向 量 輸 出 一 排 向 量 我 們 叫 它 a1 a2 a3 接 下 來 呢 輪 到 你 的 decoder 你 的 decoder 呢 會 先 吃 begin 當 做 begin 這 個 special 的 token 那 begin 這 個 special 的 token 讀 進 來 以 後 你 可 能 會 經 過 self-attention 這 個 self-attention 是 有 做 mask 的 然 後 得 到 一 個 向 量 就 是 self-attention 就 算 是 有 做 mask 還 是 一 樣 輸 入 多 少 長 度 的 向 量
ML2021_ASR_ST-48
[ 50361, 50364, 32260, 26268, 19855, 10907, 34, 1887, 38151, 1251, 50524, 50524, 11284, 1541, 36252, 14468, 16257, 66, 19866, 9678, 35, 3045, 19866, 9574, 11016, 1546, 36473, 5117, 239, 50751, 50751, 4184, 32260, 26268, 32399, 2166, 6236, 38927, 2412, 34623, 12290, 116, 14028, 3763, 9722, 19488, 16257, 66, 19866, 51060, 51060, 16257, 66, 19866, 20949, 3254, 249, 34623, 11249, 255, 19921, 51173, 51173, 10213, 35, 3045, 19866, 20949, 3254, 249, 2289, 8990, 11249, 255, 19921, 51308, 51308, 7239, 21068, 21975, 14901, 2664, 34623, 11249, 255, 19921, 51448, 51448, 35, 3045, 19866, 6723, 7422, 222, 4511, 16257, 66, 19866, 1546, 12290, 116, 7781, 51625, 51625, 4184, 6287, 41908, 30052, 10376, 34837, 5708, 1541, 11614, 32772, 11914, 1546, 6240, 51757 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那我們就實際把它運作的過程跟大家展示一下<|3.90|><|3.90|>這個是你的encoder輸入一排向量輸出一排向量<|7.00|><|7.00|>我們叫他A1 A2 A3<|8.60|><|8.60|>接下來呢輪到你的decoder<|11.20|><|11.20|>你的decoder會先吃begin當作begin這個special的token<|16.10|><|16.10|>那begin這個special的token讀進來以後<|18.40|><|18.40|>你可能會經過self-attention<|20.30|><|20.30|>這個self-attention是有做mask的<|23.10|><|23.10|>然後得到一個向量<|25.10|><|25.10|>就像self-attention就算是有做mask<|27.30|><|27.30|>還是一樣輸入多少長度的向量<|29.50|><|endoftext|>
輸 出 就 是 多 少 向 量 所 以 輸 入 一 個 向 量 輸 出 一 個 向 量 然 後 接 下 來 把 這 個 向 量 呢 乘 上 一 個 矩 陣 做 一 個 transform 得 到 一 個 query 叫 做 q 然 後 這 邊 的 a1 a2 a3 呢 也 都 產 生 key key1 key2 key3 那 把 這 個 q 跟 k1 k2 k3 去 計 算 attention 的 分 數 得 到 α1 α2 α3 當 然 你 可 能 一 樣 會 做 softmax 把 它 稍 微 做 一 下 normalization 所 以 我 這 邊 加 一 個 '
ML2021_ASR_ST-49
[ 50361, 50364, 46714, 3111, 10376, 34837, 42061, 32772, 11914, 1546, 8816, 29649, 47349, 43491, 25696, 8861, 50559, 50559, 41427, 18961, 22660, 19866, 12290, 116, 14028, 2257, 44647, 24282, 26748, 12290, 116, 7781, 2257, 44647, 24282, 26748, 50714, 50714, 5884, 19855, 5000, 32, 16, 316, 17, 316, 18, 50794, 50794, 40012, 6240, 12290, 103, 4511, 18961, 42821, 19866, 50924, 50924, 18961, 42821, 19866, 6236, 10108, 10123, 650, 1494, 13118, 11914, 650, 1494, 6287, 7053, 1013, 1546, 83, 8406, 51169, 51169, 4184, 650, 1494, 6287, 7053, 1013, 1546, 83, 8406, 7422, 222, 18214, 3763, 3588, 5661, 51284, 51284, 2166, 16657, 6236, 15145, 8816, 927, 12, 1591, 1251, 51379, 51379, 6287, 927, 12, 1591, 1251, 1541, 2412, 10907, 3799, 74, 1546, 51519, 51519, 10213, 5916, 4511, 8990, 24282, 26748, 51619, 51619, 3111, 12760, 927, 12, 1591, 1251, 3111, 19497, 1541, 2412, 10907, 3799, 74, 51729, 51729, 25583, 22977, 12290, 116, 14028, 41492, 15353, 13127, 1546, 24282, 26748, 51839 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>輸出就是多少向量<|1.86|><|1.86|>所以輸入一個向量<|2.96|><|2.96|>輸出一個向量<|3.80|><|3.80|>然後接下來把這個向量呢<|5.50|><|5.50|>乘上一個矩陣<|7.10|><|7.10|>做一個Transform<|8.70|><|8.70|>得到一個Query<|10.06|><|10.06|>叫做Q<|11.20|><|11.20|>然後這邊的A1 A2 A3呢<|13.26|><|13.26|>也都產生Key<|14.66|><|14.66|>Key1 Key2 Key3<|15.90|><|15.90|>那把這個Q跟K1 K2 K3<|18.40|><|18.40|>去計算Attention的分數<|20.56|><|20.56|>得到α1 α2 α3<|23.16|><|23.16|>當然你可能一樣會做Softmax<|25.40|><|25.40|>把它稍微做一下Normalization<|27.96|><|27.96|>所以我這邊加一個π<|29.10|><|endoftext|>
代 表 它 可 能 是 做 過 normalization 接 下 來 再 把 α1 α2 α3 就 乘 上 v1 v2 v3 再 把 它 weighted sum 加 起 來 會 得 到 v 那 這 一 個 v 就 是 接 下 來 會 丟 到 fully-connected 的 network 做 接 下 來 的 處 理 那 這 個 步 驟 就 是 q 來 自 於 decoder k 跟 v 來 自 於 encoder 這 個 步 驟 就 叫 做 cross attention
ML2021_ASR_ST-50
[ 50361, 50364, 12290, 116, 7781, 5620, 41492, 24282, 26748, 50457, 50457, 7239, 12290, 116, 14028, 8990, 24282, 26748, 50512, 50512, 12290, 116, 7781, 8990, 24282, 26748, 50554, 50554, 10213, 40012, 16075, 6287, 24282, 26748, 6240, 50639, 50639, 2930, 246, 5708, 8990, 5881, 102, 8842, 96, 50719, 50719, 10907, 8990, 33339, 837, 50799, 50799, 5916, 4511, 8990, 35550, 50867, 50867, 19855, 10907, 48, 50924, 50924, 10213, 22821, 1546, 32, 16, 316, 17, 316, 18, 6240, 51027, 51027, 6404, 7182, 33299, 8244, 42, 2030, 51097, 51097, 42, 2030, 16, 12759, 17, 12759, 18, 51159, 51159, 4184, 16075, 6287, 48, 9678, 42, 16, 591, 17, 591, 18, 51284, 51284, 6734, 30114, 19497, 38151, 1251, 1546, 6627, 30622, 51392, 51392, 5916, 4511, 1529, 16, 5691, 17, 5691, 18, 51522, 51522, 21707, 2166, 16657, 22977, 6236, 10907, 6455, 844, 41167, 51634, 51634, 42061, 10415, 235, 39152, 10907, 8861, 45, 24440, 2144, 51762, 51762, 7239, 1654, 22821, 9990, 8990, 4339, 51819 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>代表他可能是做過Normalization<|2.00|><|2.00|>接下來再把α1,α2,α3<|4.40|><|4.40|>乘上V1,V2,V3<|7.00|><|7.00|>再把它Weighted sum加起來<|9.20|><|9.20|>你得到V<|10.80|><|10.80|>那這個V就是接下來<|13.70|><|13.70|>會丟到Fully Connected的Network<|15.90|><|15.90|>做接下來的處理<|17.90|><|17.90|>那這個步驟就是<|19.90|><|19.90|>Q來自於Decoder<|22.40|><|22.40|>K跟V來自於Encoder<|24.70|><|24.70|>這個步驟就叫做Cross-Attention<|28.00|><|endoftext|>
所 以 decoder 就 是 憑 藉 著 產 生 一 個 q 去 encoder 這 邊 抽 取 資 訊 出 來 當 做 接 下 來 的 decoder 的 fully-connected 的 network 的 input 好 那 這 個 就 是 cross attention 運 作 的 過 程 當 然 這 個 就 現 在 假 設 產 生 第 二 個 第 一 個 這 個 中 文 的 字 產 生 一 個 機 接 下 來 的 運 作 也 是 一 模 一 樣 的 輸 入 begin 輸 入 機 產 生 一 個 向 量 這 個 向 量 一 樣 乘 上 一 個 linear 的 transform
ML2021_ASR_ST-51
[ 50361, 50364, 19105, 17571, 5000, 16657, 1541, 10907, 8816, 45, 24440, 2144, 50464, 50464, 40012, 8623, 16075, 1529, 16, 11, 1529, 17, 11, 1529, 18, 50584, 50584, 2930, 246, 5708, 53, 16, 11, 53, 17, 11, 53, 18, 50714, 50714, 8623, 42061, 4360, 397, 292, 2408, 9990, 21670, 50824, 50824, 2166, 5916, 4511, 53, 50904, 50904, 4184, 6287, 53, 5620, 40012, 51049, 51049, 6236, 940, 253, 4511, 37, 2150, 11653, 292, 1546, 31890, 1902, 51159, 51159, 10907, 40012, 1546, 39289, 13876, 51259, 51259, 4184, 6287, 31429, 24023, 253, 5620, 51359, 51359, 48, 3763, 9722, 19488, 35, 3045, 19866, 51484, 51484, 42, 9678, 53, 3763, 9722, 19488, 16257, 66, 19866, 51599, 51599, 6287, 31429, 24023, 253, 3111, 19855, 10907, 34, 1887, 12, 38151, 1251, 51764 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>所以Decoder就是憑藉著產生一個Queue<|3.20|><|3.20|>去Encoder這邊抽取資訊出來<|6.08|><|6.08|>當作接下來的Decoder裡面的<|9.84|><|9.84|>Fully Connected Network的Input<|12.00|><|12.00|>好,那這個就是Cross-Attention的運作的過程<|14.64|><|14.64|>當然,現在假設產生第一個中文的字<|20.56|><|20.56|>產生一個G,接下來的運作也是一模一樣的<|23.76|><|23.76|>輸入begin,輸入G,產生一個向量<|26.80|><|26.80|>這個向量一樣乘上一個linear的transform<|29.76|><|29.76|><|endoftext|>
得 到 q' 得 到 一 個 query 這 個 query 一 樣 跟 k1 k2 k3 去 計 算 attention 的 分 數 一 樣 跟 v1 v2 v3 做 weighted sum 做 加 權 然 後 加 起 來 得 到 v' 交 給 接 下 來 fully-connected network 做 處 理 好 所 以 這 就 是 這 個 cross attention 的 運 作 的 過 程 那 這 邊 有 一 個 實 際 的 文 獻 上 的 cross attention 它 所 做 的 事 情 的 效 果 展 示 不 過 我 這 邊 要 稍 微 說 明 一 下
ML2021_ASR_ST-52
[ 50361, 50364, 7239, 35, 3045, 19866, 5620, 29713, 239, 21782, 231, 19382, 33299, 8244, 8990, 24011, 622, 50524, 50524, 6734, 16257, 66, 19866, 22821, 46022, 29436, 35380, 5396, 232, 29741, 50668, 50668, 13118, 11914, 40012, 1546, 35, 3045, 19866, 32399, 1546, 50856, 50856, 37, 2150, 11653, 292, 12640, 1546, 4575, 2582, 50964, 50964, 2131, 11, 4184, 6287, 5620, 34, 1887, 12, 38151, 1251, 1546, 32772, 11914, 1546, 8816, 29649, 51096, 51096, 21707, 11, 12648, 31706, 39035, 33299, 8244, 40760, 5975, 17174, 1546, 22381, 51392, 51392, 33299, 8244, 8990, 38, 11, 40012, 1546, 32772, 11914, 22021, 2257, 41908, 22977, 1546, 51552, 51552, 12290, 116, 14028, 650, 1494, 11, 12290, 116, 14028, 38, 11, 33299, 8244, 8990, 24282, 26748, 51704, 51704, 6287, 24282, 26748, 22977, 2930, 246, 5708, 8990, 28263, 1546, 24999, 837, 51852, 51852 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>得到QPy,得到一個Query<|2.24|><|2.24|>這個Query一樣跟K1、K2、K3去計算Attention的分數<|6.34|><|6.34|>一樣跟V1、V2、V3做Weighted Sum,做加權<|10.90|><|10.90|>然後加起來得到Vpy<|13.10|><|13.10|>交給接下來的Fully Connected Neural做處理<|16.60|><|16.60|>所以這就是這個Cross-Attention的運作的過程<|21.04|><|21.04|>那這邊有一個實際的文獻上的Cross-Attention<|25.40|><|25.40|>它所做的事情的效果展示<|27.64|><|27.64|>不過我這邊要稍微說明一下<|29.30|><|endoftext|>
這 個 圖 並 不 是 來 自 於 transformer 這 篇 paper 它 的 title 叫 做 listen, attend and spell 是 比 較 早 使 用 sequence to sequence model 成 功 做 語 音 辨 識 的 一 篇 文 章 它 發 表 在 icass 2016 2016 年 的 icass 我 記 得 那 一 次 是 在 上 海 辦 的 我 還 特 別 有 親 耳 聽 了 這 篇 paper 的 報 告 這 個 現 場 也 是 人 山 人 海 大 家 都 覺 得 哇 這 個 非 常 的 神 奇 sequence to sequence 硬 做
ML2021_ASR_ST-53
[ 50361, 50364, 5916, 4511, 48, 47, 88, 11, 5916, 4511, 8990, 35550, 50476, 50476, 6287, 35550, 22977, 9678, 42, 16, 1231, 42, 17, 1231, 42, 18, 6734, 30114, 19497, 38151, 1251, 1546, 6627, 30622, 50681, 50681, 22977, 9678, 53, 16, 1231, 53, 17, 1231, 53, 18, 10907, 4360, 397, 292, 8626, 11, 10907, 9990, 40212, 50909, 50909, 10213, 9990, 21670, 5916, 4511, 53, 8200, 51019, 51019, 28455, 17798, 40012, 1546, 37, 2150, 11653, 292, 1734, 1807, 10907, 39289, 13876, 51194, 51194, 7239, 2664, 5620, 6287, 34, 1887, 12, 38151, 1251, 1546, 32772, 11914, 1546, 8816, 29649, 51416, 51416, 4184, 22821, 2412, 8990, 10376, 34837, 1546, 17174, 29057, 119, 5708, 1546, 34, 1887, 12, 38151, 1251, 51634, 51634, 11284, 5966, 10907, 1546, 24675, 1546, 43076, 9319, 43491, 25696, 51746, 51746, 28193, 1654, 22821, 4275, 10415, 235, 39152, 4622, 11100, 8861, 51829 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>這個圖並不是來自於Transformer<|3.40|><|3.40|>這篇文章的名稱是Listen, Attend, and Spill<|7.24|><|7.24|>是比較早的使用Seq2SeqModel成功做語音辨識的文章<|14.04|><|14.04|>它發表在2016年的iCast上海辦的<|20.08|><|20.08|>我還特別有親耳聽了這篇文章的報告<|23.16|><|23.16|>現場還是人山人海<|24.88|><|24.88|><|endoftext|>
居 然 可 以 做 語 音 辨 識 而 且 跟 state of the art 的 結 果 當 時 也 就 只 差 了 一 點 點 而 已 當 時 這 篇 paper 裡 面 的 結 果 它 展 現 的 sequence to sequence model 其 實 沒 有 贏 過 state of the art 就 是 當 時 最 好 的 語 音 辨 識 系 統 但 是 只 差 一 點 點 而 已 所 以 讓 大 家 覺 得 說 sequence to sequence 用 在 語 音 辨 識 上 似 乎 是 有 潛 力 的 所 以 它 其 實 不 是 那 個 transformer 那 時 候 的 encoder 跟 decoder 都 是 用 lstm
ML2021_ASR_ST-54
[ 50361, 50364, 6287, 2523, 244, 35934, 7296, 3763, 9722, 19488, 33339, 837, 260, 50534, 50534, 2664, 20878, 229, 17174, 11957, 254, 1546, 15940, 49606, 1541, 35819, 11, 46827, 11, 293, 1738, 373, 50726, 50726, 1541, 25174, 21176, 1546, 22982, 9254, 10637, 80, 17, 10637, 80, 44, 41147, 11336, 32311, 10907, 31348, 18034, 9830, 101, 43143, 1546, 17174, 11957, 254, 51066, 51066, 11284, 14637, 17571, 3581, 41103, 34128, 72, 34, 525, 5708, 20078, 23626, 1546, 51368, 51368, 1654, 7824, 38446, 2412, 42117, 4450, 111, 21524, 2289, 2664, 20878, 229, 17174, 11957, 254, 1546, 17803, 16846, 51522, 51522, 9581, 21446, 25583, 4035, 24113, 4035, 20078, 51608, 51608 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>居然可以做語音辨識<|2.24|><|2.24|>而且跟 State-of-the-art 的結果<|4.96|><|4.96|>當時也就只差了一點點而已<|7.20|><|7.20|>當時這篇 paper 裡面的結果<|8.64|><|8.64|>他展現的 Sequence-to-Sequence Model<|10.24|><|10.24|>其實沒有贏過 State-of-the-art<|12.72|><|12.72|>就是當時最好的語音辨識系統<|15.04|><|15.04|>但是只差一點點而已<|17.20|><|17.20|>所以讓大家覺得說<|18.56|><|18.56|>Sequence-to-Sequence 用在語音辨識上<|21.28|><|21.28|>似乎是有潛力的<|23.60|><|23.60|>所以他其實不是那個 Transformer<|25.76|><|25.76|>那時候的 Encoder 跟 Decoder<|27.44|><|27.44|>都是用 LSTM<|29.12|><|endoftext|>
不 過 那 個 時 候 就 已 經 有 cross attention 這 樣 子 的 機 制 了 所 以 在 有 transformer 之 前 其 實 就 已 經 有 cross attention 這 樣 的 機 制 只 是 沒 有 self-attention 的 機 制 所 以 是 先 有 cross attention 後 來 才 有 self-attention 然 後 那 個 時 候 啊 如 果 你 是 用 sequence to sequence 的 model 不 知 道 為 什 麼 paper 的 title 一 定 要 有 三 個 動 詞 對 那 個 時 候 一 定 要 有 三 個 動 詞 才 能 夠 代 表 你 是 在 做 sequence to sequence 的 model
ML2021_ASR_ST-55
[ 50361, 50364, 9636, 227, 5823, 6723, 10907, 31348, 18034, 9830, 101, 43143, 50476, 50476, 22942, 9678, 4533, 12, 2670, 12, 3322, 12, 446, 27949, 35181, 50612, 50612, 13118, 6611, 6404, 3111, 14003, 21679, 2289, 19202, 8216, 48420, 50724, 50724, 13118, 6611, 2664, 20878, 229, 3035, 220, 32399, 1546, 35181, 50796, 50796, 5000, 43491, 9581, 1546, 46859, 655, 12, 1353, 12, 10637, 358, 655, 17105, 50876, 50876, 14139, 6963, 18464, 237, 8816, 4533, 12, 2670, 12, 3322, 12, 446, 51000, 51000, 5620, 13118, 6611, 8661, 20715, 31348, 18034, 9830, 101, 43143, 25368, 33725, 51116, 51116, 11189, 14003, 21679, 19202, 8216, 48420, 51224, 51224, 7239, 21195, 6868, 11274, 4622, 51292, 51292, 10637, 358, 655, 12, 1353, 12, 10637, 358, 655, 220, 9254, 3581, 31348, 18034, 9830, 101, 43143, 5708, 51428, 51428, 7384, 120, 2930, 236, 1541, 2412, 35622, 249, 13486, 1546, 51544, 51544, 7239, 5000, 14139, 7296, 20754, 27938, 260, 51652, 51652, 4184, 14010, 1546, 29584, 19866, 220, 9678, 12427, 19866, 51736, 51736, 22796, 9254, 441, 6840, 44, 51820 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>不過那個時候就已經有 cross-attention 這樣子的機制了<|5.80|><|5.80|>所以在有 transformer 之前<|7.70|><|7.70|>其實就已經有 cross-attention 這樣的機制<|10.00|><|10.00|>只是沒有 self-attention 的機制<|12.30|><|12.30|>所以是先有 cross-attention 後來才有 self-attention<|15.60|><|15.60|>然後那個時候如果你是用 sequence to sequence 的 model<|18.90|><|18.90|>不知道為什麼 paper 的 title 一定要有三個動詞<|22.40|><|22.40|>對,那個時候一定要有三個動詞<|24.40|><|24.40|>才能夠代表你是在做 sequence to sequence 的 model<|27.80|><|endoftext|>
所 以 像 這 篇 是 listen, attend and spell 告 訴 它 說 機 器 要 聽 聲 音 然 後 做 attention 就 cross attention spell 就 是 把 它 聽 到 的 東 西 把 它 拼 出 來 然 後 我 特 別 放 這 個 圖 是 想 要 跟 你 讓 你 想 可 以 比 較 容 易 想 像 這 個 cross attention 是 怎 麼 運 作 的 好 這 一 段 是 聲 音 訊 號 是 機 器 的 輸 入 那 聲 音 訊 號 輸 入 給 這 個 encoder 的 時 候 它 是 用 一 串 向 量 來 表 示 一 排 向 量 來 表 示 所 以 這 是 時 間 然 後 這 邊 是 一 排 一 排 一 個 一 個 的 向 量
ML2021_ASR_ST-56
[ 50361, 50364, 28193, 20754, 14010, 3111, 25338, 2412, 3278, 12, 1591, 1251, 220, 24842, 1546, 17543, 25491, 2289, 50654, 50654, 7239, 3581, 2412, 31782, 220, 32442, 50749, 50749, 14139, 3111, 25338, 2412, 3278, 12, 1591, 1251, 220, 39425, 17543, 25491, 50864, 50864, 36859, 6963, 2698, 12, 1591, 1251, 27949, 17543, 25491, 50979, 50979, 7239, 1541, 10108, 2412, 3278, 12, 1591, 1251, 220, 5661, 3763, 18888, 2412, 2698, 12, 1591, 1251, 51144, 51144, 10213, 20754, 14010, 13119, 32526, 9254, 8310, 281, 8310, 27949, 2316, 51309, 51309, 17572, 18987, 3035, 27949, 4876, 220, 48161, 2412, 10960, 3338, 12572, 6716, 252, 51484, 51484, 2855, 11, 20754, 14010, 48161, 2412, 10960, 3338, 12572, 6716, 252, 51584, 51584, 18888, 8225, 31649, 19105, 17571, 32526, 3581, 10907, 8310, 281, 8310, 27949, 2316, 51754 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>所以像這邊就是Listen, Attend, and Spill<|3.10|><|3.10|>告訴他說機器要聽聲音<|5.56|><|5.56|>然後做Attention,就是Cross-Attention<|7.86|><|7.86|>Spill就是把他聽到的東西把它拼出來<|10.96|><|10.96|>然後我特別放這個圖是想要<|12.56|><|12.56|>讓你比較容易想像這個Cross-Attention是怎麼運作的<|17.26|><|17.26|>好,這一段是聲音訊號,是機器的輸入<|19.80|><|19.80|>那聲音訊號輸入給這個Encoder的時候<|22.10|><|22.10|>它是用一串向量來表示,一排向量來表示<|25.12|><|25.12|>所以這是時間,然後這邊是一排一排一個一個的向量<|29.22|><|endoftext|>
然 後 這 一 排 呀 是 decoder 的 輸 出 decoder 一 次 只 吐 一 個 英 文 的 字 母 所 以 它 會 吐 h 吐 o 吐 w 就 代 表 how 那 如 果 它 已 經 到 一 個 詞 彙 的 邊 界 它 會 自 動 吐 出 空 白 空 白 當 做 是 一 個 特 殊 的 字 母 來 處 理 所 以 機 器 decoder 有 可 能 輸 出 空 白 代 表 一 個 詞 彙 結 束 了 換 一 個 新 的 詞 彙 接 下 來 輸 出 much 就 是 much 然 後 再 輸 出 空 白
ML2021_ASR_ST-57
[ 50361, 50364, 7239, 12760, 22821, 5620, 35819, 11, 46827, 11, 293, 1738, 373, 50519, 50519, 31080, 31592, 17543, 34386, 4275, 21524, 29454, 18034, 50642, 50642, 10213, 10907, 38151, 1251, 11, 5620, 34, 1887, 12, 38151, 1251, 50757, 50757, 14014, 373, 5620, 16075, 5000, 21524, 4511, 1546, 26978, 42061, 6852, 120, 29741, 50912, 50912, 10213, 1654, 38446, 12744, 6287, 2523, 244, 1541, 7093, 4275, 50992, 50992, 21195, 2166, 25174, 49212, 7093, 12760, 6287, 34, 1887, 12, 38151, 1251, 1541, 11614, 32772, 11914, 1546, 51227, 51227, 2131, 11, 32260, 28427, 1541, 29454, 18034, 5396, 232, 18616, 11, 1541, 17543, 34386, 1546, 12290, 116, 14028, 51354, 51354, 4184, 29454, 18034, 5396, 232, 18616, 12290, 116, 14028, 17798, 6287, 16257, 66, 19866, 20643, 51469, 51469, 11284, 1541, 9254, 2257, 940, 110, 24282, 26748, 3763, 40053, 11, 2257, 44647, 24282, 26748, 3763, 40053, 51620, 51620, 7239, 16600, 20788, 11, 10213, 22821, 1541, 2257, 44647, 2257, 44647, 8990, 8990, 1546, 24282, 26748, 51825 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>然後這一排是decoder的輸出<|3.56|><|3.56|>decoder一次只吐一個英文的字母<|7.64|><|7.64|>所以它會吐h、吐o、吐w就代表好<|12.14|><|12.14|>那如果它已經到一個詞彙的邊界<|14.60|><|14.60|>它會自動吐出空白<|16.64|><|16.64|>空白當作是一個特殊的字母來處理<|20.40|><|20.40|>所以機器decoder有可能輸出空白<|23.10|><|23.10|>代表一個詞彙結束了<|24.36|><|24.36|>換一個新的詞彙<|25.46|><|25.46|>接下來輸出much<|27.84|><|27.84|>然後再輸出空白<|28.84|><|endoftext|>
再 輸 出 w 這 句 話 其 實 是 一 個 英 文 的 繞 口 令 啦 這 句 話 完 整 的 句 子 是 how much wood would a woodchuck chuck 實 際 上 內 容 是 什 麼 其 實 不 太 重 要 它 就 是 一 句 繞 口 令 就 是 了 那 很 神 奇 機 器 可 以 一 次 吐 一 個 字 母 然 後 而 且 它 可 以 拼 對 正 確 的 詞 彙 好 那 這 邊 這 個 值 是 什 麼 呢 這 個 值 就 是 attention 的 分 數 所 以 當 你 要 產 生 這 個 h 的 時 候 在 產 生 這 個 h 之 前
ML2021_ASR_ST-58
[ 50361, 50364, 10213, 32260, 44647, 1541, 42821, 19866, 1546, 12290, 116, 7781, 50542, 50542, 42821, 19866, 27505, 14003, 2392, 238, 8990, 27869, 17174, 1546, 22381, 35744, 50746, 50746, 7239, 11284, 6236, 2392, 238, 71, 1231, 2392, 238, 78, 1231, 2392, 238, 86, 3111, 19105, 17571, 2131, 50971, 50971, 4184, 13119, 11284, 25338, 4511, 8990, 6716, 252, 7391, 247, 1546, 14901, 21185, 51094, 51094, 11284, 6236, 9722, 12572, 2392, 238, 7781, 23322, 13558, 51196, 51196, 23322, 13558, 13118, 11914, 1541, 8990, 17682, 15976, 232, 1546, 22381, 35744, 3763, 39289, 13876, 51384, 51384, 7239, 17543, 34386, 1479, 1291, 1068, 2412, 16657, 12290, 116, 7781, 23322, 13558, 51519, 51519, 19105, 17571, 8990, 6716, 252, 7391, 247, 17144, 44320, 2289, 51582, 51582, 36338, 8990, 12560, 1546, 6716, 252, 7391, 247, 51637, 51637, 40012, 12290, 116, 7781, 76, 625, 51756, 51756, 10213, 8623, 12290, 116, 7781, 23322, 13558, 51806 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>再輸出W<|1.30|><|1.30|>這句話其實是一個英文的繞口令<|3.80|><|3.80|>這句話完整的句子是<|5.60|><|5.60|>How much wood would a woodchuck chop?<|7.30|><|7.30|>實際上內容是什麼其實不太重要<|8.90|><|8.90|>它就是一句繞口令就是了<|10.80|><|10.80|>那很神奇機器可以一次<|12.88|><|12.88|>吐一個字母<|14.64|><|14.64|>然後而且它可以聽對正確的詞彙<|17.84|><|17.84|>那這邊這個值是什麼呢<|20.18|><|20.18|>這個值呢就是Attention的分數<|23.78|><|23.78|>所以當你要產生這個H的時候<|26.28|><|26.28|>在產生這個H之前<|27.88|><|endoftext|>
你 的 decoder 會 去 對 encoder 的 輸 出 做 attention 所 以 它 就 attend 在 這 個 地 方 然 後 產 生 h 然 後 attend 在 這 個 地 方 產 生 o attend 在 這 個 地 方 產 生 w 這 邊 顏 色 越 深 就 代 表 說 那 個 attention 的 那 個 分 數 啊 就 那 個 α 的 值 越 大 所 以 你 會 發 現 說 它 產 生 h 的 時 候 它 就 是 聽 到 這 個 地 方 有 h 的 聲 音 所 以 產 生 h 那 接 下 來 再 往 右 移 一 點 產 生 o
ML2021_ASR_ST-59
[ 50361, 50364, 8623, 12290, 116, 7781, 54, 50429, 50429, 2664, 34592, 11103, 14139, 1541, 8990, 27869, 17174, 1546, 23141, 252, 18144, 49061, 50554, 50554, 2664, 34592, 11103, 14128, 27662, 1546, 34592, 7626, 1541, 50644, 50644, 6462, 709, 4576, 576, 257, 4576, 25340, 7931, 30, 50729, 50729, 10376, 34837, 5708, 28472, 25750, 35851, 14139, 1960, 9455, 24928, 50809, 50809, 11284, 5620, 2257, 34592, 23141, 252, 18144, 49061, 5620, 2289, 50904, 50904, 4184, 4563, 20432, 26907, 17543, 34386, 6723, 27505, 51008, 51008, 2392, 238, 8990, 22381, 35744, 51096, 51096, 10213, 22942, 11284, 6723, 21524, 2855, 15789, 24293, 1546, 6716, 252, 7391, 247, 51256, 51256, 4184, 22821, 6287, 40242, 35851, 6240, 51373, 51373, 6287, 40242, 6240, 5620, 38151, 1251, 1546, 6627, 30622, 51553, 51553, 7239, 13118, 32085, 33299, 8244, 6287, 39, 20643, 51678, 51678, 3581, 33299, 8244, 6287, 39, 32442, 51758 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>你的decoder會去對encoder的輸出做attention<|4.92|><|4.92|>所以他就attent在這個地方<|7.24|><|7.24|>然後產生h<|9.28|><|9.28|>然後attent在這個地方產生o<|12.00|><|12.00|>attent在這個地方產生w<|14.28|><|14.28|>這邊顏色越深<|15.60|><|15.60|>就代表說那個attention的那個分數<|18.00|><|18.00|>就那個alpha的值越大<|20.68|><|20.68|>所以你會發現說他產生h的時候<|22.72|><|22.72|>他就是聽到這個地方有h的聲音<|24.84|><|24.84|>所以產生h<|26.08|><|26.08|>那接下來再往右移一點產生o<|28.20|><|endoftext|>
再 往 右 移 一 點 產 生 w 然 後 接 下 來 呢 attend 在 這 個 地 方 產 生 space 然 後 attend 在 這 個 地 方 產 生 m 那 你 會 看 到 說 這 個 attention 的 這 個 weight 是 由 左 上 到 右 下 移 動 的 那 跟 你 想 像 attention 應 該 運 作 的 機 制 很 像 因 為 當 我 們 這 邊 每 次 產 生 一 個 詞 彙 的 時 候 我 們 想 要 專 注 我 們 想 要 考 慮 的 聲 音 訊 號 應 該 就 是 由 左 向 右 所 以 確 實 如 果 你 看 model attention 的 話 它 可 能 也 是 從 左 上
ML2021_ASR_ST-60
[ 50361, 50364, 18961, 42821, 19866, 6236, 6734, 2855, 22660, 19866, 1546, 12290, 116, 7781, 10907, 1591, 1251, 50610, 50610, 7239, 5000, 3111, 1591, 317, 3581, 6287, 30146, 50726, 50726, 10213, 33299, 8244, 71, 50828, 50828, 10213, 1591, 317, 3581, 6287, 30146, 33299, 8244, 78, 50964, 50964, 1591, 317, 3581, 6287, 30146, 33299, 8244, 86, 51078, 51078, 22821, 10178, 237, 17673, 25761, 24043, 51144, 51144, 3111, 19105, 17571, 4622, 20754, 1591, 1251, 1546, 20754, 6627, 30622, 51264, 51264, 3111, 20754, 304, 7211, 1546, 40242, 25761, 3582, 51398, 51398, 7239, 2166, 6236, 38927, 4622, 5000, 33299, 8244, 71, 20643, 51500, 51500, 5000, 5620, 21524, 4511, 6287, 30146, 2412, 71, 1546, 29454, 18034, 51606, 51606, 7239, 33299, 8244, 71, 51668, 51668, 4184, 40012, 8623, 29510, 22060, 8204, 119, 19202, 33299, 8244, 78, 51774 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>再往右移一點產生W<|2.34|><|2.34|>然後接下來呢<|3.64|><|3.64|>Attent在這個地方產生Space<|5.80|><|5.80|>然後Attent在這個地方產生N<|8.36|><|8.36|>那你會看到說這個Attention的<|10.08|><|10.08|>這個Weight是由左上到右下移動的<|14.48|><|14.48|>那跟你想像Attention應該運作的機制很像<|17.44|><|17.44|>因為當我們這邊每次產生一個詞彙的時候<|19.76|><|19.76|>我們想要專注<|20.76|><|20.76|>我們想要考慮的聲音訊號<|22.36|><|22.36|>應該就是由左向右<|24.16|><|24.16|>所以確實如果你看Model的Attention的話<|26.80|><|26.80|>它可能是從左上<|28.28|><|endoftext|>
它 的 這 個 分 數 高 的 地 方 可 能 也 是 從 左 上 一 直 排 到 右 下 好 那 講 到 這 邊 也 許 有 同 學 會 問 說 那 這 個 encoder 有 很 多 層 啊 decoder 也 有 很 多 層 啊 從 剛 才 的 講 解 裡 面 好 像 聽 起 來 這 個 decoder 不 管 哪 一 層 都 是 拿 encoder 的 最 後 一 層 的 輸 出 這 樣 對 嗎 對 在 原 始 paper 裡 面 的 實 做 是 這 樣 子 那 一 定 要 這 樣 嗎 不 一 定 要 這 樣
ML2021_ASR_ST-61
[ 50361, 50364, 8623, 29510, 22060, 8204, 119, 19202, 33299, 8244, 54, 50481, 50481, 10213, 40012, 6240, 50546, 50546, 38151, 317, 3581, 6287, 30146, 33299, 8244, 44306, 50654, 50654, 10213, 38151, 317, 3581, 6287, 30146, 33299, 8244, 45, 50782, 50782, 4184, 2166, 6236, 18032, 4622, 6287, 38151, 1251, 1546, 50868, 50868, 6287, 4360, 397, 1541, 23786, 21975, 5708, 4511, 22060, 4438, 8204, 119, 12572, 1546, 51088, 51088, 4184, 24131, 7093, 12760, 38151, 1251, 26087, 32772, 11914, 1546, 17543, 25491, 4563, 12760, 51236, 51236, 11471, 13118, 5884, 22821, 23664, 9487, 33299, 8244, 8990, 6716, 252, 7391, 247, 20643, 51352, 51352, 5884, 7093, 4275, 46072, 26432, 51402, 51402, 5884, 7093, 4275, 26504, 12358, 106, 1546, 29454, 18034, 5396, 232, 18616, 51482, 51482, 26087, 5620, 23786, 21975, 24282, 22060, 51572, 51572, 7239, 24293, 10376, 13119, 16529, 44, 41147, 1546, 38151, 1251, 21358, 51704, 51704, 11284, 16657, 1541, 21068, 21975, 5708, 51778 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>它的這個分數高的地方可能是從左上一直排到右下<|4.60|><|4.60|>講到這邊也許有同學會問說<|7.00|><|7.00|>那這個Encoder有很多層啊<|9.64|><|9.64|>Decoder也有很多層啊<|11.64|><|11.64|>從剛才的講解裡面好像聽起來<|14.32|><|14.32|>這個Decoder不管哪一層都是拿Encoder最後一層的輸出<|20.40|><|20.40|>這樣對嗎?<|21.40|><|21.40|>對<|22.08|><|22.08|>在原始paper裡面的實作是這樣子的<|24.88|><|24.88|>那一定要這樣嗎?<|26.28|><|26.28|>不一定要這樣<|28.28|><|endoftext|>
你 永 遠 可 以 自 己 兜 一 些 新 的 想 法 所 以 我 這 邊 就 是 引 用 一 篇 論 文 告 訴 你 說 也 有 人 嘗 試 不 同 的 cross attension 的 方 式 encoder 這 邊 有 很 多 層 decoder 這 邊 有 很 多 層 為 什 麼 decoder 這 邊 每 一 層 都 一 定 要 看 encoder 的 最 後 一 層 輸 出 呢 能 不 能 夠 有 各 式 各 樣 不 同 的 連 接 方 式 這 完 全 可 以 當 做 一 個 研 究 的 問 題 來 study 好 那 最 後 呢 我 們 就 要 講 訓 練 這 件 事 了 我 們 已 經 講 了 encoder 講 了 decoder
ML2021_ASR_ST-62
[ 50361, 50364, 45224, 6287, 6627, 30622, 12979, 1546, 30146, 16657, 1541, 21068, 21975, 5708, 34448, 44647, 4511, 22060, 4438, 50594, 50594, 11932, 4511, 22821, 6404, 40914, 2412, 13089, 21372, 6236, 11361, 4622, 50714, 50714, 4184, 6287, 16257, 66, 19866, 2412, 20778, 9636, 97, 4905, 50846, 50846, 35, 3045, 19866, 6404, 2412, 20778, 9636, 97, 4905, 50946, 50946, 21068, 16940, 18888, 1546, 11932, 17278, 32399, 33242, 21524, 21670, 51080, 51080, 6287, 35, 3045, 19866, 45376, 17028, 2257, 9636, 97, 22796, 24351, 16257, 66, 19866, 20578, 2257, 9636, 97, 1546, 12290, 116, 7781, 51384, 51384, 8377, 2855, 7434, 30, 51434, 51434, 2855, 51468, 51468, 3581, 19683, 15476, 22104, 32399, 1546, 10376, 11914, 1541, 24842, 1546, 51608, 51608, 4184, 48161, 8377, 7434, 30, 51678, 51678, 1960, 48161, 8377, 51778 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>你永遠可以自己兜一些新的想法<|3.00|><|3.00|>所以我這邊就是引用一篇論文告訴你說<|5.60|><|5.60|>也有人嘗試不同的cross-attention的方式<|10.32|><|10.32|>Encoder這邊有很多層,Decoder這邊有很多層<|13.04|><|13.04|>為什麼Decoder這邊每一層都一定要看Encoder最後一層的輸出呢?<|16.76|><|16.76|>能不能夠有各式各樣不同的連接方式<|20.12|><|20.12|>這完全可以當作一個研究的問題來study<|23.60|><|23.60|>好,那最後呢,我們就要講訓練這件事了<|27.04|><|27.04|>我們已經講了Encoder、講了Decoder<|29.04|><|endoftext|>
講 了 encoder decoder 怎 麼 互 動 的 我 們 已 經 你 已 經 清 楚 說 input 一 個 sequence 是 怎 麼 得 到 最 終 的 輸 出 那 接 下 來 就 進 入 訓 練 的 部 分 我 們 剛 才 都 還 沒 有 講 訓 練 的 部 分 喔 我 們 剛 才 講 的 都 還 只 是 假 設 你 模 型 訓 練 好 以 後 它 是 怎 麼 運 作 的 它 是 怎 麼 做 testing 的 它 是 怎 麼 做 influence 的 influence 就 testing 啦 所 以 當 我 說 inference 的 時 候 我 指 的 就 是 testing 我 指 的 是 同 一 件 事 情 那 是 怎 麼 做 訓 練 的 呢
ML2021_ASR_ST-63
[ 50361, 50364, 2166, 42503, 34489, 6723, 17645, 2347, 250, 38515, 12560, 1546, 7093, 11148, 50514, 50514, 7239, 1654, 22821, 5620, 41301, 9254, 2257, 20878, 229, 29340, 17174, 31080, 42920, 50644, 50644, 6404, 45820, 10756, 245, 22099, 47123, 1546, 35418, 12, 1591, 1251, 1546, 9249, 27584, 50880, 50880, 16257, 66, 19866, 22821, 2412, 20778, 9636, 97, 11, 35, 3045, 19866, 22821, 2412, 20778, 9636, 97, 51016, 51016, 18987, 35, 3045, 19866, 22821, 23664, 2257, 9636, 97, 7182, 48161, 4200, 16257, 66, 19866, 20578, 2257, 9636, 97, 1546, 12290, 116, 7781, 6240, 30, 51202, 51202, 8225, 28590, 31649, 2412, 17516, 27584, 17516, 6180, 47123, 1546, 36252, 14468, 9249, 27584, 51370, 51370, 2664, 37100, 6723, 13118, 11914, 8990, 23230, 242, 44704, 1546, 17197, 3763, 28349, 88, 51544, 51544, 2131, 11, 4184, 20578, 6240, 11, 5884, 3111, 4275, 11932, 5396, 241, 47027, 2664, 20485, 6973, 2289, 51716, 51716, 5884, 25338, 11932, 2289, 16257, 66, 19866, 1231, 11932, 2289, 35, 3045, 19866, 51816 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>講了Encoder、Decoder怎麼互動的<|1.74|><|1.74|>我們已經清楚說<|3.58|><|3.58|>Inbringer Sequence是怎麼得到最終的輸出<|6.84|><|6.84|>那接下來就進入訓練的部分<|9.74|><|9.74|>我們剛才都還沒有講訓練的部分喔<|11.88|><|11.88|>我們剛才講的都還只是<|14.18|><|14.18|>假設你模型訓練好以後<|16.28|><|16.28|>它是怎麼運作的<|17.78|><|17.78|>它是怎麼做Testing的<|19.48|><|19.48|>它是怎麼做Inference的<|21.38|><|21.38|>Inference就Testing啦<|22.48|><|22.48|>所以當我說Inference的時候<|24.04|><|24.04|>我指的就是Testing<|25.24|><|25.24|>我指的是同一件事情<|27.04|><|27.04|>那是怎麼做訓練的呢<|29.04|><|endoftext|>
接 下 來 就 要 講 怎 麼 做 訓 練 那 如 果 是 做 語 音 辨 識 那 你 要 有 訓 練 資 料 需 要 什 麼 樣 訓 練 資 料 呢 你 要 蒐 集 一 大 堆 的 聲 音 訊 號 每 一 句 聲 音 訊 號 都 要 有 工 讀 生 來 聽 打 一 下 打 出 說 它 的 這 個 對 應 的 詞 彙 是 什 麼 工 讀 生 聽 這 段 是 機 器 學 習 他 就 把 機 器 學 習 四 個 字 打 出 來 所 以 就 知 道 說 你 的 這 個 transformer 應 該 要 學 到 聽 到 這 段 聲 音 訊 號 它 的 輸 出 就 是 機 器 學 習 這 四 個 中 文 字
ML2021_ASR_ST-64
[ 50361, 50364, 11932, 2289, 16257, 66, 19866, 1231, 35, 3045, 19866, 11614, 1369, 240, 12572, 1546, 50451, 50451, 5884, 25338, 38433, 4622, 50543, 50543, 4575, 1443, 6911, 46859, 655, 1541, 11614, 5916, 4511, 8661, 29371, 1546, 12290, 116, 7781, 50706, 50706, 4184, 40012, 3111, 18214, 14028, 5396, 241, 47027, 1546, 32174, 50851, 50851, 5884, 16940, 18888, 7182, 7824, 6963, 11932, 5396, 241, 47027, 1546, 32174, 10642, 50958, 50958, 5884, 16940, 18888, 11932, 1546, 7182, 7824, 36859, 51073, 51073, 31706, 39035, 2166, 41908, 39823, 5396, 241, 47027, 2131, 3588, 5661, 51178, 51178, 11284, 1541, 11614, 32772, 11914, 1546, 51253, 51253, 11284, 1541, 11614, 10907, 51, 8714, 1546, 51338, 51338, 11284, 1541, 11614, 10907, 4575, 5158, 1546, 51433, 51433, 4575, 5158, 3111, 51, 8714, 9724, 51488, 51488, 7239, 13118, 34206, 4575, 5158, 20643, 51566, 51566, 1654, 25922, 1546, 5620, 51, 8714, 51626, 51626, 1654, 25922, 24620, 13089, 2257, 49459, 51716, 51716, 4184, 1541, 11614, 10907, 5396, 241, 47027, 1546, 6240, 51816 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>接下來就要講怎麼做訓練<|2.00|><|2.00|>那如果是做語音辨識<|3.50|><|3.50|>那你要有訓練資料<|4.74|><|4.74|>需要什麼樣的訓練資料呢<|6.24|><|6.24|>你要收集一大堆的聲音訊號<|8.14|><|8.20|>每句聲音訊號都要有工讀生來聽打一下<|11.80|><|11.80|>打出說他的這個對應的詞彙是什麼<|14.94|><|14.94|>工讀生聽這段是機器學習<|17.24|><|17.24|>他就把機器學習四個字打出來<|19.24|><|19.30|>所以就知道說<|20.24|><|20.40|>呃你的這個transformer<|22.20|><|22.20|>應該要學到聽到這段聲音訊號<|24.24|><|24.24|>他的輸出就是機器學習<|26.24|><|26.40|>這四個中文字<|27.94|><|endoftext|>
那 怎 麼 讓 機 器 學 到 這 件 事 呢 我 們 已 經 知 道 說 輸 入 這 段 聲 音 訊 號 第 一 個 應 該 要 輸 出 的 中 文 字 是 機 所 以 今 天 當 我 們 把 begin 丟 給 這 個 encoder 的 時 候 它 第 一 個 輸 出 應 該 要 跟 機 越 接 近 越 好 什 麼 叫 跟 機 越 接 近 越 好 呢 機 這 個 字 會 被 表 示 成 一 個 one-hot 的 vector 在 這 個 vector 裡 面 只 有 機 對 應 的 那 個 維 度 是 1 其 他 都 是 0 這 是 正 確 答 案 那 我 們 的 decoder
ML2021_ASR_ST-65
[ 50361, 50364, 40012, 3111, 4275, 11932, 11614, 10907, 5396, 241, 47027, 50464, 50464, 4184, 13119, 1541, 10907, 31348, 18034, 9830, 101, 43143, 50539, 50539, 4184, 32085, 2412, 5396, 241, 47027, 35380, 33404, 50601, 50601, 35748, 7598, 6180, 1546, 5396, 241, 47027, 35380, 33404, 6240, 50676, 50676, 32085, 18681, 26020, 2257, 3582, 10726, 228, 1546, 29454, 18034, 5396, 232, 18616, 50771, 50774, 23664, 34592, 29454, 18034, 5396, 232, 18616, 7182, 4275, 2412, 23323, 7422, 222, 8244, 3763, 21524, 12467, 8861, 50954, 50954, 12467, 7781, 4622, 31309, 6287, 2855, 20481, 1546, 6716, 252, 7391, 247, 35851, 51111, 51111, 23323, 7422, 222, 8244, 21524, 2664, 28427, 1541, 17543, 34386, 21372, 34025, 51226, 51226, 5000, 3111, 16075, 17543, 34386, 21372, 34025, 19425, 3338, 22381, 12467, 29741, 51326, 51329, 7239, 3111, 7758, 4622, 51376, 51384, 3606, 225, 18961, 6287, 24999, 837, 260, 51474, 51474, 26087, 4275, 21372, 4511, 21524, 4511, 2664, 28427, 29454, 18034, 5396, 232, 18616, 51576, 51576, 31309, 12290, 116, 7781, 5620, 17543, 34386, 21372, 34025, 51676, 51684, 2664, 19425, 3338, 5975, 17174, 22381, 51761 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那怎麼讓機器學到這件事呢?<|2.30|><|2.30|>我們已經知道說輸入這段聲音訊號<|4.80|><|4.80|>第一個應該要輸出的中文字是G<|7.10|><|7.10|>所以今天當我們把begin丟給decoder的時候<|11.52|><|11.52|>它第一個輸出應該要跟G越接近越好<|16.44|><|16.44|>什麼叫做跟G越接近越好呢?<|18.92|><|18.92|>G這個字會被表示成一個one-hot vector<|23.28|><|23.28|>在這個vector裡面只有G對應的那個維度是1<|26.80|><|26.80|>其他都是0,這是正確答案<|28.80|><|28.80|><|endoftext|>
你 可 以 想 成 每 一 次 我 們 在 產 生 每 一 次 decoder 在 產 生 一 個 中 文 字 的 時 候 其 實 就 是 做 了 一 次 分 類 的 問 題 中 文 字 假 設 有 四 千 個 那 就 是 做 有 四 千 個 類 別 的 分 類 的 問 題 啦 好 所 以 實 際 上 訓 練 的 時 候 這 個 樣 子 我 們 已 經 知 道 輸 出 應 該 是 機 器 學 習 這 四 個 字 那 你 就 告 訴 機 器 說 你 就 告 訴 你 的 decoder 說 現 在 你 第 一 次 的 輸 出 第 二 次 的 輸 出
ML2021_ASR_ST-66
[ 50361, 50364, 4184, 11614, 21195, 17543, 34386, 21372, 4511, 2664, 20485, 6973, 6240, 30, 50479, 50479, 5884, 25338, 7758, 4622, 12290, 116, 14028, 2664, 28427, 29454, 18034, 5396, 232, 18616, 50604, 50604, 40760, 26087, 4275, 12290, 116, 7781, 1546, 5975, 17174, 22381, 1541, 38, 50719, 50719, 7239, 12074, 13118, 5884, 16075, 650, 1494, 940, 253, 17798, 42821, 19866, 20643, 50940, 50940, 11284, 40760, 12290, 116, 7781, 26087, 4275, 9678, 38, 25761, 14468, 17463, 25761, 2131, 51186, 51186, 7598, 19855, 10907, 9678, 38, 25761, 14468, 17463, 25761, 2131, 6240, 30, 51310, 51310, 38, 6287, 22381, 6236, 23238, 40053, 11336, 8990, 546, 12, 12194, 8062, 51528, 51528, 3581, 6287, 303, 1672, 32399, 35244, 38, 2855, 20481, 1546, 20754, 9261, 255, 13127, 1541, 16, 51704, 51704, 9572, 5000, 22796, 15, 11, 16600, 15789, 24293, 28223, 28899, 51804, 51804 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>你可以想成每一次我們在產生<|3.08|><|3.08|>每一次decoder在產生一個中文字的時候<|7.04|><|7.04|>其實就是做了一次分類的問題<|10.62|><|10.62|>中文字假設有四千個<|13.16|><|13.16|>那就是做有四千個類別的分類的問題啦<|17.62|><|17.62|>所以實際上訓練的時候這個樣子<|19.76|><|19.76|>我們已經知道輸出應該是機器學習這四個字<|24.10|><|24.10|>那你就告訴機器說<|25.44|><|25.44|>你就告訴你的decoder說<|27.10|><|27.10|>現在你第一次的輸出<|28.70|><|28.70|>第二次的輸出<|29.44|><|endoftext|>
第 三 次 的 輸 出 第 四 次 輸 出 應 該 分 別 就 是 機 器 學 跟 習 這 四 個 中 文 字 的 one-hot vector 我 們 希 望 我 們 的 輸 出 跟 這 四 個 字 的 one-hot vector 越 接 近 越 好 在 訓 練 的 時 候 每 一 個 輸 出 都 會 有 一 個 cross entropy 每 一 個 輸 出 跟 one-hot vector 跟 它 對 應 的 正 確 答 案 都 有 一 個 cross entropy 都 有 一 個 cross entropy 我 們 要 希 望 所 有 的 cross entropy 的 總 和 最 小 越 小 越 好
ML2021_ASR_ST-67
[ 50361, 50364, 42766, 7093, 11336, 23664, 27505, 5884, 3581, 33299, 8244, 50518, 50518, 23664, 27505, 42821, 19866, 3581, 33299, 8244, 8990, 5975, 17174, 22381, 20643, 50716, 50716, 14139, 5620, 10907, 2289, 27505, 6627, 40092, 1546, 17197, 50895, 50895, 5975, 17174, 22381, 31706, 39035, 2412, 19425, 20787, 3338, 51022, 51022, 4184, 5620, 10907, 2412, 19425, 20787, 3338, 40092, 16158, 1546, 6627, 40092, 1546, 17197, 9724, 51245, 51245, 7239, 10376, 34837, 5708, 5396, 241, 47027, 20643, 6287, 6180, 7626, 51352, 51352, 5884, 25338, 7758, 12290, 116, 7781, 26087, 1541, 17543, 34386, 21372, 34025, 2664, 19425, 3338, 22381, 51569, 51569, 4184, 41045, 31080, 17543, 34386, 4622, 51636, 51636, 41045, 31080, 18961, 42821, 19866, 4622, 51719, 51719, 12648, 2166, 18049, 9487, 1546, 12290, 116, 7781, 51799, 51799, 19693, 9487, 1546, 12290, 116, 7781, 51836 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>第三次的輸出 第四次的輸出<|2.00|><|2.00|>應該分別就是機 氣 學跟洗<|5.32|><|5.32|>這四個中文字的one-half vector<|7.80|><|7.80|>我們希望我們的輸出<|9.60|><|9.60|>跟這四個字的one-half vector越接近越好<|12.40|><|12.40|>在訓練的時候<|13.80|><|13.80|>每一個輸出都會有一個cross entropy<|16.60|><|16.60|>每一個輸出跟one-half vector<|18.20|><|18.20|>跟它對應的正確答案<|19.80|><|19.80|>都有一個cross entropy<|23.40|><|23.40|>我們要希望所有的cross entropy的總和最小<|27.40|><|27.40|>越小越好<|28.40|><|endoftext|>
所 以 這 邊 做 了 四 次 分 類 的 問 題 我 們 希 望 這 些 分 類 的 問 題 它 總 合 起 來 的 cross entropy 越 小 越 好 那 這 邊 不 要 忘 了 還 有 斷 這 個 東 西 還 有 end 這 個 東 西 所 以 其 實 今 天 假 設 這 個 句 子 它 的 中 文 的 字 是 四 個 但 是 你 學 習 的 時 候 你 要 decoder 輸 出 的 不 是 只 有 這 四 個 中 文 字 你 還 要 叫 它 記 得 說 這 四 個 中 文 字 輸 出 完 以 後
ML2021_ASR_ST-68
[ 50361, 50364, 35878, 9487, 1546, 12290, 116, 7781, 220, 7536, 19425, 9487, 1546, 12290, 116, 7781, 50464, 50464, 26087, 6627, 16158, 5620, 17543, 220, 24090, 220, 21372, 9678, 43252, 50630, 50630, 2664, 19425, 3338, 5975, 17174, 22381, 1546, 546, 12, 25461, 8062, 50754, 50754, 5884, 29955, 33641, 12290, 116, 7781, 50844, 50844, 9678, 2664, 19425, 3338, 22381, 1546, 546, 12, 25461, 8062, 25761, 14468, 17463, 25761, 2131, 50984, 50984, 3581, 5396, 241, 47027, 20643, 51054, 51054, 23664, 8990, 12290, 116, 7781, 7182, 6236, 2412, 8990, 35418, 30867, 51194, 51194, 23664, 8990, 12290, 116, 7781, 9678, 546, 12, 25461, 8062, 51274, 51274, 9678, 11284, 2855, 20481, 1546, 15789, 24293, 28223, 28899, 51354, 51354, 48121, 8990, 35418, 30867, 51534, 51534, 5884, 4275, 29955, 39300, 1546, 35418, 30867, 1546, 26575, 12565, 8661, 7322, 51734, 51734, 25761, 7322, 25761, 2131, 51784 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>所以這邊做了四次分類的問題<|3.00|><|3.00|>我們希望這些分類的問題<|5.44|><|5.44|>它總合起來的 cross entropy 越小越好<|8.84|><|8.84|>但這邊不要忘了<|10.28|><|10.28|>還有段這個東西<|12.48|><|12.48|>還有 end 這個東西<|14.58|><|14.58|>所以其實今天假設這個句子<|17.62|><|17.62|>它的中文的字是四個<|19.72|><|19.72|>但是你學習的時候<|21.22|><|21.22|>你要 decoder 輸出的<|23.32|><|23.32|>不是只有這四個中文字<|25.26|><|25.26|>你還要叫它記得說<|26.82|><|26.82|>這四個中文字輸出完以後<|29.96|><|29.96|><|endoftext|>
你 還 要 記 得 輸 出 斷 這 個 特 別 的 符 號 所 以 你 要 告 訴 你 的 decoder 說 你 最 終 第 五 個 位 置 輸 出 了 這 個 向 量 應 該 跟 斷 的 one-hot vector 它 的 cross entropy 越 小 越 好 那 這 個 就 是 decoder 的 訓 練 你 把 ground truth 給 它 正 確 答 案 給 它 希 望 decoder 的 輸 出 跟 正 確 答 案 越 接 近 越 好 那 這 邊 有 一 件 值 得 我 們 注 意 的 事 情 這 件 事 是 這 樣
ML2021_ASR_ST-69
null
<|startoftranscript|><|zh|><|transcribe|><|0.00|>你還要記得輸出斷這個特別的符號<|3.64|><|3.64|>所以你要告訴你的Decoder說<|5.40|><|5.40|>你最終第五個位置輸出的這個向量<|8.60|><|8.60|>應該跟斷的One-Hard Vector<|12.60|><|12.60|>它的Cross Entropy越小越好<|15.64|><|15.64|>這個就是Decoder的訓練<|18.00|><|18.00|>你把One-Truth給它 正確答案給它<|20.88|><|20.88|>希望Decoder的輸出跟正確答案越接近越好<|25.44|><|25.44|>那這邊有一件值得我們注意的事情<|27.80|><|27.80|>這件事是這樣<|28.60|><|endoftext|>
你 看 看 decoder 的 輸 入 是 什 麼 decoder 的 輸 入 是 正 確 答 案 我 們 會 給 decoder 在 訓 練 的 時 候 我 們 會 給 decoder 看 正 確 答 案 也 就 是 我 們 會 告 訴 它 說 在 已 經 有 begin 在 有 機 的 情 況 下 你 就 要 輸 出 器 有 begin 有 機 有 器 的 情 況 下 輸 出 學 有 begin 有 機 有 器 有 學 的 情 況 下 輸 出 習 有 begin 有 機 有 器 有 學 有 習 的 情 況 下 你 就 要 輸 出 斷
ML2021_ASR_ST-70
[ 50361, 50364, 2166, 7824, 4275, 30872, 12290, 116, 7781, 4307, 115, 6287, 38446, 1546, 5437, 99, 18616, 50546, 50546, 7239, 32085, 31080, 18961, 35, 3045, 19866, 4622, 50634, 50634, 2166, 8661, 29371, 7536, 21001, 3338, 11160, 34719, 12290, 116, 7781, 1546, 6287, 24282, 26748, 50794, 50794, 26087, 9678, 4307, 115, 1546, 15426, 12, 39, 515, 691, 20814, 50994, 50994, 45224, 34, 1887, 3951, 27514, 25761, 7322, 25761, 2131, 51146, 51146, 6287, 5620, 35, 3045, 19866, 1546, 5396, 241, 47027, 51264, 51264, 2166, 16075, 15426, 12, 14252, 2910, 17798, 11284, 220, 15789, 24293, 28223, 28899, 17798, 11284, 51408, 51408, 29955, 35, 3045, 19866, 1546, 12290, 116, 7781, 9678, 15789, 24293, 28223, 28899, 25761, 14468, 17463, 25761, 2131, 51636, 51636, 4184, 22821, 32241, 20485, 40242, 5916, 5884, 40794, 1546, 24675, 51754, 51754, 2664, 20485, 6973, 49603, 51794 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>看看decoder的輸入是什麼<|2.70|><|2.70|>decoder的輸入是正確答案<|7.40|><|7.40|>我們會給decoder<|9.16|><|9.16|>在訓練的時候<|10.40|><|10.40|>我們會給decoder看正確答案<|13.60|><|13.60|>也就是我們會告訴他說<|15.26|><|15.26|>在已經有begin有g的情況下<|17.84|><|17.84|>你就要輸出g<|19.26|><|19.26|>有begin有g有g的情況下輸出g<|22.10|><|22.10|>有begin有g有g有g有g的情況下輸出g<|24.86|><|24.86|>有begin有g有g有g有g有g的情況下<|28.00|><|28.00|>你就要輸出g<|29.96|><|29.96|><|endoftext|>
在 decoder 訓 練 的 時 候 我 們 會 在 輸 入 的 時 候 給 它 正 確 的 答 案 那 這 件 事 情 叫 做 teacher forcing 那 我 也 不 其 實 我 不 太 確 定 為 什 麼 叫 teacher forcing 好 像 是 老 師 會 強 迫 你 做 什 麼 事 情 一 樣 聽 起 來 好 像 沒 有 很 好 但 是 這 個 技 術 呢 就 叫 做 teacher forcing 也 就 是 我 們 把 正 確 的 答 案 當 作 decoder 的 輸 入 那 這 個 時 候 你 馬 上 就 會 有 一 個 問 題 了 這 個 訓 練 的 時 候
ML2021_ASR_ST-71
[ 50361, 50364, 22884, 42821, 19866, 1546, 12290, 116, 14028, 35851, 50499, 50499, 42821, 19866, 1546, 12290, 116, 14028, 1541, 15789, 24293, 28223, 28899, 50734, 50734, 5884, 6236, 17798, 42821, 19866, 50822, 50822, 3581, 5396, 241, 47027, 20643, 50884, 50884, 5884, 6236, 17798, 42821, 19866, 4200, 15789, 24293, 28223, 28899, 51044, 51044, 6404, 5620, 5884, 6236, 31080, 31592, 51127, 51127, 3581, 25338, 2412, 650, 1494, 2412, 70, 1546, 39391, 4438, 51256, 51256, 41045, 4275, 12290, 116, 7781, 70, 51327, 51327, 2412, 650, 1494, 2412, 70, 2412, 70, 1546, 39391, 4438, 12290, 116, 7781, 70, 51469, 51469, 2412, 650, 1494, 2412, 70, 2412, 70, 2412, 70, 2412, 70, 1546, 39391, 4438, 12290, 116, 7781, 70, 51607, 51607, 2412, 650, 1494, 2412, 70, 2412, 70, 2412, 70, 2412, 70, 2412, 70, 1546, 39391, 4438, 51764, 51764, 41045, 4275, 12290, 116, 7781, 70, 51862, 51862 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>在decoder訓練的時候,我們會在輸入的時候給他正確的答案<|7.50|><|7.50|>那這件事情呢,叫做teacher forcing<|11.00|><|11.00|>其實我不太確定為什麼叫teacher forcing<|13.50|><|13.50|>好像是老師會強迫你做什麼事情一樣<|16.00|><|16.00|>聽起來好像沒有很好,但是這個技術呢就叫做teacher forcing<|20.50|><|20.50|>也就是我們把正確的答案當作decoder的輸入<|25.50|><|25.50|>那這個時候你馬上就會有一個問題了<|27.50|><|27.50|><|endoftext|>
decoder 有 偷 看 到 正 確 答 案 了 但 是 測 試 的 時 候 顯 然 沒 有 正 確 答 案 可 以 給 decoder 看 剛 才 也 有 強 調 說 在 真 正 使 用 這 個 模 型 在 inference 的 時 候 decoder 看 到 的 是 自 己 的 輸 入 這 中 間 顯 然 有 一 個 mismatch 對 這 中 間 有 一 個 mismatch 那 等 一 下 我 們 會 有 一 頁 投 影 片 的 說 明 有 什 麼 樣 可 能 的 解 決 方 式 那 接 下 來 呢 就 是 要 講 訓 練 transformer 的 一 些 訓 練 這 種 但 不 侷 限 於 transformer 啊
ML2021_ASR_ST-72
[ 50361, 50364, 3581, 42821, 19866, 5396, 241, 47027, 20643, 11, 5884, 6236, 3581, 12290, 116, 14028, 20643, 17798, 5000, 15789, 24293, 1546, 28223, 28899, 50739, 50739, 4184, 2664, 49459, 6240, 11, 19855, 10907, 975, 4062, 19030, 50914, 50914, 14139, 25395, 9455, 24293, 12088, 18987, 19855, 975, 4062, 19030, 51039, 51039, 33242, 1541, 23907, 6236, 22752, 3316, 104, 2166, 10907, 7598, 24675, 22977, 51164, 51164, 21524, 21670, 33242, 6963, 23801, 11, 11189, 6287, 32502, 9890, 241, 6240, 3111, 19855, 10907, 975, 4062, 19030, 51389, 51389, 6404, 5620, 5884, 16075, 15789, 24293, 1546, 28223, 28899, 13118, 11914, 42821, 19866, 1546, 12290, 116, 14028, 51639, 51639, 4184, 6287, 14010, 2166, 29098, 5708, 47778, 2412, 8990, 17197, 2289, 51739, 51739 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>Decoder有偷看到正確答案了<|2.58|><|2.58|>但是測試的時候顯然沒有正確答案可以給Decoder看<|6.38|><|6.38|>剛才也有強調說在真正使用這個模型<|9.18|><|9.18|>在Inference的時候,Decoder看到的是自己的輸入<|12.18|><|12.18|>這中間顯然有一個Mismatch<|15.38|><|15.38|>對,這中間有一個Mismatch<|18.58|><|18.58|>等一下我們會有一頁投影片說明<|21.14|><|21.14|>有什麼樣可能的解決方式<|23.34|><|23.34|>接下來就是要講訓練Transformer的一些<|27.58|><|27.58|><|endoftext|>
訓 練 這 種 sequence to sequence model 的 一 些 tips 好 第 一 個 tips 是 copy mechanism 對 很 多 任 務 而 言 在 我 們 剛 才 的 討 論 裡 面 我 們 都 要 求 decoder 自 己 產 生 輸 出 但 是 對 很 多 任 務 而 言 也 許 decoder 沒 有 必 要 自 己 創 造 輸 出 出 來 它 需 要 做 的 事 情 也 許 是 從 輸 入 的 東 西 裡 面 複 製 一 些 東 西 出 來
ML2021_ASR_ST-73
[ 50361, 50364, 35, 3045, 19866, 2412, 7437, 115, 18032, 15789, 24293, 28223, 28899, 2289, 50493, 50493, 11189, 9592, 105, 22099, 20643, 46605, 5823, 6963, 15789, 24293, 28223, 28899, 6723, 17798, 35, 3045, 19866, 4200, 50683, 50683, 16940, 18888, 6404, 2412, 22752, 32943, 4622, 3581, 6303, 15789, 22982, 9254, 6287, 41908, 39823, 50823, 50823, 3581, 4575, 5158, 20643, 11, 35, 3045, 19866, 18032, 24620, 17645, 1546, 12290, 116, 14028, 50973, 50973, 2664, 5975, 11016, 46605, 5823, 2412, 8990, 44, 1434, 852, 51133, 51133, 2855, 11, 2664, 5975, 11016, 2412, 8990, 44, 1434, 852, 51293, 51293, 24554, 5884, 6236, 32241, 8313, 223, 37094, 25373, 4622, 11100, 51421, 51421, 2412, 7598, 6180, 16657, 1546, 17278, 33540, 9249, 27584, 51531, 51531, 40012, 5620, 4275, 11932, 5396, 241, 47027, 33339, 837, 260, 1546, 38515, 51743, 51743 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>去練這種sequence to sequence model的一些tips<|4.90|><|4.90|>第一個tips是copy mechanism<|8.30|><|8.30|>對很多任務而言<|10.00|><|10.00|>在我們剛才的討論裡面<|12.00|><|12.00|>我們都要求decoder自己產生輸出<|16.26|><|16.26|>但是對很多任務而言<|17.96|><|17.96|>也許decoder沒有必要自己創造輸出出來<|21.46|><|21.46|>他需要做的事情<|22.80|><|22.80|>也許是從輸入的東西裡面<|25.90|><|25.90|>複製一些東西出來<|27.70|><|endoftext|>
那 我 們 有 沒 有 辦 法 讓 decoder 複 製 從 輸 入 複 製 一 些 東 西 出 來 呢 其 實 是 有 辦 法 那 像 這 種 複 製 的 行 為 在 哪 些 任 務 會 用 得 上 呢 一 個 例 子 是 做 聊 天 機 器 人 舉 例 來 說 人 對 機 器 說 你 好 我 是 庫 洛 洛 庫 洛 洛 就 是 團 長 啦 他 是 誰 其 實 也 沒 那 麼 重 要 也 很 久 沒 有 見 到 他 了 我 是 庫 洛 洛 然 後 機 器 應 該 回 什 麼 呢 機 器 應 該 回 答 說 庫 洛 洛 你 好 很 高 興 認 識 你 那 對 機 器 來 說
ML2021_ASR_ST-74
[ 50361, 50364, 6734, 47027, 33005, 11834, 655, 281, 8310, 2316, 1546, 38515, 83, 2600, 50609, 50609, 40760, 83, 2600, 1541, 13084, 88, 7513, 50779, 50779, 2855, 20778, 26443, 39517, 11070, 12009, 50864, 50864, 3581, 5884, 16940, 18888, 1546, 5396, 236, 29340, 32399, 50964, 50964, 5884, 7182, 4275, 32718, 42821, 19866, 17645, 33299, 8244, 12290, 116, 7781, 51177, 51177, 11189, 2855, 20778, 26443, 39517, 11070, 12009, 51262, 51262, 6404, 40914, 42821, 19866, 6963, 28531, 4275, 17645, 5935, 113, 37583, 12290, 116, 7781, 29741, 51437, 51437, 5000, 35748, 10907, 1546, 24675, 51504, 51504, 6404, 40914, 1541, 21068, 12290, 116, 14028, 1546, 26978, 32399, 51659, 51659, 164, 97, 229, 8083, 121, 38515, 26978, 29741, 51749 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那我們有沒有辦法讓decoder複製<|3.08|><|3.08|>從輸入複製一些東西出來呢<|5.24|><|5.24|>其實是有辦法的<|6.60|><|6.60|>那像這種複製的行為在哪些任務會用得上呢<|10.68|><|10.68|>一個例子是做聊天機器人<|13.72|><|13.72|>舉例來說,人對機器說<|15.84|><|15.84|>你好,我是庫洛洛<|17.32|><|17.32|>庫洛洛就是團長啦<|18.56|><|18.56|>他是誰其實也沒那麼重要<|19.84|><|19.84|>已經很久沒有見到他了<|21.08|><|21.08|>我是庫洛洛<|22.28|><|22.28|>那機器應該要回什麼呢<|23.76|><|23.76|>機器應該要回答說<|25.20|><|25.20|>庫洛洛你好,很高興認識你<|27.64|><|27.64|>那對機器來說<|28.84|><|endoftext|>
它 其 實 沒 有 必 要 創 造 庫 洛 洛 這 個 詞 彙 這 對 機 器 來 說 一 定 會 是 一 個 非 常 怪 異 的 詞 彙 所 以 它 可 能 很 難 在 訓 練 資 料 裡 面 可 能 一 次 也 沒 有 出 現 過 所 以 它 不 太 可 能 正 確 地 產 生 這 段 詞 彙 出 來 這 段 句 子 出 來 但 是 假 設 今 天 機 器 它 在 學 的 時 候 它 學 到 的 並 不 是 它 要 產 生 庫 洛 洛 這 三 個 中 文 字 它 學 到 的 是 看 到 輸 入 的 時 候 說 我 是 某 某 某 就 直 接 把 某 某 某
ML2021_ASR_ST-75
[ 50361, 50364, 46714, 28350, 40072, 21195, 42821, 19866, 164, 97, 229, 8083, 121, 50518, 50518, 21068, 12290, 116, 14028, 164, 97, 229, 8083, 121, 38515, 26978, 29741, 6240, 50626, 50626, 14139, 1541, 2412, 40072, 1546, 50694, 50694, 4184, 12760, 33005, 164, 97, 229, 8083, 121, 1546, 8082, 6344, 3581, 17028, 13824, 26443, 39517, 6236, 9254, 5916, 5708, 6240, 50898, 50898, 8990, 17797, 7626, 1541, 10907, 40096, 6135, 17543, 34386, 4035, 51050, 51050, 42828, 17797, 36979, 11, 4035, 2855, 17543, 34386, 4622, 51156, 51156, 26410, 11, 15914, 6346, 104, 12136, 249, 12136, 249, 51230, 51230, 6346, 104, 12136, 249, 12136, 249, 5620, 37766, 15353, 9724, 51292, 51292, 47046, 20757, 14139, 6404, 4913, 20504, 24928, 51356, 51356, 25338, 4563, 25320, 6963, 10470, 4511, 5000, 2289, 51418, 51418, 15914, 6346, 104, 12136, 249, 12136, 249, 51478, 51478, 4184, 17543, 34386, 26087, 4275, 8350, 7598, 6240, 51552, 51552, 17543, 34386, 26087, 4275, 8350, 28223, 4622, 51624, 51624, 6346, 104, 12136, 249, 12136, 249, 26410, 11, 4563, 12979, 44089, 22041, 43143, 2166, 51746, 51746, 4184, 2855, 17543, 34386, 36979, 51806 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>它其實沒有必要創造庫洛洛這個詞彙<|2.76|><|2.76|>這對機器來說一定會是一個非常怪異的詞彙<|5.72|><|5.72|>所以它可能很難<|7.40|><|7.40|>在訓練資料裡面可能一次也沒有出現過<|9.96|><|9.96|>所以它不太可能正確的產生這段詞彙出來<|13.32|><|13.32|>這段句子出來<|14.64|><|14.64|>但是假設今天機器它在學的時候<|17.44|><|17.44|>它學到的並不是它要產生庫洛洛這三個中文字<|22.56|><|22.56|>它學到的是看到輸入的時候說我是某某某<|27.16|><|27.16|>就直接把某某某<|28.40|><|endoftext|>
不 管 這 邊 是 什 麼 複 製 出 來 說 某 某 某 你 好 那 這 樣 子 機 器 的 訓 練 顯 然 會 比 較 容 易 它 顯 然 比 較 有 可 能 得 到 正 確 的 結 果 所 以 複 製 對 於 對 話 來 說 可 能 是 一 個 需 要 的 技 術 需 要 的 能 力 我 這 邊 舉 另 外 一 個 例 子 小 傑 不 能 用 念 能 力 了 他 不 能 用 念 能 力 了 你 可 能 會 回 答 說 你 所 謂 的 不 能 用 念 能 力 是 什 麼 意 思 對 機 器 來 說 它 要 做 的 事 情
ML2021_ASR_ST-76
[ 50361, 50364, 11284, 14139, 6963, 28531, 4275, 5935, 113, 37583, 6346, 104, 12136, 249, 12136, 249, 6287, 6716, 252, 7391, 247, 50502, 50502, 2664, 2855, 17543, 34386, 36979, 24272, 6236, 1541, 8990, 14392, 26798, 6904, 108, 1546, 6716, 252, 7391, 247, 50650, 50650, 7239, 11284, 16657, 4563, 21192, 50734, 50734, 3581, 5396, 241, 47027, 35380, 33404, 32399, 16657, 27505, 6404, 6963, 7781, 9581, 8816, 50862, 50862, 7239, 11284, 1960, 9455, 16657, 15789, 24293, 1546, 33299, 8244, 2664, 28427, 6716, 252, 7391, 247, 29741, 51030, 51030, 2664, 28427, 34592, 7626, 29741, 51096, 51096, 11189, 31706, 39035, 12074, 17543, 34386, 11284, 3581, 21372, 20643, 51236, 51236, 11284, 21372, 4511, 1546, 35934, 7296, 11284, 4275, 33299, 8244, 6346, 104, 12136, 249, 12136, 249, 2664, 10960, 3338, 5975, 17174, 22381, 51492, 51492, 11284, 21372, 4511, 24620, 18032, 12290, 116, 14028, 20643, 4622, 15914, 17238, 238, 17238, 238, 17238, 238, 51722, 51722, 3111, 43297, 16075, 17238, 238, 17238, 238, 17238, 238, 51784 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>不管這邊是什麼複製出來說某某某你好<|3.00|><|3.00|>那這樣子機器的訓練顯然會比較容易<|6.80|><|6.80|>它顯然比較有可能得到正確的結果<|9.80|><|9.80|>所以複製對於對話來說<|12.40|><|12.40|>可能是一個需要的技術需要的能力<|17.40|><|17.40|>或這邊舉另外一個例子<|19.00|><|19.00|>小傑不能用唸能力了<|21.00|><|21.00|>對他不能用唸能力了<|22.60|><|22.60|>你可能會回答說<|23.60|><|23.60|>你所謂的不能用唸能力是什麼意思<|26.40|><|26.40|>對機器來說<|27.40|><|27.40|>他要做的事情<|28.60|><|endoftext|>
去 複 述 這 一 段 它 聽 不 懂 的 話 那 它 不 需 要 從 頭 去 創 造 這 一 段 文 字 它 要 學 的 也 許 是 從 使 用 者 人 的 輸 入 去 copy 一 些 詞 彙 當 做 它 的 輸 出 或 者 是 在 做 摘 要 的 時 候 你 可 能 更 需 要 copy 這 樣 子 的 技 能 所 謂 的 摘 要 就 是 你 要 訓 練 一 個 模 型 然 後 這 個 模 型 去 讀 一 篇 文 章 然 後 產 生 這 篇 文 章 的 摘 要 那 這 個 任 務 完 全 是 有 辦 法 做 的 你 就 是 蒐 集 大 量 的 文 章
ML2021_ASR_ST-77
[ 50361, 50364, 45376, 22821, 35851, 164, 97, 229, 8083, 121, 29741, 4622, 17238, 238, 17238, 238, 17238, 238, 26410, 50514, 50514, 4184, 24842, 17543, 34386, 1546, 5396, 241, 47027, 46605, 5823, 6236, 25174, 49212, 50704, 50704, 11284, 46605, 5823, 25174, 2412, 16657, 5916, 4511, 15789, 24293, 1546, 35181, 50854, 50854, 7239, 164, 97, 229, 8083, 121, 2855, 19488, 2855, 11103, 36979, 50984, 50984, 16657, 1541, 8990, 35748, 1546, 32502, 9890, 241, 35748, 1546, 8225, 13486, 51234, 51234, 19780, 22821, 42828, 26202, 8990, 17797, 7626, 51314, 51314, 7322, 11518, 239, 28590, 9254, 17198, 116, 8225, 13486, 2289, 51414, 51414, 2855, 5000, 28590, 9254, 17198, 116, 8225, 13486, 2289, 51494, 51494, 2166, 16657, 6236, 8350, 28223, 4622, 51544, 51544, 2166, 5966, 4802, 224, 1546, 28590, 9254, 17198, 116, 8225, 13486, 35851, 16697, 51684, 51684, 2855, 17543, 34386, 36979, 51734, 51734, 5000, 4275, 10907, 1546, 24675, 51794 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>去複述這一段他聽不懂的話<|2.66|><|2.66|>那他不需要從頭去創造這一段文字<|5.66|><|5.66|>他要學的也許是從使用者人的輸入<|9.38|><|9.38|>去copy一些詞彙當作他的輸出<|13.34|><|13.34|>或者是在做摘要的時候<|15.80|><|15.80|>你可能更需要copy這樣子的技能<|18.66|><|18.66|>所謂的摘要就是你要訓練一個模型<|21.14|><|21.14|>然後這個模型去讀一篇文章<|23.50|><|23.50|>然後產生這篇文章的摘要<|25.38|><|25.38|>這個任務完全是有辦法做的<|27.90|><|27.90|>你就是收集大量的文章<|29.66|><|endoftext|>
那 每 一 篇 文 章 都 有 人 寫 的 摘 要 然 後 你 就 訓 練 一 個 sequence-to-sequence 的 model 就 結 束 了 你 要 做 這 樣 的 任 務 只 有 一 點 點 的 資 料 是 做 不 起 來 的 有 的 同 學 收 集 個 幾 萬 篇 文 章 然 後 訓 練 一 個 這 樣 的 sequence-to-sequence model 發 現 結 果 有 點 差 然 後 來 問 我 為 什 麼 這 時 候 我 就 告 訴 你 說 你 要 訓 練 這 種 你 要 叫 機 器 說 合 理 的 句 子 通 常 這 個 百 萬 篇 文 章 是 需 要 的 所 以 如 果 你 有 百 萬 篇 文 章 那 些 文 章 都 有 人 標 的 摘 要
ML2021_ASR_ST-78
[ 50361, 50364, 6734, 164, 97, 229, 3316, 108, 32260, 28427, 5000, 21524, 1960, 29624, 21358, 50497, 50497, 4184, 5000, 1960, 35748, 21068, 19921, 6734, 5935, 113, 37583, 32260, 28427, 17174, 22381, 50647, 50647, 5000, 4275, 21372, 1546, 6404, 40914, 1541, 21068, 22982, 9254, 12444, 4035, 1546, 12290, 116, 14028, 50833, 50833, 6734, 13084, 88, 38515, 6716, 252, 7391, 247, 13118, 11914, 31309, 12290, 116, 7781, 51031, 51031, 31148, 1541, 3581, 10907, 34783, 246, 4275, 20643, 51154, 51154, 2166, 16657, 19002, 35748, 13084, 88, 24842, 1546, 32502, 8225, 51297, 51297, 5966, 4802, 224, 1546, 34783, 246, 4275, 5620, 32085, 5396, 241, 47027, 8990, 41908, 39823, 51421, 51421, 10213, 6287, 41908, 39823, 6734, 7422, 222, 2257, 20878, 229, 17174, 11957, 254, 51539, 51539, 10213, 33299, 8244, 2664, 20878, 229, 17174, 11957, 254, 1546, 34783, 246, 4275, 51633, 51633, 6287, 26443, 39517, 37100, 1541, 2412, 40072, 10907, 1546, 51759, 51759, 2166, 5620, 18681, 26020, 3582, 26748, 1546, 17174, 11957, 254, 51847 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那每一篇文章呢,都有人寫的摘要<|3.44|><|3.44|>然後你就訓練一個sequence to sequence的model就結束了<|7.80|><|7.80|>那你要做這樣的任務,只有一點點的資料是做不起來的啦<|10.80|><|10.80|>有的同學蒐集個幾萬篇文章<|13.80|><|13.80|>然後訓練一個這樣的sequence to sequence的model<|16.40|><|16.40|>發現結果有點差,然後來問我為什麼<|18.40|><|18.40|>這時候我就告訴你說,你要訓練這種<|20.56|><|20.56|>你要叫機器說合理的句子啊<|22.56|><|22.56|>通常這個百萬篇文章是需要的啦<|25.32|><|25.32|>所以如果你有百萬篇文章<|27.32|><|27.32|>那些文章都有人標的摘要<|29.32|><|endoftext|>
那 有 時 候 你 會 把 直 接 把 文 章 標 題 當 作 摘 要 那 這 樣 就 不 需 要 花 太 多 人 力 來 標 你 是 可 以 訓 練 一 個 直 接 可 以 幫 你 讀 一 篇 文 章 就 下 一 個 標 題 做 個 摘 要 的 模 型 但 是 我 們 知 道 說 做 摘 要 的 時 候 有 時 候 很 多 的 詞 彙 你 其 實 就 是 直 接 從 原 來 的 文 章 裡 面 複 製 出 來 的 對 不 對 小 時 候 老 師 叫 我 們 寫 國 文 課 的 課 文 的 那 個 摘 要 的 時 候 其 實 你 也 沒 有 自 己 創 造 詞 彙 對 不 對 你 也 是 從 這 個 課 文 裡 面 找 一 些 句 子 出 來
ML2021_ASR_ST-79
[ 50361, 50364, 4184, 23664, 2257, 20878, 229, 17174, 11957, 254, 6240, 11, 7182, 45820, 4510, 104, 1546, 34783, 246, 4275, 50536, 50536, 10213, 41045, 5396, 241, 47027, 8990, 11834, 655, 281, 8310, 1546, 8014, 338, 3111, 17144, 44320, 2289, 50754, 50754, 4184, 32085, 10907, 39425, 26443, 39517, 11, 35244, 19202, 8216, 1546, 35380, 33404, 1541, 10907, 1960, 21670, 1546, 9724, 50904, 50904, 2412, 1546, 13089, 21372, 42356, 238, 26020, 3338, 23575, 14099, 20878, 229, 17174, 11957, 254, 51054, 51054, 10213, 5396, 241, 47027, 8990, 39425, 11834, 655, 281, 8310, 1546, 8014, 338, 51184, 51184, 38927, 35181, 42440, 21679, 11, 10213, 3763, 11361, 1654, 18987, 51284, 51284, 2664, 14010, 22020, 31080, 42920, 11, 32085, 5396, 241, 47027, 33005, 51392, 51392, 32085, 19855, 17543, 34386, 4622, 14245, 13876, 1546, 34592, 7626, 4905, 51492, 51492, 19550, 11279, 6287, 31906, 14099, 20878, 229, 17174, 11957, 254, 1541, 35748, 1546, 9724, 51630, 51630, 7239, 13119, 43320, 31906, 14099, 20878, 229, 17174, 11957, 254, 51730, 51730, 4184, 13824, 17174, 11957, 254, 7182, 45820, 46299, 1546, 34783, 246, 4275, 51830 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那有時候你會直接把文章標題當作摘要<|2.60|><|2.60|>那這樣就不需要花太多人力來標<|4.80|><|4.80|>是可以訓練一個直接可以幫你讀一篇文章<|8.30|><|8.30|>就下一個標題做個摘要的模型<|10.80|><|10.80|>但是我們知道說做摘要的時候<|12.80|><|12.80|>有時候很多的詞彙<|14.20|><|14.20|>你其實就是直接從原來的文章裡面複製出來的<|18.00|><|18.00|>對不對<|18.60|><|18.60|>小時候老師叫我們寫國文課的課文的摘要的時候<|23.40|><|23.40|>其實你也沒有自己創造詞彙對不對<|25.60|><|25.60|>你就是從這個課文裡面找一些句子出來<|29.40|><|endoftext|>
然 後 把 它 改 寫 一 下 其 實 就 變 成 摘 要 了 所 以 對 摘 要 這 個 任 務 而 言 其 實 從 文 章 裡 面 直 接 複 製 一 些 資 訊 出 來 可 能 是 一 個 很 關 鍵 的 能 力 那 sequence-to-sequence model 有 沒 有 辦 法 做 到 這 件 事 呢 那 簡 單 來 說 就 是 有 那 我 們 就 不 會 細 講 最 早 有 從 輸 入 複 製 東 西 的 能 力 的 模 型 叫 做 pointer network 那 這 個 過 去 上 課 是 有 講 過 的 我 把 錄 影 放 在 這 邊 給 大 家 參 考 好 那 後 來 還 有 一 個 變 形 叫 做 copy network
ML2021_ASR_ST-80
[ 50361, 50364, 4184, 2412, 14010, 2166, 6236, 43297, 16075, 17174, 11957, 254, 46299, 14475, 13118, 11914, 34783, 246, 4275, 50494, 50494, 4184, 8377, 3111, 1960, 35748, 20127, 9455, 6392, 4035, 13486, 3763, 46299, 50604, 50604, 1541, 6723, 5396, 241, 47027, 8990, 43297, 6723, 32187, 2166, 7422, 222, 2257, 20878, 229, 17174, 11957, 254, 50779, 50779, 3111, 4438, 8990, 46299, 14475, 10907, 3338, 34783, 246, 4275, 1546, 41908, 39823, 50904, 50904, 11189, 5884, 7758, 4622, 10907, 34783, 246, 4275, 20643, 51004, 51004, 2412, 14010, 20778, 1546, 6716, 252, 7391, 247, 51074, 51074, 2166, 14139, 5620, 43297, 21068, 19683, 3763, 1546, 17174, 11957, 254, 32399, 164, 97, 229, 8083, 121, 29741, 1546, 51264, 51264, 22550, 51294, 51294, 7322, 14010, 23907, 19855, 5884, 4510, 104, 8053, 17174, 3549, 110, 1546, 3549, 110, 17174, 1546, 34783, 246, 4275, 20643, 51534, 51534, 14139, 2166, 6404, 6963, 17645, 5935, 113, 37583, 6716, 252, 7391, 247, 22550, 51644, 51644, 2166, 5620, 21068, 6287, 3549, 110, 17174, 32399, 25085, 38515, 34592, 7626, 29741, 51834 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>然後把它改寫一下,其實就變成摘要<|2.38|><|2.38|>所以對摘要這個任務而言<|4.28|><|4.28|>其實從文章裡面直接複製一些資訊出來<|7.58|><|7.58|>可能是一個很關鍵的<|9.04|><|9.04|>那Sequence to Sequence Model<|11.00|><|11.00|>有沒有辦法做到這件事呢?<|13.12|><|13.12|>簡單來說就是有,那我們就不會細講<|16.46|><|16.46|>最早有從輸入複製東西的能力的模型<|20.62|><|20.62|>叫做Point Network<|22.16|><|22.16|>這個過去上課是有講過的<|24.00|><|24.00|>我把錄影放在這邊給大家參考<|26.38|><|26.38|>那後來還有一個變形叫做Copy Network<|29.46|><|endoftext|>
那 你 可 以 看 一 下 這 一 篇 copy mechanism in sequence-to-sequence 有 沒 有 問 題 你 看 sequence-to-sequence model 是 怎 麼 做 到 從 輸 入 複 製 東 西 到 輸 出 來 的 好 那 其 實 這 個 sequence-to-sequence model 因 為 你 知 道 機 器 就 是 一 個 黑 盒 子 有 時 候 它 裡 面 學 到 什 麼 東 西 你 實 在 是 搞 不 清 楚 那 有 時 候 它 會 犯 非 常 低 級 的 錯 誤 什 麼 樣 低 級 的 錯 誤 呢 這 邊 就 舉 一 個 真 實 的 低 級 錯 誤 的 例 子
ML2021_ASR_ST-81
[ 50361, 50364, 10213, 42061, 34490, 4510, 104, 8861, 11, 14139, 3111, 26327, 11336, 34783, 246, 4275, 50483, 50483, 7239, 2855, 34783, 246, 4275, 6287, 26443, 39517, 11070, 12009, 50578, 50578, 14139, 21068, 17174, 11957, 254, 32399, 43297, 164, 97, 229, 8083, 121, 38515, 35380, 5396, 232, 29741, 50743, 50743, 16657, 1541, 8990, 4563, 14899, 41668, 113, 1546, 50816, 50816, 4184, 10637, 358, 655, 281, 46859, 655, 17105, 50914, 50914, 28350, 40072, 10907, 4511, 2664, 20485, 6973, 6240, 30, 51020, 51020, 31995, 36979, 5620, 2412, 11, 46714, 3111, 21121, 41588, 11932, 51187, 51187, 8661, 21176, 2412, 21068, 12290, 116, 14028, 164, 97, 229, 8083, 121, 26978, 1546, 8225, 13486, 1546, 41908, 39823, 51395, 51395, 19855, 10907, 18705, 1734, 83, 1902, 51472, 51472, 6287, 36910, 5708, 3549, 110, 1541, 2412, 11932, 8816, 1546, 51564, 51564, 1654, 16075, 9567, 226, 16820, 12744, 3581, 22821, 17798, 6868, 47375, 26504, 51683, 51683, 4184, 5661, 3763, 15569, 8990, 26327, 30900, 19855, 10907, 34, 19680, 12640, 51837 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>那你可以看一下這篇<|1.40|><|1.40|>Copy Mechanism in Sequence-to-Sequence Learning<|4.92|><|4.92|>看看Sequence-to-Sequence Model<|7.08|><|7.08|>是怎麼做到從輸入複製東西到輸出來的<|11.40|><|11.40|>那其實這個Sequence-to-Sequence Model<|14.48|><|14.48|>因為你知道機器就是一個黑盒子<|16.80|><|16.80|>有時候它裡面學到什麼東西<|18.92|><|18.92|>你實在是考不清楚<|20.76|><|20.76|>有時候它會犯非常低級的錯誤<|24.32|><|24.32|>什麼樣低級的錯誤呢<|26.00|><|26.00|>這邊就舉一個真實的低級錯誤的例子<|29.24|><|endoftext|>
這 邊 舉 的 例 子 是 語 音 合 成 那 今 天 語 音 合 成 你 完 全 可 以 就 是 訓 練 一 個 sequence-to-sequence 的 model sequence-to-sequence model 大 家 都 很 熟 transformer 就 是 一 個 例 子 你 就 拿 出 來 然 後 輸 入 是 什 麼 你 就 蒐 集 很 多 的 聲 音 文 字 跟 聲 音 訊 號 的 對 應 關 係 蒐 集 很 多 的 文 字 跟 聲 音 訊 號 對 應 關 係 告 訴 你 的 然 後 接 下 來 告 訴 你 的 sequence-to-sequence model 說 看 到 這 段 中 文 的 句 子 你 就 輸 出 這 段 聲 音 然 後 就 沒 有 然 後 就 硬 train 一 發 就 結 束 了
ML2021_ASR_ST-82
[ 50361, 50364, 4184, 42766, 28324, 2664, 20878, 229, 50434, 50434, 34, 19680, 30175, 1434, 294, 46859, 655, 12, 1353, 12, 10637, 358, 655, 15205, 50610, 50610, 22884, 10637, 358, 655, 12, 1353, 12, 10637, 358, 655, 17105, 50718, 50718, 1541, 11614, 10907, 4511, 21068, 12290, 116, 14028, 164, 97, 229, 8083, 121, 26978, 4511, 12290, 116, 29741, 1546, 50934, 50934, 4184, 14139, 6287, 10637, 358, 655, 12, 1353, 12, 10637, 358, 655, 17105, 51088, 51088, 11471, 28945, 17543, 34386, 5620, 8990, 32141, 5419, 240, 7626, 51204, 51204, 2412, 14010, 11284, 32399, 21372, 4511, 7598, 26978, 51310, 51310, 2166, 10376, 3581, 1541, 26504, 1960, 38433, 51402, 51402, 2412, 14010, 11284, 6236, 35276, 107, 14392, 41377, 35315, 1546, 13133, 3549, 97, 51580, 51580, 7598, 6180, 41377, 35315, 1546, 13133, 3549, 97, 6240, 51664, 51664, 22821, 3111, 42828, 8990, 6303, 10376, 1546, 41377, 35315, 13133, 3549, 97, 1546, 17797, 7626, 51826 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>這邊舉的例子是語音合成<|2.74|><|2.74|>那今天語音合成<|4.00|><|4.00|>你完全可以訓練一個<|6.40|><|6.40|>Sequence to Sequence的模式<|7.80|><|7.80|>Sequence to Sequence的模式大家都很熟嘛<|9.54|><|9.54|>Transformer就是一個例子<|10.64|><|10.64|>你就拿出來<|11.64|><|11.70|>然後輸入是什麼<|12.74|><|12.74|>你就收集很多的<|14.24|><|14.34|>文字跟聲音訊號的對應關係<|16.70|><|16.74|>收集很多的文字跟聲音訊號的對應關係<|19.00|><|19.00|>然後接下來告訴你的<|20.50|><|20.50|>Sequence to Sequence的模式說<|21.84|><|22.00|>看到這段中文的句子<|23.70|><|23.70|>你就輸出這段聲音<|25.34|><|25.34|>然後就沒有然後<|27.04|><|27.04|>就一拳一發就結束了<|28.90|><|endoftext|>
然 後 機 器 就 可 以 學 會 做 語 音 合 成 了 那 像 這 樣 的 方 法 做 出 來 結 果 怎 麼 樣 呢 其 實 還 不 錯 舉 例 來 說 我 叫 機 器 連 說 4 次 發 財 看 看 它 會 怎 麼 講 機 器 輸 出 的 結 果 是 這 樣 子 的 發 財 發 財 發 財 發 財 就 發 現 很 神 奇 我 輸 入 的 發 財 是 明 明 是 同 樣 的 詞 彙 只 是 重 複 4 次 機 器 居 然 自 己 有 一 些 抑 揚 頓 挫 你 說 它 為 什 麼 有 抑 揚 頓 挫 你 再 仔 細 聽 聽 看 發 財 發 財 發 財 發 財
ML2021_ASR_ST-83
[ 50361, 50364, 22821, 42828, 1546, 17797, 7626, 1541, 31348, 18034, 14245, 11336, 50501, 50501, 4184, 12074, 31348, 18034, 14245, 11336, 50564, 50564, 2166, 37100, 6723, 5396, 241, 47027, 8990, 50684, 50684, 10637, 358, 655, 281, 46859, 655, 1546, 41908, 27584, 50754, 50754, 10637, 358, 655, 281, 46859, 655, 1546, 41908, 27584, 46525, 4563, 21805, 253, 20722, 50841, 50841, 33339, 837, 260, 5620, 8990, 17797, 7626, 50896, 50896, 41045, 24351, 29741, 50946, 50949, 10213, 12290, 116, 14028, 35851, 51001, 51001, 41045, 18681, 26020, 20778, 1546, 51076, 51081, 17174, 22381, 9678, 29454, 18034, 5396, 232, 18616, 1546, 2855, 20481, 25802, 51199, 51201, 18681, 26020, 20778, 1546, 17174, 22381, 9678, 29454, 18034, 5396, 232, 18616, 1546, 2855, 20481, 25802, 51314, 51314, 10213, 40012, 31080, 18961, 51389, 51389, 10637, 358, 655, 281, 46859, 655, 1546, 41908, 27584, 4622, 51456, 51464, 18032, 2664, 28427, 5975, 17174, 1546, 34592, 7626, 51549, 51549, 41045, 12290, 116, 7781, 2664, 28427, 29454, 18034, 51631, 51631, 10213, 3111, 6963, 10213, 51716, 51716, 3111, 2257, 6852, 111, 2257, 14637, 3111, 17144, 44320, 2289, 51809 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>然後機器就可以學會做語音合成了<|2.92|><|2.92|>那像這樣的方法做出來的結果怎麼樣呢<|5.32|><|5.32|>其實還不錯<|6.76|><|6.76|>舉例來說呢<|7.68|><|7.68|>我叫機器連說四次發財<|10.32|><|10.32|>看看他會怎麼講<|11.52|><|11.52|>機器輸出的結果是這樣子<|13.60|><|13.60|>發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財發財<|endoftext|>
4 個 發 財 的 聲 音 不 是 一 樣 的 發 財 發 財 發 財 發 財 它 是 有 抑 揚 頓 挫 的 它 怎 麼 學 到 這 件 事 不 知 道 它 自 己 訓 練 出 來 就 是 這 個 樣 子 那 你 讓 它 講 3 次 發 財 發 財 發 財 發 財 也 沒 問 題 那 它 講 2 次 發 財 發 財 發 財 也 沒 問 題 讓 它 講 1 次 發 財 財 財 財 財 發 現 怎 麼 沒 有 唸 發 它 不 發 為 什 麼 就 是 不 知 道 為 什 麼 這 樣 子
ML2021_ASR_ST-84
[ 50361, 50364, 10213, 17543, 34386, 36781, 21372, 6236, 10907, 31348, 18034, 14245, 11336, 2289, 50510, 50510, 4184, 12760, 39425, 9249, 11148, 10907, 29741, 1546, 35181, 34253, 6240, 50630, 50630, 14139, 7824, 30967, 50702, 50702, 42828, 17797, 36979, 6240, 50748, 50748, 1654, 19855, 17543, 34386, 36252, 4622, 19425, 9487, 14637, 11561, 94, 50880, 50880, 22884, 5000, 6236, 11614, 11932, 50940, 50940, 17543, 34386, 12290, 116, 7781, 1546, 35181, 1541, 24842, 51044, 51044, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>四個發財的聲音不是一樣的<|2.00|><|2.00|>發財發財發財發財<|4.00|><|4.00|>他是有異樣頓挫的<|5.32|><|5.32|>他怎麼學到這件事<|6.64|><|6.64|>不知道啊<|7.28|><|7.28|>他自己訓練出來就是這個樣子<|9.12|><|9.12|>那你讓他講三次發財<|10.64|><|10.64|>發財發財發財發財發財發財<|13.24|><|13.24|>也沒問題<|14.08|><|14.08|>讓他講兩次發財<|15.52|><|15.52|>發財發財發財發財發財<|17.64|><|17.64|>也沒問題<|18.60|><|18.60|>讓他講一次發財<|20.04|><|20.04|>發財發財發財發財<|22.92|><|22.92|>發現怎麼沒有念發<|24.96|><|24.96|>他不發啊<|26.00|><|26.00|>為什麼<|26.52|><|26.52|>就是不知道為什麼這樣子<|28.52|><|endoftext|>
就 是 你 這 個 sequence-to-sequence model 有 時 候 train 出 來 就 是 會 產 生 莫 名 其 妙 的 結 果 也 許 在 訓 練 資 料 裡 面 這 種 非 常 短 的 句 子 很 少 所 以 機 器 它 根 本 沒 有 辦 法 處 不 知 道 要 怎 麼 處 理 這 種 非 常 短 的 句 子 你 叫 它 唸 發 財 它 把 發 省 略 掉 只 唸 財 你 居 然 叫 它 唸 4 次 的 發 財 重 複 4 次 沒 問 題 叫 它 只 唸 一 次 居 然 會 有 問 題 就 是 這 麼 的 奇 怪 當 然 其 實 這 個 例 子 並 沒 有 那 麼 常 出 現 就 這 個 用 sequence-to-sequence learn 出 來 tts
ML2021_ASR_ST-85
[ 50361, 50364, 19425, 3338, 14637, 11561, 94, 1546, 29454, 18034, 7296, 22977, 1546, 50464, 50464, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 50564, 50564, 47046, 2412, 6904, 108, 6180, 8313, 241, 8501, 104, 1546, 50630, 50630, 5000, 11614, 21372, 4511, 2664, 20485, 6973, 50696, 50696, 17572, 4905, 50728, 50728, 5000, 17645, 5396, 241, 47027, 29741, 5620, 6287, 6180, 7626, 50820, 50820, 4184, 2166, 21195, 5000, 11932, 10960, 9487, 14637, 11561, 94, 50896, 50896, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 51026, 51026, 6404, 4913, 17197, 51068, 51068, 21195, 5000, 11932, 16313, 9487, 14637, 11561, 94, 51140, 51140, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 51246, 51246, 6404, 4913, 17197, 51294, 51294, 21195, 5000, 11932, 27505, 14637, 11561, 94, 51366, 51366, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 14637, 11561, 94, 51510, 51510, 38927, 11614, 6963, 33679, 14637, 51612, 51612, 5000, 1960, 14637, 4905, 51664, 51664, 18987, 51690, 51690, 5620, 17572, 18987, 24842, 51790 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>就是你的sequence to sequence model<|1.68|><|1.68|>都train出來就是會產生莫名其妙的結果<|4.56|><|4.56|>也許在訓練資料裡面<|6.32|><|6.32|>這種非常短的句子很少<|9.08|><|9.08|>所以機器它根本沒有辦法處理<|11.60|><|11.60|>不知道怎麼處理這種非常短的句子<|13.56|><|13.56|>你叫它念發財<|14.80|><|14.80|>它把發省略掉<|16.04|><|16.04|>只念財<|16.72|><|16.72|>你居然叫它念四次發財重複四次沒問題<|19.40|><|19.40|>叫它只念一次<|20.64|><|20.64|>居然會有問題<|21.88|><|21.88|>就是這麼的奇怪<|23.76|><|23.76|>但其實這個例子並沒有那麼常出現啦<|26.16|><|26.16|>就這個用sequence to sequence<|28.04|><|28.04|>認出來TTS<|28.88|><|endoftext|>
也 沒 有 你 想 像 的 那 麼 差 這 個 要 找 這 種 差 的 例 子 也 是 挺 花 時 間 的 要 花 很 多 時 間 才 找 得 到 這 種 差 的 例 子 但 這 樣 子 的 例 子 是 存 在 的 好 所 以 怎 麼 辦 呢 有 一 個 可 能 的 方 法 是 因 為 我 們 剛 才 發 現 說 機 器 居 然 漏 字 了 輸 入 有 一 些 東 西 它 居 然 沒 有 看 到 我 們 能 不 能 夠 強 迫 它 一 定 要 把 輸 入 的 每 一 個 東 西 通 通 看 過 呢 這 個 是 有 可 能 的 這 招 就 叫 做 guided attention
ML2021_ASR_ST-86
[ 50361, 50364, 5620, 18961, 11834, 655, 281, 8310, 2316, 50448, 50448, 7182, 83, 7146, 29741, 5620, 6236, 33299, 8244, 31127, 104, 15940, 9572, 5648, 247, 1546, 35181, 50592, 50592, 6404, 40914, 3581, 5396, 241, 47027, 35380, 33404, 32399, 50680, 50680, 33005, 14392, 5881, 255, 1546, 34592, 7626, 4563, 15686, 50818, 50818, 7239, 17543, 34386, 11284, 31337, 8802, 6963, 40072, 39289, 13876, 50944, 50944, 17572, 11614, 39289, 13876, 33005, 14392, 5881, 255, 1546, 34592, 7626, 51042, 51042, 2166, 19855, 11284, 33679, 14637, 11561, 94, 51104, 51104, 11284, 16075, 14637, 2862, 223, 6904, 98, 29327, 51166, 51166, 14003, 33679, 11561, 94, 51200, 51200, 2166, 9636, 227, 5823, 19855, 11284, 33679, 19425, 9487, 14637, 11561, 94, 12624, 164, 97, 229, 19425, 9487, 4913, 17197, 51334, 51334, 19855, 11284, 14003, 33679, 27505, 51396, 51396, 9636, 227, 5823, 6236, 2412, 17197, 51458, 51458, 5620, 21269, 1546, 44082, 51552, 51552, 8395, 14139, 6287, 17797, 7626, 35934, 6963, 20504, 11279, 7781, 9581, 9724, 51672, 51672, 3111, 6287, 9254, 11834, 655, 281, 8310, 51766, 51766, 22041, 29741, 51, 7327, 51808 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>也沒有你想像的那麼差<|1.50|><|1.50|>這個要找這種差的例子也是挺花時間的<|4.24|><|4.24|>要花很多時間才找得到這種差的例子<|6.24|><|6.24|>但這樣子的例子是存在的<|8.30|><|8.30|>好,所以怎麼辦呢<|10.14|><|10.14|>有一個可能的方法是<|12.04|><|12.04|>因為我們剛才發現說機器居然漏字了<|15.46|><|15.46|>輸入有一些東西它居然沒有看到<|18.46|><|18.46|>我們能不能夠強迫它<|20.74|><|20.74|>一定要把輸入的每一個東西通通看過呢<|24.40|><|24.40|>這個是有可能的<|25.60|><|25.60|>這招就叫做Edit Attention<|28.50|><|endoftext|>
那 像 這 種 guiding 的 任 務 都 用 得 上 我 覺 得 它 最 適 合 的 是 像 這 種 語 音 辨 識 語 音 合 成 這 種 任 務 因 為 像 語 音 辨 識 這 種 任 務 你 其 實 很 難 接 受 說 你 講 一 句 話 今 天 辨 識 出 來 居 然 有 一 段 機 器 沒 聽 到 或 語 音 合 成 你 輸 入 一 段 文 字 語 音 合 出 來 居 然 有 一 段 沒 有 唸 到 這 個 人 很 難 接 受 那 如 果 是 其 它 應 用 比 如 說 chatbot 或 者 是 summary 可 能 就 沒 有 那 麼 嚴 格 因 為 對 一 個 chatbot 來 說 輸 入 後 一 句 話 它 就 回 一 句 話
ML2021_ASR_ST-87
[ 50361, 50364, 6404, 6963, 38386, 12760, 1546, 20504, 21679, 50439, 50439, 6287, 4275, 25085, 33005, 21679, 1546, 17797, 7626, 22021, 41046, 20127, 20788, 1546, 50576, 50576, 4275, 20127, 20778, 20788, 18888, 25085, 5916, 4511, 33005, 21679, 1546, 17797, 7626, 50676, 50676, 8395, 24842, 1546, 17797, 7626, 1541, 39781, 3581, 1546, 50779, 50779, 2131, 11, 7239, 42511, 6240, 50871, 50871, 2412, 8990, 16657, 1546, 9249, 11148, 1541, 50966, 50966, 11471, 5884, 16940, 18888, 38927, 4622, 17543, 34386, 9636, 227, 5823, 14065, 237, 22381, 2289, 51137, 51137, 12290, 116, 14028, 32241, 13824, 26978, 11284, 9636, 227, 5823, 6963, 18032, 51287, 51287, 5884, 8225, 28590, 31649, 22752, 3316, 104, 11284, 51401, 51401, 48161, 16075, 12290, 116, 14028, 1546, 23664, 8990, 26978, 19550, 19550, 4200, 8816, 6240, 51584, 51584, 41427, 2412, 16657, 1546, 51644, 51644, 2664, 6852, 249, 3111, 19855, 10907, 36, 17975, 31858, 51789 ]
<|startoftranscript|><|zh|><|transcribe|><|0.00|>像這種該點的任務都用得上<|2.92|><|2.92|>我覺得它最適合的是像這種語音辨識、語音合成這種任務<|8.28|><|8.28|>因為像語音辨識這種任務<|10.96|><|10.96|>你其實很難接受說<|11.92|><|11.92|>你講一句話今天辨識出來<|14.32|><|14.32|>居然有一段機器沒聽到<|15.96|><|15.96|>或語音合成你輸入一段文字<|17.64|><|17.64|>語音合出來居然有一段沒有念到<|19.44|><|19.44|>這個人很難接受<|20.72|><|20.72|>那如果是其他應用<|21.68|><|21.68|>比如說checkbox或者是summary<|24.28|><|24.28|>可能就沒有那麼嚴格<|25.84|><|25.84|>因為對一個checkbox來說<|27.56|><|27.56|>你輸入一句話他就回一句話<|29.00|><|endoftext|>
Downloads last month
61