zi2zi-pytorch 已經使用 nn.ReLU(True) 訓練的資料, 要怎麼轉成 nn.LeakyReLU(0.2, True)? 2025-02-07 將已使用 nn.ReLU(True) 訓練的模型…
zi2zi-pytorch 中 ReLU(Rectified Linear Unit)和 LeakyReLU(Leaky Rectified Linear Unit)差異 2025-02-07 在 zi2zi-pytorch 的 UnetSk…
zi2zi-pytorch initial learning rate=0.001, learning rate 的高與低, 對字型生成與訓練有什麼影響, 應該使用更高的 learning rate 還是更低的? 2025-02-07 在 zi2zi-pytorch 中,初始學習率 …
zi2zi-pytorch 的 UNetGenerator 中,加入 Self-Attention layer, 應該每一個 layer 之後都加, 還是全部 8個 layer 之中的一個增加即可? 2025-02-07 在 UNetGenerator 中加入 Self…
UNetGenerator 中, 沒有加入 self-attention 層的訓練結果, 可以轉移到有 self-attention 層的訓練模型當中嗎? 2025-02-07 在 UNetGenerator 中,沒有加入 s…
UNetGenerator 中, 應該加入 self-attention 層或是 channel attention 層, 還是2個都加入比較好? 2025-02-06 在 UNetGenerator 中,self-a…