윤영준 윤영준 2023-06-22
theorizing train code for GAN
@163a5d0c9f1b183de6741f876af71f99a4de32dd
 
batchmix.png (Binary) (added)
+++ batchmix.png
Binary file is not shown
model/AttentiveRNN.py
--- model/AttentiveRNN.py
+++ model/AttentiveRNN.py
@@ -52,7 +52,6 @@
                 self.conv_hidden.append(
                     self.conv2
                 )
-        self.leakyrelu = nn.LeakyReLU
         self.blocks = blocks
         self.layers = layers
 
@@ -62,7 +61,7 @@
         for i, hidden_layer in enumerate(self.conv_hidden):
             x = hidden_layer(x)
             if (i % self.layers == 0) & (i != 0):
-                x = self.leakyrelu(x)
+                x = F.leaky_relu(x)
                 x = x + shortcut
         return x
 
train.py
--- train.py
+++ train.py
@@ -10,6 +10,8 @@
 ## 대충 열심히 GAN 구성하는 코드
 ## 대충 그래서 weight export해서 inference용과 training용으로 나누는 코드
 ## 대충 그래서 inference용은 attention map까지 하는 녀석과 deraining까지 하는 녀석 두개가 나오는 코드
-## 학습용은 그래서 풀 weight
+## 학습용은 그래서 풀 weight 나옴
+## GAN은 학습 시키면 Nash equilibrium 나오는데 이거 ... 이번 프로그램에서는 문제가 안될려나?
+##
 ## 대충 학습은 어떻게 돌려야 되지 하는 코드
 ## generator에서 튀어 나온 애들을 따로 저장해야 하는건가
Add a comment
List