+++ batchmix.png
Binary file is not shown |
--- model/AttentiveRNN.py
+++ model/AttentiveRNN.py
... | ... | @@ -52,7 +52,6 @@ |
52 | 52 |
self.conv_hidden.append( |
53 | 53 |
self.conv2 |
54 | 54 |
) |
55 |
- self.leakyrelu = nn.LeakyReLU |
|
56 | 55 |
self.blocks = blocks |
57 | 56 |
self.layers = layers |
58 | 57 |
|
... | ... | @@ -62,7 +61,7 @@ |
62 | 61 |
for i, hidden_layer in enumerate(self.conv_hidden): |
63 | 62 |
x = hidden_layer(x) |
64 | 63 |
if (i % self.layers == 0) & (i != 0): |
65 |
- x = self.leakyrelu(x) |
|
64 |
+ x = F.leaky_relu(x) |
|
66 | 65 |
x = x + shortcut |
67 | 66 |
return x |
68 | 67 |
|
--- train.py
+++ train.py
... | ... | @@ -10,6 +10,8 @@ |
10 | 10 |
## 대충 열심히 GAN 구성하는 코드 |
11 | 11 |
## 대충 그래서 weight export해서 inference용과 training용으로 나누는 코드 |
12 | 12 |
## 대충 그래서 inference용은 attention map까지 하는 녀석과 deraining까지 하는 녀석 두개가 나오는 코드 |
13 |
-## 학습용은 그래서 풀 weight |
|
13 |
+## 학습용은 그래서 풀 weight 나옴 |
|
14 |
+## GAN은 학습 시키면 Nash equilibrium 나오는데 이거 ... 이번 프로그램에서는 문제가 안될려나? |
|
15 |
+## |
|
14 | 16 |
## 대충 학습은 어떻게 돌려야 되지 하는 코드 |
15 | 17 |
## generator에서 튀어 나온 애들을 따로 저장해야 하는건가 |
Add a comment
Delete comment
Once you delete this comment, you won't be able to recover it. Are you sure you want to delete this comment?