Beit-L을 시도해봤지만 pretrain model weight를 잘 못불러와서 그런건지 학습 속도가 느림(architecture의 이해가 어려웠음) -> 느리지만 miou가 꾸준히 높아지기 때문에 일단 지켜봄 -> 20k 까지 지켜보았을때 학습이 안된다고 판단 Swin-L의 img_scale을 512, 2048로 변경하고 lr은 1/10, warmup_ratio는 1/100만큼 줄이고 다시 돌림 -> loss는 이전보다 높았지만 성능은 좋게 나오는 것 같음