728x90
Boostcamp AI Tech
141

[실험 일지 Day-69] P Stage - OCR

annotation 작업 결과물을 다운로드 받았는데 annotation.json 파일이 비어있음 -> 다시 다운로드 받으니 정상적으로 있음 구글 드라이브를 보니 dataset_revised 라는 파일이 올라와 있음 -> illegibillity 정보를 추가하여 다시 올린 파일이라고 함 각 팀원끼리 데이터를 나누어서 검수를 진행 json파일을 보니 points가 3개미만이거나 홀수인 경우가 생김 -> 3개 미만일 경우 삭제하고 4개 초과이고 홀수 인 경우에는 illegibillity=True로 변경하는 것이 좋을 것 같음 데이터를 검수하여 labeling이 잘된 data와 검수하기 전의 data 등 다양한 dataset으로 학습을 진행 전체적인 EDA를 진행 autocad를 사용해서 annotation t..

Boostcamp AI Tech 2021.11.22

[실험 일지 Day-68] P Stage - OCR

오늘 눈바디 대회 제출을 한 번 해봐야겠다. -> efficient_unit(d3) 제출함 오늘부터 글자 검출 대회 시작인데 강의를 너무 대충 본 것 같아 다시 한 번 제대로 봐야겠다. -> 진행하는데 있어서 근본적인 부분부터 해결해야하는데 빠져서 그런지 이것저것 할게 많아져서 그런지 빠르게 결과를 얻으려고 한거 같다. -> 다시 처음부터 생각해보자. 기존 json 파일이 있는데 annotation 작업 결과물에 있는 annotation.json은 뭐지... -> 기존 json 파일에 추가하는 거겠군...

Boostcamp AI Tech 2021.11.22

[Boostcamp 15주차] 피어세션과 학습 회고 & 실험일지

Day - 65 피어세션 1. 대회관련 정보 공유 (눈바디, 의료데이터톤) 2. 강의관련 질문 공유 학습회고 데이터 작업이 왜 중요한지, OCR관련 기술과 서비스로는 어떠한 것들이 있는지를 강의를 통해 알게되었다. 그리고 Software 1.0과 Software 2.0으로 나누어진다는 개념 또한 새롭게 알게되었다. Day - 66 피어세션 1. 의료데이터톤에 참여하기위한 지원서를 작성 2. TMI 시간을 가짐 3. 강의관련 질문 공유 학습회고 글자 검출 대회에서 사용하는 EAST 모델의 구조를 이해하게 되었다. EAST 모델의 구조는 UNet과 비슷한 모양을 가지며 score map과 geometry map을 출력하여 loss를 계산하는 것을 알게되었다. 또한 후처리로는 NMS와는 다른 LANMS를 사용..

Boostcamp AI Tech 2021.11.12

[Boostcamp Day-65] 데이터 제작의 중요성

Software 1.0 문제 정의 큰 문제를 작은 문제들의 집합으로 분해 개별 문제 별로 알고리즘 설계 솔루션들을 합쳐 하나의 시스템으로 TCP/IP Stack : Internet, Android Stack : Smartphone 과 같은 많은 곳에서 큰 성과를 이룸 이미지 인식 기술도 처음에는 Software 1.0 철학으로 개발됨 Software 2.0 Software 1.0의 경우 사람 수와 시간의 제약으로 복잡한 프로그램은 개발하기 어려움(어떤 연산을 할지 사람이 개입하여 정함) Software 2.0은 뉴럴넷의 구조에의해 검색 영역이 정해짐 최적화를 통해 사람이 정한 목적에 제일 부합하는 연산의 집합을 찾음 이때 경로와 목적지는 데이터와 최적화 방법에 의해서 정해짐 구조를 설계하는 데에는 사람의..

Boostcamp AI Tech 2021.11.12

[Boostcamp Day-66] EAST

일반 객체 영역 검출 vs 글자 영역 검출 일반 객체 검출 : 클래스와 위치를 예측 글자 검출 : "Text"라는 단일 클래스 위치만 예측 객체의 특징 매우 높은 밀도 극단적 종횡비 특이 모양 : 구겨진 영역, 휘어진 영역, 세로 쓰기 영역, 모호한 객체 영역, 크기 편차 사각형 종류 직사각형 : (x1, y1, width, height), (x1, y1, x2, y2) 직사각형 + 각도 : (x1, y1, width, height, $\theta$), (x1, y1, x2, y2, $\theta$) 사각형 : (x1, y1, ... , x4, y4) 다각형 Arbitrary-shaped text를 주로 다루는 최근의 벤치마크들에 적합 일반적으로 2N points를 이용하고, 상하 점들이 쌍을 이루도록 ..

Boostcamp AI Tech 2021.11.12

[Boostcamp Day-67] 성능 평가 기준

데이터셋 제작 파이프라인 서비스 요구사항 -> 제작 목적 설정 -> 가이드라인 제작 -> Raw Image 수집 -> 어노테이션(라벨링) -> 모델링 -> 성능 평가/분석 성능 평가/분석 -> 제작 목적 설정 (반복) 가이드 라인 제작 과정 가이드 작성 -> 가이드 교육 -> 라벨링 -> 라벨링 검수 -> 데이터 검수 Recall, Precision Precision (정밀도) : 예측한 값들이 정답일 확률 Recall (재현도) : 실제 값들 중 예측한 값이 정답일 확률 Area Recall / Area Precision Area Recall : 예측 영역과 실제 영역의 교집합을 실제 영역으로 나눔 Area Precision : 예측 영역과 살제 영역의 교집합을 예측 영역으로 나눔 One-to-One ..

Boostcamp AI Tech 2021.11.12

[실험 일지 Day-62] Pstages - Semantic Segmentation

Swin-L(upernet)에서 crop size 384, RMI Loss 적용, backbone dropout 0.2 -> 0.3으로 적용 후 학습 -> 낮지않은 성능을 보여주긴하지만 RMI Loss 때문인지 lr을 더 낮게해서 그런건지 학습이 느린 것 같음 -> 시간이 없어서 제출하지 못함 앙상블을 할 때 대부분 모델에서 일반 쓰레기를 예측하지못하는 문제가 발생하여 가장 잘 보는 모델이 일반 쓰레기를 예측했다면 무조건 일반 쓰레기로 보도록 함 -> 점수가 미약하게나마 상승

Boostcamp AI Tech 2021.11.06

[실험 일지 Day-61] Pstages - Semantic Segmentation

dropout 적용 비율을 줄여서 실험해보면 좋을 것 같음 -> val set의 miou는 높지만 test set에서 낮게 나오는 것을 보아 오버피팅이 발생하는 것 같음 swin-L(upernet)에서 crop size 512로 img_scale을 512, 2048로 변경한 후 80k를 돌린 결과가 좋지 않음 -> pretrain이 384 size로 학습되었기때문에 crop size를 384로 변경하여 학습 -> 다른 팀원이 384로 수정했을때 좋은 결과를 얻음

Boostcamp AI Tech 2021.11.06

[실험 일지 Day-60] Pstages - Semantic Segmentation

logit stacking ensemble을 시도 -> 세 개의 모델을 stacking한 33x512x512에 conv2d(33, 11, kernel=1)을 통과하여 11x512x512를 출력하는 방법을 사용 -> background의 픽셀이 0으로 안나오거나 결과값을 시각화했을때 서로 겹치는 형상이 나오면서 잘 안됨 -> 포기 undesirable zero deactivation에서 아이디어를 얻어 feature map에서 중요하지 않는 값(0~2 정도?)을 0으로 바꾸고 학습하는 방법을 적용&실험했으면 좋겠음

Boostcamp AI Tech 2021.11.06
728x90