DL_general (10) 썸네일형 리스트형 SeMask abstract encoder의 backbone 쪽을 finetuining하는 것은 semantic segmentation task에서 흔한 접근 방법인데, 이러한 방법은 encoding stage에서 image가 제공하는 semantic context가 없어진다는 단점이 있다 그러므로 본 논문에서는 finetuning을 할 때 hierarchical transformer-based backbone에 이미지의 semantic한 정보를 포함하는 것이 성능을 올린다고 주장할 것이다. 또한 lightweight semantic decoder를 사용하였다.. ‘we use a lightweight semantic decoder during training to provide supervision to the i.. attention과 self attention attention 이전 - seq2seq 문제점 1. 하나의 고정된 크기의 벡터에 모든 정보를 압축하려고 하니까 정보 손실이 발생 2. 기울기 소실 문제 존재 -> 입력 문장이 길면 품질이 떨어지는 현상으로 나타남 attention의 motive 입력 sequence가 길어져도 출력 sequence의 정확도가 떨어지는 것을 보정해주자 attention의 아이디어 디코더에서 출력 단어를 예측하는 매 시점마다 인코더의 입력 시퀀스를 다시 참고한다. 이 때, 입력 시퀀스를 동일한 비중으로 참고하는 것이 아닌, 예측 단어와 관련이 있는 입력 단어를 더욱 치중해서 본다. attention 함수 Attention(Q, K, V) = Attention value Q = Query, K = Key, V = Value .. 이전 1 2 다음