Deep Learning

Paper Review: ViLBERT: Pretraining Task-Agnostic VisiolinguisticRepresentations for Vision-and-Language Tasks

해시브라우니 2024. 1. 21. 06:19

ViLBERT에 대해 논문을 읽고 제가 이해한 대로 정리하여 PPT로 만들어보았습니다.

Transformer 구조는 언제보아도 흥미롭네요. 어떻게 저런걸 생각해냈을지..

 

잘못된 내용이 존재할 수 있습니다! BERT의 구조를 다시한번 생각해보느라 이해하는데 꽤 시간이 걸렸던 것 같네요.