어쩌면 일지
AI를 전공했다면 꼭 읽어봐야 할 논문 5개 추천 본문
728x90
1. "Generative Adversarial Networks" - Ian J. Goodfellow 등, 2014년
이 논문은 생성적 적대 신경망(GAN)을 소개하며, 이미지 생성 및 변환 분야에서 혁신적인 결과를 이끌어냈습니다.
2. "Attention Is All You Need" - Vaswani 등, 2017년
이 논문은 트랜스포머(Transformer) 모델을 제안하며, 자연어 처리 분야에서 성능 향상과 모델의 간결성을 이루어낸 기획적인 연구입니다.
3. "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding" - Devlin 등, 2018년
이 논문은 양방향 전이 학습 모델인 BERT를 제안하였으며, 자연어 이해와 관련된 다양한 NLP 태스크에서 상위 성능을 보여주는 중요한 연구입니다.
4. "Deep Residual Learning for Image Recognition" - He 등, 2015년
이 논문은 잔차 학습을 활용한 딥러닝 모델인 ResNet을 제안하였으며, 이미지 인식 분야에서 기존 모델들을 뛰어넘는 성능을 보여주었습니다.
5. "A Few-shot Adversarial Learning of Realistic Neural Talking Head Models" - Zakharov 등, 2019년
이 논문은 몇 가지 샘플만을 이용하여 현실적인 헤드 모델을 생성하는 흥미로운 연구입니다.
+참고)
- "Gradient-Based Learning Applied to Document Recognition" (LeCun et al., 1998) - CNN의 기초가 된 LeNet을 소개한 논문
- "ImageNet Classification with Deep Convolutional Neural Networks" (Krizhevsky et al., 2012) - 딥러닝 혁명의 시작점이 된 AlexNet 논문
'[AI,코딩]' 카테고리의 다른 글
머신러닝 vs. 딥러닝 차이점과 응용분야 (0) | 2023.05.25 |
---|---|
네트워크를 전공했다면 꼭 읽어봐야 할 논문 5가지 추천 (0) | 2023.05.24 |
컴퓨터 보안을 전공했다면 꼭 읽어봐야 할 논문 5가지 추천 (0) | 2023.05.24 |
당신이 컴퓨터에 대해 몰랐던 8가지 놀라운 사실 (0) | 2023.05.17 |
ChatGPT와 유사한 AI 추천: Chatbot API와 Transformer 모델 (0) | 2023.05.16 |
Comments