HANA : Have A Nice AI

모두를 위한, 하나를 위한 AI

전체 글 40

[논문요약] 딥러닝 관련 추천 모델 - Survey(2019)

*크롬으로 보시는 걸 추천드립니다* https://arxiv.org/pdf/1707.07435.pdf딥러닝을 적용한 추천 모델들을 전반적으로 소개하는 논문입니다.본 논문은 개인적으로 다음과 같은    1. 딥러닝을 적용한 추천 모델들의 맥락을 잡아주는 논문   2. 2019년 이후부터 현재까지 얼마나 딥러닝을 적용한 추천 모델이 발전했는지 보는 재미가 있는 논문 의미가 있었습니다. 추천 시스템에서의 딥러닝 모델추천 시스템이란?https://kmhana.tistory.com/30?category=882777  추천 시스템(Recommendation System) 시작*크롬으로 보시는 걸 추천드립니다* 사람들이 "AI(인공지능)"하면 떠오르는 것이 무엇이 있을까요 얼굴인식이나 파파고와 같은 기계 번역기, 알..

향후 계획

앞으로 정리를 목표로 하고 있는 논문이나 방법론들을 정리하고자 합니다 실용적인 AI - Noisy Student : https://kmhana.tistory.com/33?category=838049 - Meta Pseudo Label : https://kmhana.tistory.com/33?category=838049 [논문요약] Meta Pseudo Labels(2021) *크롬으로 보시는 걸 추천드립니다* https://arxiv.org/pdf/2003.10580v4.pdf 종합 : ⭐⭐⭐⭐ 1. 논문 중요도 : 5 점 2. 실용성 : 4 점 설명 : Semi-supervised Learning으로도 엄청난 성능을 기록한 훌륭한 방법.. kmhana.tistory.com - Out-of-Distrib..

I AM 2022.01.01

[논문요약] Semi-superviesd의 정수 - Meta Pseudo Labels(2021)

*크롬으로 보시는 걸 추천드립니다* https://arxiv.org/pdf/2003.10580v4.pdf종합 : ⭐⭐⭐⭐1. 논문 중요도 : 5 점2. 실용성 : 4 점설명 :  Semi-supervised Learning으로도 엄청난 성능을 기록한 훌륭한 방법론   - 학생을 가르치는 선생과, 그 선생님을 발전시키는 학생   - Semi-Supervised Learning의 가능성을 여김 없이 보여준 논문   - 엄청난 모델 크기를 자랑하고 있는 Transformer 계열 모델 사이에서, 상대적으로 매우 작은 모델로 고성능 기록!    - Noisy Student 논문을 함께 읽은 효과는 보너스 ( * 개인적인 의견이며, 제 리뷰를 보시는 분들에 도움드리기 위한 참고 정도로 봐주세요) 2020년 처음 ..

I AM

º 안녕하세요! "모든 사람에게 좋은 AI 모델을 만들겠다!"를 목표로 가지고 있는  Have A Nice AI : HANA 블로그 운영자. 이규민입니다잘 부탁드립니다! 딥러닝을 공부하면서 많은 블로그의 도움을 받았습니다.그래서 저 또한, 저의 글이저처럼 딥러닝과 머신러닝 등을 공부하고 계신 분들께 도움이 되었으면 좋겠네요! KYUMIN LEE저는 Data ScientistAI 전문가라는 이름의 직업을 가지고 있습니다 Education & Wor Experience   ○ KOREA. UNIV. 석사 (2018 ~ 2019)  ○ LG CNS : AI Engineer (2019 ~ 2021)     - 이미지 및 텍스트 AI 모델 개발     - 응용 AI 분야의 모델 개발  ○ KAKAO : Data ..

I AM 2021.12.31

추천 시스템 기본 - 협업 필터링(Collaborative Filtering) - ②

*크롬으로 보시는 걸 추천드립니다* 대표적 추천 시스템인 협업 필터링(Collaborative Filtering) 중 Memory-Based Approach에 대해서 다루어보았습니다 https://kmhana.tistory.com/31?category=882777 Have A Nice AI kmhana.tistory.com 지금 Part2 에서는 • 협업 필터링(Collaborative Filtiering)의 대표 접근법 Model-Based을 알아볼 예정입니다 - Matrix Factorization(행렬 분해) - Neural Network(신경망)의 간단한 소개 • 협업 필터링(Collaborative Filtiering)의 한계 • 그 밖의 방법론 소개 (* 언제든지 부족한 부분 알려주시면 반영하..

추천 시스템 기본 - 협업 필터링(Collaborative Filtering) - ①

*크롬으로 보시는 걸 추천드립니다* 우리 일상생활에 녹아있는 "인공지능(AI)"에는 추천 시스템이 있다는 것을 소개해 드렸습니다 https://kmhana.tistory.com/30 Have A Nice AI kmhana.tistory.com 이제 부터는 조금 더 알고리즘 측면에서, 추천이 이루어지고 있는지 차근차근 뜯어 보겠습니다 가장 추천 알고리즘의 기본은 1) 협업 필터링(Collaborative Filtering) • Memory Based Approach - User-based Filtering - Item-based Filtering • Model Based Approach - 행렬 분해(Matrix Factorization) 2) 콘텐츠 필터링(Contents-Based Filtering) ..

추천 시스템(Recommendation System) 시작

*크롬으로 보시는 걸 추천드립니다* 사람들이 "AI(인공지능)"하면 떠오르는 것이 무엇이 있을까요 얼굴인식이나 파파고와 같은 기계 번역기, 알파고 같은 게 있을 겁니다 하지만, "AI(인공지능)"이 우리 일상생활에서 가장 잘 녹아있는 분야는 "추천(Recommendation)"일 것입니다 추천 시스템은 우리 주변에서 어떤 영화를 볼지(넷플릭스)나 어떤 동영상을 볼지(유튜브), 무엇을 살지(Amazon) 등을 추천해주고 있습니다! 이러한 추천 시스템은 우리의 패턴과 행동 파악하여, 무엇을 앞으로 더 좋아할지 예측합니다 https://medium.com/@springboard_ind/how-netflixs-recommendation-engine-works-bd1ee381bf81 How Netflix’s Re..

[논문요약] Transformer 등장 - Attention Is All You Need(2017) ②

Transformer 설명 중 두 번째와 세 번째 파트 1. Transformer 구조 2. Position Encoding 3. 학습 방법 및 결과 "Position Encoding"와 "학습 방법 및 결과"에 대해서 소개해 드립니다! Transformer 의 구조에 대한 설명은 https://kmhana.tistory.com/28 Have A Nice AI kmhana.tistory.com 에서 요약해 두었습니다! https://jalammar.github.io/illustrated-transformer/ The Illustrated Transformer Discussions: Hacker News (65 points, 4 comments), Reddit r/MachineLearning (29 poi..

[논문요약] Transformer 등장 - Attention Is All You Need(2017) ①

*크롬으로 보시는 걸 추천드립니다* https://arxiv.org/pdf/1706.03762.pdf 종합 : ⭐⭐⭐⭐⭐ 1. 논문 중요도 : 평가 불가 2. 실용성 : 평가 불가 설명 : 게임 체인저(Game Changer), Transformer 구조의 제안으로 Text 분야를 천하통일! - Transformer를 제안한 매우 중요한 논문 - Text 분야를 압도적으로 발전시킴 - BERT 등 최신 Text 모델에서 기본적으로 사용하는 구조 - 심지어, 이제는 Image 분야에서도 SOTA를 찍고 있다 ( * 개인적인 의견이며, 제 리뷰를 보시는 분들에 도움드리기 위한 참고 정도로 봐주세요) "언젠간 Transformer를 다루어야지" 미루다가 드디어 정리하게 되었습니다 "Attention Is Al..

[논문요약] Vision분야에서 드디어 Transformer가 등장 - ViT : Vision Transformer(2020)

*크롬으로 보시는 걸 추천드립니다* https://arxiv.org/pdf/2010.11929.pdf 종합 : ⭐⭐⭐⭐ 1. 논문 중요도 : 5점 2. 실용성 : 4점 설명 : 게임 체인저(Game Changer), Convolutional Network구조였던 시각 문제를 Transformer구조로 대체 - Transformer구조를 사용한 Architecture가 수 많은 SOTA를 찍고 있으며, ViT논문이 그 시작점 - 더 많은 데이터를 더 적은 Cost로, 사전 학습 - Image Classification의 판도를 바꾼 논문으로 매우 중요한 논문 - 대용량의 학습 자원과 데이터가 필요.. 개인이 사전 학습하기엔 쉽지 않음 ( * 개인적인 의견이며, 제 리뷰를 보시는 분들에 도움드리기 위한 참고..