10월, 2019의 게시물 표시

Lecture 2 "Supervised Learning Setup Continued" -Cornell CS4780 SP17

이미지
Lecture 2 "Supervised Learning Setup Continued" by Cornell CS4780, Machine Learning for Decision Making SP17 * 부족한 영어 실력으로 잘못된 해석이 있을 수 있습니다. 수정이 필요한 부분이 있다면 알려주시면 감사하겠습니다. 개요 Supervised Learning Setup ( continue ) Train and Test H ( hypothesis class ) and Algorithm TA ( Terrible Algorithm ) Cases Loss Function Generalization 1. Supervised Learning Setup ( continue ) (x៷,y៷) ~ P 우리는 P(y|x)를 모르며, 그래서 ML을 통해 알고자 하는 것입니다. 동일 분포를 가지는 환경에서 수행이 되어야 한다고 강조하고 있습니다. (  IID  참고 ) 노키아 사례를 통해 "동일 분포" 구성이 얼마나 중요한지 알수 있습니다. 사진 촬영시 얼굴인식을 통한 부가기능을 제공함. 얼굴 인식시 사용한 데이터가 "백인"이 아니였음. 미국 유저들에게서 "얼굴인식"이 잘 되지 않는 문제 발생. Example : Facial Recognize in Image 각 pixel 은 RGB( Red / Green / Blue ) 의 데이터로 구성됨 1장의 Image는 화소에 따라, 6M 개의 pixel 을 가짐 1장의 Image를 x = { ... } 로 표현한다면, 6M * 3 (RGB) = 18M 의 실수형 데이터 조합으로 표현가능 Dense / Sparse Dense : 전체 공간에 데이터가 빽빽하게 차 있는 경우 ( 극히 일부 데이터가 0 ) Sparse : 전체 공간에 비해 데이터가 희소한 경우 ( 대부분의 데이터가 0 ) ...

Lecture 1 "Supervised Learning Setup" -Cornell CS4780 Machine Learning for Decision Making SP17

이미지
Lecture #1 - Supervised Learning Setup by Cornell CS4780 , Machine Learning for Decision Making SP17 * 부족한 영어 실력으로 잘못된 해석이 있을 수 있습니다. 수정이 필요한 부분이 있다면 알려주시면 감사하겠습니다. 개요 Machine Learning 이란? Machine Learning 의 역사 Machine Learning 의 타입 및 사례 Supervised Learning 구조 1. ML(Machine Learning) 이란? CS(Computer Science) 와 ML(Machine Learning) 의 차이점을 통해서 이해를 해보도록 하겠습니다.   CS의 경우, Program을 Logic을 이용해서 사람이 만드는 구조하고 한다면, ML의 경우, Input에 활용되는 Data에 의해 Program이 생성되는 구조입니다. 하여 Data이 양과 질에 의해서 Program의 품질도 개선이 될수 있습니다. 2. ML(Machine Learning)의 역사 1952년 Samuel's Checker player MiniMax Algorithm ( Traditional AI ) 1957년 Perceptron ( Frank Rosenblatt @ Cornell ) Multiple Layer Perceptron = Artificial Neural Networks = Deep Learning AI Winter 1969년 Minskey & Papert "killed" AI AI 버블 붕괴 -> AI Research 와 관련한 자금투자 붕괴 Rebirth as ML  ML : Bottom up / AI : Top Down ML : More practical smaller goals Based on Statistics and Optimization...