728x90
반응형

2023/2023-1 17

[5월 18일(목)] 인공지능 입문(이론) - Build CNN, Avoid Overfitting

H : 150, W : 150 H : 150, W : 150, cn : 3, cw: 3, S : 1 (150 - 3) / 1 + 1 = 148로 32개의 겹겹 -> 148 x 148 x 32 : 1단계 MaxPooling(2, 2) -> 74 x 74 형태로 계속해서 하다가 마지막 layers.Dense는 1, binary Data(고양이, 개) 이므로 MNIST는 10이었음 2번째 conv할 때는 (3, 3)적용 -> (74 - 3) / 1 + 1 = 72가 됨 64개의 Filter였으므로 (3x3x32+1)x64 이거 꼭 해봐야함 dense layer(512) 계산하면 Parameter 값은 3211776 train data set은 200개 optimizer : 파라미터 찾는 것 loss는 bina..

2023/2023-1 2023.05.18

[캡스톤 디자인] 5월 10일

[오늘 한 일, 해본 일 - 문제점 발생] Gateway - {User Service, Delivery Service 연동} Gateway [applicatio.yml] 파일에서 설정 or 코드 나는 전자 선택 Spring Config Server 배포 RDS - Config File 연동 시도 (local) Config Server → Github Repository Config File 참조하여 Token 정보 반환 및 Database 접속 [문제점 발생] Local User Service → Local Config Server → Github Config Repo 접근 성공 및 데이터 반환 성공 배포된 환경에서는 실패 뭐가 문제일까 회원가입 요청하면 response 데이터와 200코드 반환 받는 ..

2023/2023-1 2023.05.10

[5월 4일(목)] 인공지능 입문(이론) - CNN & ComputerVision

기존 Vision 모델 왼쪽과 오른쪽 조금의 차이로 2칸이 더 늘어났지만 엄청난 차이를 불러일으킴 엄청난 차이는 곧 오류로 직결돼서 문제점 발생 위와 같은 문제점을 해결하고자 CNN이 개발되었음 파라미터 수가 적어져 훨씬 효율적 전체가 아닌 일부만 보고, Layer가 쌓여가면서 전체적인 영역을 볼 수 있다. 위 설명만 읽어주셨음 따로 필기 x

2023/2023-1 2023.05.04

[5월 4일(목) : 과제] 인공지능 입문(이론) - Neural Network (2)

[과제 : 5월 15일 밤 10시까지 제출] Chatgpt 사용 Screenshot + 개인 의견 AI의 윤리적 의식 (개인 의견) - 1 page 위 2가지 엮어서 리포트 형식으로 제출 5월 16일 실습시간에 3분 동안 발표. 발표 자료는 슬라이드 3장까지 허용 https://zdnet.co.kr/view/?no=20230502093040 'AI 대부' 제프리 힌튼, 구글 퇴사…"수십년 AI 연구 후회" 인공지능(AI) 학습법인 딥러닝을 처음으로 만든 제프리 힌튼 토론토대 교수가 구글을 떠난다. AI에 대한 위험성을 자유롭게 이야기하기 위해서다.제프리 힌튼 교수는 1일(현지... zdnet.co.kr 모든 function도 근접할 수 있다. Predict이 원하는 결과와 일치하지 않는 것을 오차라고 하..

2023/2023-1 2023.05.04

[4월 27일(목)] 인공지능 입문(이론) - Neural Network

Perceptron은 binary classifier임 (둘 중 하나) Perceptron으로 sigmoid를 적용하거나 일차함수를 적용시킴으로써 Regression기능과 Classification으로도 사용할 수 있음 오차가 생겼을 때 편미분 하는 이유는? w를 기준으로 업데이트하기 위해 x(1)과 x(2)가 모두 0일 때 값은 -1.5 둘 다 1일 때 0.5 위에서는 퍼셉트론이 뭐고 퍼센트론으로 할 수 있는 것과 없는 것을 살펴봤다면 이번에는 MultiLayer 퍼센트론을 본다 층이 나뉘어져 있음 퍼센트론 하나는 선형 함수 역할 XOR로 표현할 수 있음 (어떻게 하는지는 수업 시간에 했지만 이해 못했음, 혼자 다시)

2023/2023-1 2023.04.27

[4월 27일(목)] 인공지능 입문(이론) - Ensemble Learning (2)

[지각으로 초-중반 놓침] Depth가 1인 Decision Tree (Stump) Overfiting가능하다. Data에 맞추는 것이 아닌 다른 요소를 고려하는 것 에러 발생 여부를 알게 되었을 때 데이터에 더 집중하는 것이 아닌 다른 요소에 집중하여 최적화 될 수 있도록 하는 것 예를 들어 y(1) = 0.9인데 F(x1)는 0.8이 나왔다. 데이터가 아닌 다른 parameter를 어떻게 해야할까 F(x)와 h(x)를 병렬적으로 둘 수 있을까? -> No. F(x)를 진행한 후에 가능 초록색이 예측값이고, 점들이 실제값 Gradient Boost + regularization을 포함한 알고리즘

2023/2023-1 2023.04.27

[4월 20일(목)] 인공지능 입문(이론) - Ensemble Learning

Ensemble Learning에서 중요한 것은 다양성 다양함을 고려하고 잘 결합하여 결정에 대한 신뢰를 높이고 최적의 결과물을 도출하는 것이 목표 Raw Data는 Noise가 매우 많다. 다양한 model들의 결과물을 통해 과적합을 줄일 수 있다. 한국말로 표현하면 큰 수의 법칙 던지는 숫자가 많아질수록 실제 51%라는 참 확률값에 근사값에 가까워진다. Hard voting Classifier과 Soft voting Classifier의 결과가 다를 수도 있다 ★ 다양성 확보가 제일 중요 ★ Bagging : 데이터를 랜덤하게 Sample Boosting : 데이터에 가중치를 부여한다. 중요도에 따라 Random Forest : 데이터를 Sample하는 것이 아닌 Feature를 Sample한다. B..

2023/2023-1 2023.04.20

[4월 13일(목)] 인공지능 입문(이론)

J(세타)는 Cost함수로 에러값을 나타냄 이것을 줄이는 것이 경사하강법 사용 이유 간단하지만 많이 쓰임 주어진 조건에 대해 의사 결정을 하여 테니스를 칠지 말지 결정하는 트리 구조 대표적인 알고리즘 (ID3) 제일 중요한 자료가 무엇인지 확인한다. 예를 들어 위 테니스 예시에서 비 여부, 온도, 습도, 바람 중 제일 중요한 비 여부를 선택 정보를 이용하는 방식이기 때문에 information method 최적화를 위해 현재 상태에서 가장 효과적인 방법을 선택하는 것 엔트로피를 구하는 공식 데이터가 얼마나 분산되어있는지 위 ID3와 계산하는 방식이 다름 Gini index를 사용하여 불순도를 계산하는 방식이다. 위 방식 중 분류를 위한 더 좋은 특징이 무엇일까? 직관적으로 보기에는 B가 더 좋아보이는데 ..

2023/2023-1 2023.04.13

[4월11일(화)] 인공지능 입문(이론)

- 관찰한 데이터와 모델 파라미터가 얼마나 agreement한지 찾는 것 - 예시 : 압정 던져서 앞면 또는 뒷면 - 관찰과 데이터 세타 값이 얼마나 비슷한지 확인하는 함수 - 만약 앞면이 나올 확률이 0.2, 뒷면이 나올 확률이 0.8일 경우 세타 값은 0.8 즉, 뒷면이 나올 확률이 될 가능성이 크다 [정리] MLE의 각 확률은 독립적이다. 따라서 곱함으로써 값을 구할 수 있다. 위 문제 시험 문제로 나올 가능성 높음

2023/2023-1 2023.04.11
728x90
반응형