일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
- Spark MLlib
- 위기의코딩맨
- AI tech
- 캐글
- Transformer
- pycharm
- mllib
- 부스트클래스
- Ai
- spark
- 데이터 시각화
- RDD
- DataSet
- 서울 맛집
- r
- 부스트캠프
- 연남 맛집
- Python
- AI Tech 준비과정
- kaggle
- NLP
- 홍대 맛집
- AI 엔지니어 기초 다지기
- tensorflow 예제
- TensorFlow
- 자연어
- yolo
- 부스트캠프 ai tech 준비과정
- 맛집
- 연남동 맛집
- Today
- Total
목록2024/06 (4)
We-Co
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/slSJS/btsH9stPSW4/mrvC3wJQVVFvBvrmlzcTa0/img.png)
안녕하세요. 위기의 코딩맨입니다.오랜만에 기초수학 포스팅을 작성해보려 합니다.점점 수학적인 부분이 중요해져서... 공부를 하는데 너무 어렵네!! [ 기초 수학 ] 이항분포 - 확률 P가 n 번의 시도 중, k번이 성공할 수 있는 가능성함수는 scipy의 binom.pmf()를 사용해서 구현가능Ex) binom.pmf(k,n,p) 베타분포 - a(알파)번의 성공과 b(베타)번의 실패가 주어졌을 때, 사건이 발생할 수 있는 다양한 기본 확률의 가능성함수는 scipy의. teta.cdf() 함수를 사용해서 구현 가능, 90% 확률 a번의. 성공과 b번의 실패의 데이터Ex)Beta.cdf(0.90, a,b) 모집단 - 연구하고자 하는 특정 그룹표본 - 모집단의 하위 집합을 의미하며, 무작위하고 편향적이지 않..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bply85/btsH1oY58QH/hE09u78KxlfMjZJVtBdu01/img.png)
안녕하세요. 위기의 코딩맨입니다.6월 11일자로 강의가 종료되었고 얼마전에 수료증까지 나왔습니다.강의 내용은 기초적인 부분이 대부분이었고,현업에서 뛰고 계시는 분들이 코치를 맡아서 해주셨습니다. [ 후기 ]처음 목표였던, 내가 공부를 잘하고 있는가? 라는 질문에선 그래도 엇나가지는 않았구나! 느낌이 들었습니다.그렇지만 조금 더 깊게 생각해야되고, 공부해야할 부분도 많구나..부족한 부분이 엄청나게 많구나 생각이 들었습니다. 앞으로 수학적인 부분을 조금 신경써야 될것 같습니다.또한, 이 분야에 많은 분들이 목표를 갖고 공부를 아주 열심히 하고 있구나! 라는 것을 많이 느끼게 되었습니다. 저 또한, 앞으로 더 지식을 쌓아 나아가며, 조금 더 좋은 필드에서 일할 수 있는 환경을 만들어야 겠습니다. 흐흐그리고 수..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/2E1o4/btsHZfnQ7Fq/FKgmkntilaJZ2MKcZU4zvk/img.png)
안녕하세요. 위기의 코딩맨입니다.조금씩 공부를 하면서 수학의 중요성을 다시금 느끼게 되었습니다.어렸을때 공부좀 할걸... 후회만하고 아무것도 안할순 없지.. 이제부터 기초부터 지식을 쌓아보도록 하겠습니다.지금은 아주 기초적으로 의미만 정리하며 공부해보도록 하겠습니다. [ 확률 ] 확률이란? - 어떠한 사건이 일어날 가능성동전을 10번 던져서 앞면이 6번 나올 확률비행기가 결항될 확률가능도 (likehood) - 확률과 비슷하지만, 확률은 아직 일어나지 않은 사건에 대해 예측하지만, 가능도는 이미 발생한 사건의 빈도를 측정하는 것 사건의 발생확률은 0.0 ~ 1.0 사이의 값이여야함 (0~100%) P(X) = 0.6P(notX) = 1.0 - 0.60 = 0.40 확률은 모든 합이 1.0 또는 100%이..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bEw9NM/btsHQorUi3l/KKN6rqrQ9Iiqac91rgKcHK/img.png)
안녕하세요. 위기의 코딩맨입니다.드디어 벌써 마지막 주차가 되었습니다.처음 시작할때, 열심히 해보자 했는데 점점 갈수록 어려워져서 힘이 들더라구요!그래도 마지막 주차까지 화이팅 해보겠습니다. [ 7주차 학습내용 ]RNN Sequential Model : 다음 인풋 데이터를 예측하는 것Markov Model : 가정했을때, 현재는 과거 데이터(설정한 과거)를 기반으로 예측, 많은 정보를 버릴수밖에 없음(설정한 과거를 제외하면 버리게됨)Latent Autoregressive Model Recurrent Neural Network Short-term dependencies -과거의 데이터는 미래에 적용되기 어려움Long-term dependencies시계열 데이터가 커질수록(중첩) 계산이 계속 늘어남Va..