Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- NLP
- 부스트캠프 ai tech 준비과정
- tensorflow 예제
- 연남동 맛집
- 맛집
- 데이터 시각화
- pycharm
- AI Tech 준비과정
- 서울 맛집
- 자연어
- 부스트클래스
- AI 엔지니어 기초 다지기
- Spark MLlib
- TensorFlow
- DataSet
- Transformer
- Ai
- 위기의코딩맨
- 캐글
- kaggle
- yolo
- 홍대 맛집
- RDD
- 부스트캠프
- 연남 맛집
- Python
- mllib
- r
- spark
- AI tech
Archives
- Today
- Total
반응형
목록bert large (1)
반응형
We-Co
[We-Co] BERT - 자연어처리, NLP
안녕하세요. 위기의 코딩맨입니다. 오늘은 자연어 처리의 발전에 힘을 실어준 BERT 모델에 대해서 알아보도록 하겠습니다. [ BERT ] Bidirectional Encoder Representations from Transformers를 BERT로 간단하게 부르고 있습니다. 2018년 Google에서 공개한 모델이며, 앞서 언급했듯이 NLP Task에서 최고의 성능을 보여주며 NLP의 발전에 많은 기여를 했습니다. BERT는 Transformer를 이용하여 모델을 구현했으며 대량의 단어 Corpus로 양방향(Bidirectional)으로 학습을 시킨 Pre-Trained 자연어 처리 모델이며, 위키피디아, BooksCorpus에 포함된 레이블이 없는 텍스트 데이터로 훈련된 모델입니다. BERT가 높은 ..
Python/Tensorflow
2022. 2. 11. 23:48