본문 바로가기
반응형

전체 글200

[We-Co] Transformer - 포르투갈어를 영어로 변역 Part.2 안녕하세요. 위기의코딩맨입니다. 오늘은 포르투갈어를 영어로 변역 Part.2 부분을 알아보도록 하겠습니다. Part.1 [We-Co] Transformer - 포르투갈어를 영어로 변역 Part.1 안녕하세요. 위기의 코딩맨입니다. 오늘은 Tensorflow의 공식 문서와 현재 듣고있는 강의를 토대로 포르투갈어를 영어로 변역하는 모델을 작성해보도록 하겠습니다. https://www.tensorflow.org/text/tutorial we-co.tistory.com 인코더 부분과 디코더 부분에서 실행되는 부분을 알아보도록 하겠습니다. 인코더 부분이 왼쪽, 디코더 부분이 오른쪽 부분으로 생각하시면 됩니다. 인코더레이어 부분 Multi-Head_Attenstion, 포인트 와이즈 피드포워드 네트워크의 흐름을 작.. 2022. 2. 10.
[We-Co] Transformer - 포르투갈어를 영어로 변역 Part.1 안녕하세요. 위기의 코딩맨입니다. 오늘은 Tensorflow의 공식 문서와 현재 듣고있는 강의를 토대로 포르투갈어를 영어로 변역하는 모델을 작성해보도록 하겠습니다. https://www.tensorflow.org/text/tutorials/transformer 언어 이해를 위한 변환기 모델 | Text | TensorFlow 도움말 Kaggle에 TensorFlow과 그레이트 배리어 리프 (Great Barrier Reef)를 보호하기 도전에 참여 이 페이지는 Cloud Translation API를 통해 번역되었습니다. Switch to English 언어 이해를 위한 변환기 모델 이 튜 www.tensorflow.org 먼저 사용할 라이브러리를 설치해주도록 합니다. 저는 코랩환경을 사용하기 때문에 앞.. 2022. 2. 9.
[We-Co] Transformer - Tensorflow, NLP 안녕하세요. 위기의 코딩맨입니다. 오늘은 Transformer에 대해서 간단하게 알아보도록 하겠습니다 [ Transformer ] "Attention is all you need"의 제목으로 2017년 구글에서 발표한 모델입니다. 기존의 Seq2Seq의 구조 인코더 - 디코더를 기반으로 하지만, RNN모델을 사용하지 않고 Ateention의 기법을 사용하여 우수한 성능을 보여주는 모델입니다. Transformer의 장점은 - RNN은 순차적의 형태로 출력하지만, 병렬적으로 계산이 가능 - Rnn 스텝이나 Convolution을 켜지 않고 멀리 떨어진 텍스트의 정보들도 서로 영향을 주고 받으며 서로 연관관계를 학습이 가능 Seq2Seq와 같이 왼쪽은 Encoding부분, 오른쪽은 Decoding부분으로 나.. 2022. 2. 6.
[We-Co] word2vec - Tensorflow, 자연어처리 안녕하세요. 위기의 코딩맨입니다. 오늘은 word2vec에 대해서 간단하게 알아보도록 하겠습니다. [ word2vec ] 2013년도에 구글 직원인 토마스 미콜로프를 통해서 공개되었습니다. 단어 벡터간의 유사도를 반영할 수 있도록 단어의 의미를 수치화 하는 대표적인 방법의 모델이며 CBOW 방식과 Skpi-Gram의 2가지 방식으로 구현할 수 있습니다. 2가지 방식을 들어가기 앞서, http://w.elnn.kr/search/ 해당 홈페이지를 들어가보면 단어에 대한 벡터 연산을 진행해 볼 수 있는 사이트 입니다. 단어를 더하고 빼며 유사도를 계산하여 답변을 추출하는 사이트입니다. 예를들면 '미국 - 뉴욕 + 서울 = 한국' '한국 - 서울 + 도쿄 = 일본' 미국과 한국의 수도를 빼고 서울, 도쿄를 입력.. 2022. 2. 3.
[We-Co] NLP의 사용 분야와 용어 - 자연어 처리 안녕하세요. 위기의 코딩맨입니다. 오늘은 NLP - Natural Language Processing의 사용분야와 간단하게 사용하는 용어를 정리해보도록 하겠습니다. NLP의 간단한 정리를 알고 싶으시면 다음 링크를 확인해주세요! NLP의 간단한 정리 [We-Co] NLP - 자연어 의미, 자연어 처리 안녕하세요. 위기의 코딩맨입니다. 오늘은 간단하게 머신러닝의 NLP에 대해서 간단하게 알아보도록 하겠습니다. 저도 NLP에 매력을 느껴서 머신러닝 독학을 시작했습니다. [ NLP ] 사람이 평소 사 we-co.tistory.com [ Machine Translation ] 하나의 언어를 다른 언어로 번역하는 영역을 의미합니다. 물론 지금도 번역하는 솔루션들은 많이 존재하고 있습니다. 그러나 Machine T.. 2022. 1. 28.
[We-Co] Tensorflow Object Detection API, Faster-R-CNN 안녕하세요. 위기의 코딩맨입니다. 오늘은 Tensorflow에서 Github로 제공하고 있는 Object Detection API를 사용해보려고 합니다. 기존에 학습시키는데 너무 오래걸리고 환경을 만드는데 너무 오래 걸려서 엄청 힘들었는데... 공부하다 보니 알게된 사실..! Google에서 Tensorflow github를 통해서 이미 학습된 모델을 제공하고 있었습니다.. 물론 다른 디테일 부분을 추가하기 위해서는 별도로 학습을 진행해야 하지만, 이만큼의 발견도 저는 감사합니다! 해당 방식으로 오늘은 Faster-R-CNN예제를 한번 풀어보도록 하겠습니다. 오늘 예제 소스는 https://github.com/JGH94/Tensorflow_Detection_Model_ZOO/blob/main/Tensor.. 2022. 1. 18.
[We-Co] Devops, MLops의 의미 안녕하세요. 위기의 코딩맨입니다. 오늘은 간단하게 DevOps, MLOps에 대해 간단하게 알아보도록 하겠습니다. [ DevOps ] DevOps는 'Development(개발)'와 'Operations(운영)' 두개의 단어의 합성어입니다. 그러나 두가지의 의미보다 더욱 포괄적인 의미를 갖고있습니다. 코드 통합, 테스트, 배포, 테스트, 모니터링 파이프라인을 자동화하기 위한 작업이며, 기본의 개발의 품질, 속도를 보다 개선하고, 소프트웨어 업데이트 등 제품의 릴리즈의 주기를 단축하기 위한 작업을 의미합니다. 이를 위해서는 운영팀과 개발팀의 원활한 소통이 중요합니다. [ 장점 ] 안전성 - 지속적인 커뮤니케이션을 통해 품질이 보장되며 안전하게 작동하는지도 테스트 가능 속도 - 원활한 커뮤니케이션으로 효율적.. 2021. 12. 16.
[We-Co] NLP - 자연어 의미, 자연어 처리 안녕하세요. 위기의 코딩맨입니다. 오늘은 간단하게 머신러닝의 NLP에 대해서 간단하게 알아보도록 하겠습니다. 저도 NLP에 매력을 느껴서 머신러닝 독학을 시작했습니다. [ NLP ] 사람이 평소 사용하는 말들을 Natural Language(자연어)로 불립니다. Natural Language Processing는 그대로 해석하면 '자연어를 처리하는 분야'를 의미하며, 다양한 자연어 처리하는 분야가 존재하지만, 여기서의 본질은 컴퓨터가 사람의 말을 알아듣고 맞는 행동을 하도록 만들어야하는 것입니다. Markup Language, Programming Language와 같은 컴퓨터 언어가 아닌 사람이 사용하는 언어를 컴퓨터에게 이해시키는 것은 아주 어려운 작업일 것입니다. 예전부터 컴퓨터에게 자연어를 이해시.. 2021. 10. 20.
[We-Co] Training - YOLO, Tensorflow논문 안녕하세요. 위기의 코딩맨입니다. 오늘은 YOLO의 Training 부분을 한번 간단하게 알아보도록 하겠습니다. YOLO [We-Co] Unified Detection, Network Design - YOLO, Tensorflow 논문 안녕하세요. 위기의 코딩맨입니다. 오늘은 YOLO의 Unified Detection, Network Design에 대해 간단하게 알아보도록 하겠습니다. Method 부분에 해당하며, 본 논문의 모델을 나타내는 부분이라고 생각할 수있 we-co.tistory.com [ Training ] 약 1000개의 ImageNet 1000-Class의 데이터를 약 일주일간 학습을 진행시켰다고합니다. 약 88%정도의 정확도의 Image CNN 모델을 만들었다고 합니다. 학습된 CNN 모.. 2021. 10. 19.
반응형