분류 전체보기75 [Git] 02 Git을 통한 협업 Create Branch branch: 독립적으로 어떤 작업을 진행하고 버전 관리를 할 수 있도록 하는 기능 branch 목록 보기 git branch 현재 위치해있는 branch에는 “*”를 붙여서 보여준다 새 branch 생성 git branch branch 삭제 git branch -d -d: delete main branch가 아닌 다른 branch를 push하고 싶을 때 origin(remote repository)에 feature/login이라는 이름의 새로운 branch를 올리겠다 git push --set-upstream origin feature/login Git Checkout git checkout branch / commit 전환 git checkout [branch 이름]: 해당 .. 2023. 4. 4. [Git] 01 Git Basic Git & Github Git: 소프트웨어 버전관리 시스템(VCS, Version Control System)의 한 종류 Git server & Git client git server 코드를 모아둔 중앙 서버 ex) github.com, gitlab 등 git client git server의 사본을 가진 로컬 환경 ex) git CLI(Command-line interface), Visual Studio Code에 내장되어 있는 git 등 Create Repository Repository repository: 파일이나 디렉토리(폴더)를 저장하는 장소 local repository: 자신의 컴퓨터에 있는 repository remote repository: 서버 등 네트워크에 있는 repository .. 2023. 4. 4. [NLP] Beam Search 1 Greedy Decoding Greedy Decoding seq2seq model의 decoder의 각 time step마다 가장 높은 확률값을 가지는 단어 하나만을 output으로 return하는 방식 ‘단어’ → 문장 전체에 대한 확률을 고려하는 것이 아니라, 각 time step에서의 단어에 대한 확률만을 고려함 ‘하나’ → 한 번 결정된 output을 취소할 수 없어, 한 번 잘못된 output을 생성하면 잘못 생성한대로 그 이후 time step에 계속하여 영향을 미치게 됨 2 Exhaustive Search Exhaustive Search 가능한 모든 경우의 수를 고려하여 최적해를 찾는 방식 Exhaustive Search의 작동 방식 vocabulary size가 V이고, time ste.. 2023. 4. 3. [NLP] Seq2Seq with Attention 1 Sequence to Sequence Problem 1.1 sequence 단어들의 나열 (=문장, 문단 ..) 1.2 sequence to sequence 하나의 sequence를 다른 sequence로 바꾸는 것 ex Machine Translation: 제 이름은 지은이고, 저는 학생입니다. → My name is Jieun and I am a student. Summarization: 긴 text → 짧은 text Dialog: 이전 대화 → 이후 대화 2 Seq2Seq Model (= Encoder-Decoder Architecture) 2.1 Seq2seq 시계열 데이터를 input으로 받아 다른 시계열 데이터들로 변환할 때 사용 2.2 Encoder-Decoder 구조 : Many to .. 2023. 4. 3. [NLP] Sequential Model Sequential Model Sequence Data Sequence Data: 시점에 따라 달라지는 데이터 과거 데이터가 현재 데이터의 처리에 있어서 도움이 되는 경우 순서가 중요한 데이터 ex. 자연어 처리. 시계열 데이터. 영상 처리. 주식 Sequantial data는 길이가 일정하지 않음 = model에 입력될 input data의 size가 일정하지 않음→ input data의 size에 상관 없이 동작이 가능한 model을 필요로 함 2 Sequential Model Autoregressive model 이전 n개의 data에만 dependeant하도록 만들어진 model Markov model (1차 Autoregressive model) joint distribution을 쉽게 표현할 .. 2023. 4. 3. [NLP] Word Embedding Word Embedding 희소 표현과 밀집 표현 희소 표현 Sparse Representation: 벡터 또는 행렬(matrix)의 값이 대부분이 0으로 표현되는 방법 ex. One-Hot Vector 밀집 표현 Dense Representation: 사용자가 설정한 값으로 모든 단어의 벡터 표현의 차원을 맞춤에 따라 차원이 조밀해진 벡터 워드 임베딩 Word Embedding: 단어를 밀집 벡터로 표현하는 방법 임베딩 벡터 Embedding Vector: 임베딩 과정을 통해 나온 결과 1 word2vec word2vec 의미상의 유사도를 반영하여 단어의 의미를 벡터 공간에 임베딩하는 것 Input Data: One Hot Encoding Vector Input → Hidden: Embedding Ve.. 2023. 4. 3. [NLP] RNN은 왜 활성화함수로 tanh를 사용할까? 결론적으로는 RNN이 가지는 vanishing gradient 문제를 예방하는데 tanh가 그나마 가장 적절하기 때문이다. tanh가 어떻게 RNN의 vanishing gradient 문제를 예방할 수 있는지 알아보기 위해 sigmoid와 tanh의 미분값을 비교해보자. sigmoid tanh sigmoid와 tanh의 미분값을 살펴보면, sigmoid와 tanh 모두 0과 1 사이의 미분값을 가지지만 tanh의 미분 최댓값이 sigmoid에 비해 상대적으로 더 크다는 것을 확인할 수 있다. gradient vanishing은 0에 가까운 값을 연쇄적으로 곱하는 경우에 그 가능성이 더욱 커지기 때문에, gradient vanishing에 있어 미분값이 상대적으로 더 큰 tanh가 sigmoid보다 이점을.. 2023. 4. 2. [Math for AI] joint pdf와 likelihood function은 같은 식을 다르게 해석한 것에 불과할까? Question 수리통계학 문제를 풀다보면 likelihood function을 사용하는 문제에서 대부분 joint pdf를 이용하여 likelihood를 구한다. 이는 likelihood와 joint pdf가 같은 식임을 의미하는데, 그렇다면 joint pdf와 likelihood function은 같은 식을 다르게 해석한 것에 불과할까? joint pdf와 likelihood function joint pdf 특정 모수가 주어졌을 때, 데이터들이 나타날 확률 likelihood function 데이터들이 주어졌을 때, 특정 모수가 해당 데이터를 나타낼 확률 → 어떠한 데이터들이 관찰되었을 때, 그 데이터들이 어떤 분포로부터 왔는지 알고싶을 때 사용 같은 식이지만 다르게 해석되는 joint pdf와 l.. 2023. 4. 2. [프로그래머스] 탐욕법(Greedy) - 체육복 문제 설명 점심시간에 도둑이 들어, 일부 학생이 체육복을 도난당했습니다. 다행히 여벌 체육복이 있는 학생이 이들에게 체육복을 빌려주려 합니다. 학생들의 번호는 체격 순으로 매겨져 있어, 바로 앞번호의 학생이나 바로 뒷번호의 학생에게만 체육복을 빌려줄 수 있습니다. 예를 들어, 4번 학생은 3번 학생이나 5번 학생에게만 체육복을 빌려줄 수 있습니다. 체육복이 없으면 수업을 들을 수 없기 때문에 체육복을 적절히 빌려 최대한 많은 학생이 체육수업을 들어야 합니다. 전체 학생의 수 n, 체육복을 도난당한 학생들의 번호가 담긴 배열 lost, 여벌의 체육복을 가져온 학생들의 번호가 담긴 배열 reserve가 매개변수로 주어질 때, 체육수업을 들을 수 있는 학생의 최댓값을 return 하도록 solution 함수를.. 2023. 3. 15. 이전 1 2 3 4 5 6 7 8 9 다음