반응형 theory 📓/딥러닝13 rdb, nosql, gdb RDB (Relational Database), NoSQL, 그리고 GDB (Graph Database)는 각기 다른 데이터 모델과 용도에 맞춰 설계된 데이터베이스 시스템입니다. 각자의 장단점을 정리하면 다음과 같습니다.RDB (Relational Database)장점데이터 일관성: 엄격한 스키마 구조를 따르기 때문에 데이터 일관성을 유지하기 쉽습니다.관계형 모델: SQL로 관계를 쉽게 정의하고 복잡한 쿼리를 작성할 수 있습니다.ACID 속성: 트랜잭션이 강력하게 보장되므로 금융 거래와 같이 높은 신뢰성을 요구하는 시스템에 적합합니다.성숙한 기술: 오랜 기간 사용되어 성숙한 툴, 문서, 지원이 풍부합니다.단점수평 확장 어려움: 수직 확장은 가능하나 수평 확장이 어려워 대규모 데이터 처리에 부적합할 수 있.. 2024. 11. 11. 추천시스템 / 커리큘럼 러닝 Candidate Generation → "방대한 데이터 집합에서 시작하여 더 작은 후보 집합을 생성합니다."Scoring → "다른 모델이 후보를 평가하고 순위를 매겨, 사용자에게 표시할 아이템 집합(약 10개)을 선택합니다."Re-ranking → "최종 순위를 위해 추가 제약 조건을 고려합니다. 이 단계는 사용자가 명시적으로 싫어하는 항목을 제거하거나 사용자 선호도와 잘 맞는 항목의 점수를 높입니다."첫 번째 필터링 방법:설명에서 유사한 아이템 간의 유사도를 이용하여 추천을 생성한다고 되어 있습니다. 이는 Content-based filtering에 해당합니다.정답: "Content-based"두 번째 필터링 방법:설명에서 사용자 간의 유사성과 아이템 간의 유사성을 동시에 고려하여 추천한다고 되어 .. 2024. 11. 8. Graph Node / GNN / GCN Graph Node그래프의 노드를 벡터로 매핑하여 유사한 노드가 유사한 표현을 갖도록 하는 것을 목표로 합니다. 이 문맥에서 "그래프의 유사한 노드들이 서로 가깝게 임베딩된다"가 올바른 선택입니다. 유사한 노드를 가깝게 임베딩하는 것은 그래프 구조 내의 관계를 효과적으로 반영하기 때문입니다. "In the ____ setting, one can generate embeddings for nodes that are unseen in training, since output of training in this setting is an encoder (a function that generates embeddings)."에서 설명하는 것은 **"transductive"**와 "inductive" 설정 중 in.. 2024. 11. 8. Self Attention / Transformer / Decoding Self Attention각 입력 벡터 x1, x2 자기 자신 및 다른 벡터와 상호작용하여 최종 출력 생성query -> 벡터 비교 기준이 되는 벡터key -> 다른 모든 벡터와 비교되어 각 출력 yj에 대한 주의 가중치 wij를 계산value -> 각 가중치와 value에 곱해져 합산되어 최종 출력 생산 - 각 입력 벡터는 Query, Key, Value로 변환되고, Query와 Key의 비교를 통해 주의 가중치가 계산됩니다.- 계산된 가중치는 Value에 곱해져 합산되며, 이를 통해 최종 출력이 만들어집니다.- Self-Attention은 이렇게 각 입력이 서로의 정보를 활용할 수 있게 하여, 단어 간의 연관성을 반영한 벡터를 만들어냅니다.Self-Attention에서 자기 자신에 대한 관계를 반영하.. 2024. 11. 8. CNN Applications 객체 탐지(Object Detection)YOLO (You Only Look Once): 하나의 CNN을 통해 실시간 객체 탐지를 수행하는 방법으로, 이미지 전체를 그리드로 나누고 각 그리드 셀마다 객체의 존재 여부와 바운딩 박스를 예측합니다.R-CNN, Fast R-CNN, Faster R-CNN: R-CNN 시리즈는 객체 탐지를 위해 지역 제안 방법(Region Proposal)을 사용하며, Faster R-CNN은 지역 제안 네트워크(RPN)를 추가해 속도를 개선했습니다.세그멘테이션(Segmentation)Semantic Segmentation: 이미지의 각 픽셀을 특정 클래스에 할당합니다. Fully Convolutional Network (FCN) 등으로 구현되며, 다이얼레이션 컨볼루션(Dila.. 2024. 11. 6. CNN 필터와 합성곱(Convolution)- CNN의 주요 개념으로, 필터를 이미지에 적용하여 특징을 추출함- 필터는 가중치 행렬이며, 특정 패턴을 감지하기 위해 학습됨 CNN의 주요 계층- 합성곱 계측(Convolution Layer) : 필터를 사용해 이미지에서 유용한 패턴을 추출합니다.- 폴링 계층(Pooling Layer) : 주요하게 Max Pooling을 사용하며, 데이터의 공간 크기를 줄여 모델 복잡성을 낮추고 계산 효율성을 높임- 완전 연결 계층(Fully Connected Layer) : 추출한 특징을 바탕으로 예측을 수행하는 최종 계층 주요 CNN 아키텍처- AlexNet : 깊이 있는 CNN 구조를 통해 ImageNet 대회에.. 2024. 11. 6. Unsupervised learning 비지도 학습(Unsupervised Learning)비지도 학습은 라벨이 없는 데이터를 기반으로 데이터를 구조적으로 이해하는 방법입니다. 주요 목표는 데이터 내의 유사성이나 패턴을 찾는 것입니다.주요 예시로는 클러스터링(Clustering), 차원 축소(Dimensionality Reduction), 특성 학습(Feature Learning) 등이 있습니다.차원 축소 기법: PCA와 LDAPCA(Principal Component Analysis): 주성분 분석을 통해 데이터의 차원을 줄이며, 가장 큰 분산을 가진 방향으로 데이터를 투영합니다.LDA(Linear Discriminant Analysis): 지도 학습 방법으로, 클래스 간 분리를 최적화하도록 데이터를 투영합니다.클러스터링(Clustering.. 2024. 11. 6. Hyperparameter tuning 하이퍼파라미터 최적화(Optimization)- 하이퍼파라미터는 학습 과정에서 조정할 수 없는 파라미터로, 모델 성능에 중요한 영향을 미침- 자주 조정하는 하이퍼파라미터로는 학습률, 배치 크기, 가중치 초기화 방법등이 있음 미니배치 경사하강법(Mini-Batch Gradient Descent)- 전체 데이터 셋을 사용하는 배치 경사하강법과 달리, 미니 배치 크기만큼의 데이터를 사용하여 효율적으로 학습을 진행함- 보통 2의 제곱수인 배치 크기를 사용하는 것이 성능에 유리 모맨텀(Momentum) 및 Adam 옵티마이저- 모맨텀은 이전 기울기를 이용해 학습 속도를 높이며, Adam은 모멘텀과 RMSProp을 결합하여 빠르고 안정적인 학습을 제공 하이퍼파라.. 2024. 11. 6. Setup and regularization 데이터 분할 (Train/Dev/Test sets)- 학습/검증/테스트 데이터로 나누어 모델의 성능을 효과적으로 평가할 수 있음- 빅데이터 시대에는 99%를 학습에 1%씩을 검즘과 테스트에 사용하는것이 일반적 편향(Bias)과 분산(Varience)- 고편향(High Bias) : 모델이 지나치게 단순하여 학습 데이터와 검증 데이터 모두에서 성능이 낮음- 고분산(High Variance) : 모델이 학습 데이터에서는 잘 맞지만, 검증 데이터에서 성능이 떨어지는 경우정규화(Regularization)- L2 정규화 : 가중치 크기를 줄여 과적합을 방지함. 학습 시 가중치에 L2 패널티를 추가함- L1 정규화 : 가중치를 희소하게 만들어 모델의.. 2024. 11. 6. Deep neural network 심층 신경망 (Deep Neural Network, DNN)- 여러 개의 은닉층을 포함하여 복잡한 패턴과 고차원의 특성을 학습할 수 있음- 층이 많을수록 더 깊은 구조로, 이를 딥 네트워크라고 하며 얕은 네트워크보다 더 복잡한 문제를 해결 가능 다층퍼셉트론 (Multilayer Perceptron, MLP)- 은닉층과 출력층에 대한 가중치와 바이어스를 초기화하고, 순전파와 역전파를 통해 학습을 진행함 정규화 및 하이퍼파라미터 튜닝- 모델의 과적합을 방지하기 위해 L2 정규화 (L2 Regularization)을 적용할 수 있음- 학습률, 미니배치 크기, 에포크 수 등의 하이퍼파라미터는 실험을 통해 최적값을 찾아야 함 예제) 1. True/False: .. 2024. 11. 6. 이전 1 2 다음 반응형