'Cloud&BigData/BigData Modeling'에 해당되는 글 5건

  1. 2016.12.05 TF-IDF와 유사도로 알아보는 벡터 모델 #2
  2. 2016.11.29 TF-IDF와 유사도로 알아보는 벡터 모델 #1
  3. 2016.10.31 데이터 모델링이란 무엇인가?
  4. 2016.10.12 빅데이터 가치 창출을 위한 데이터과학의 5단계 프로세스 #2
  5. 2016.10.06 빅데이터 가치 창출을 위한 데이터과학의 5단계 프로세스 #1

TF-IDF와 유사도로 알아보는 벡터 모델 #2

|



TF-IDF를 이용하여 문서의 크기를 구하는 방법을 앞 강의에서 살펴봤다. 

이번에는 이 문서들에서 대해 검색어를 처리하는 부분을 알아보기로 한다. 


다음과 같은 검색어가 주어졌다고 해보자. 


검색어 "new new york"에 대한 쿼리 벡터를 구하면 다음과 같다. 


0.584란 값이 값자기 어디에서 나왔는지 궁금할수도 있을 듯 하다. 

이전 강의에서 살펴본 각각의 단어의 IDF를 생각해보면 된다. 

new의 IDF값은 0.584이고, 전체 문서에서 2번 중 검색어도 2번 나왔으므로 2/2가 된다. 


문서의 크기와 마찬가지로 검색어의 크기도 제곱하고 더한 후, 루트를 구하면 0.652가 나온다. 


이제 유사도를 구하기위해서 문서와 검색어의 거리를 측정해보자. 

거리를 구할 때는 유클리드 거리나 코사인 거리를 주로 사용하는데, 여기에서는 코사인 거리를 적용해보기로 한다. 


A는 문서 벡터와 관련된 값이고, B는 검색어 벡터와 관련된 값들이다. 

위 그림들을 잘 조합해서 보면 식이 이해가 될 것이다. 


어쨌든 위 결과를 살펴보면 검색어는 0.776으로 d1문서와 가장 가까운 것으로 나타난다. 

그래서 검색어 결과를 d1으로 정해주면 된다. 


보통 가중치를 주어서 계산하는 경우도 종종 있다. 

이럴 경우, 가중치 값을 다음과 같이 처리해서 쿼리 벡터를 구할 때 추가로 곱해줘서 적용할 수도 있다. 


이러한 TF-IDF와 유사도 방식의 벡터 모델은 문서 뿐만 아니라 이미지를 처리하는데도 사용한다고 한다. 


신고



Trackback 0 And Comment 0

TF-IDF와 유사도로 알아보는 벡터 모델 #1

|



텍스트 문서를 기반으로 벡터 모델에 대해서 정리해 보려고 한다. 


문서의 텍스트를 처리할 때 특정 단어가 몇 번 나왔는지를 주로 세어본다. 

많이 나온 단어일수록 중요하기 때문이다. 

그러나 "그리고", "the", "a"와 같이 모든 문서에서 많이 나오는 단어들은 실제로 의미가 없다. 

그래서 TF-IDF라는 가중치를 사용하게 된다. 


TF(Term Frequency)는 특정한 단어가 문서 내에 얼마나 자주 등장하는지를 나타내고, 

DF(Document Frequency)는 단어가 문서내에서 흔하게 등장한다는 것을 나타낸다. 

그래서 DF의 역수인 IDF(Inverse Document Frequency) 구해서 

TF와 IDF를 곱한 값인 TF-IDF를 가중치로 사용한다. 


다음과 같은 텍스트로 구성된 3개의 문서가 있다고 해보자. 


이 문서와 텍스트의 빈도수를 벡터 모델로 나타내면 다음과 같다. 

단순하게 문서에서 각 단어의 빈도수를 0과 1로 처리해 행렬로 보여준 것이다. 


참고로 벡터와 스칼라에 대해서 정리하면 다음과 같다. 

물리학에서 스칼라는 크기만 있는 물리량을 나타내며

벡터는 크기와 방향을 가지고 있는 것을 의미한다. 

예를 들어, 온도가 100도 처럼 1개의 숫자로 크기를 나타내는 것을 스칼라라고 하고

동쪽으로 10걸음, 북쪽으로 5걸음과 같이 크기와 방향을 나타내면 벡터라고 한다. 

여기에서는 행렬(matrix) 형태로 문서와 단어 사이의 빈도수를 나타내므로 벡터라고 하는 듯 하다. 


이제 IDF를 구해보면 다음과 같다. 


문서 수를 단어의 빈도수로 나누고 log2를 취해준 것이 바로 IDF값이다. 

만약 단어의 빈도수가 0일 경우, 0으로 나누는 문제를 방지하기 위해서 분모에 1을 더해서 계산하기도 한다. 


이제 TF-IDF 값을 구해보자. 

TF와 IDF를 곱하면 TF-IDF 값을 구할 수 있다. 


다음 강의에서 유사도 검색을 하기 위해서는 문서의 크기를 알아야 한다. 

문서의 크기는 각 문서에 등장하는 모든 단어들의 TF-IDF값을 제곱해서 더한 후 제곱근으로 구할 수 있다. 

최종적인 문서의 크기(length)는 다음과 같다. 


다음 강의에서는 유사도를 통해 위 문서들에서 검색어를 처리하는 것을 간략하게 살펴보려고 한다. 

신고



Trackback 0 And Comment 0

데이터 모델링이란 무엇인가?

|



데이터 모델링이란 무엇일까? 

먼저 데이터를 기반으로 모델을 만드는 것을 생각해 볼 수 있다. 

그러나 처음부터 모델을 만드는 것에 집착하는 것은 바람직하지 않다. 

너무 추상적이기도 하고, 어떤 모델을 어떻게 만들어야 할지 막막하기만 하다. 


다른 측면에서 데이터 모델링을 정의해 보면, 

데이터 모델링은 데이터의 속성을 설명할 수 있고 이해하는 것이라 할 수 있다. 

흔히 데이터 분석을 이야기할 때, 먼저 데이터의 특성을 파악하라고 한다. 


데이터의 특성을 파악하기 위해서는 다음 세 가지 항목을 알아야 한다. 

데이터 구조, 데이터 연산, 그리고 데이터 제약조건이다. 

특히 데이터 제약조건은 데이터 의미를 파악하는데 유용하게 활용할 수 있다. 


데이터 구조 

데이터 구조는 정형(structued), 반정형(semi-structured), 비정형(unstructued)으로 나누어진다.   

정형 데이터는 데이터베이스와 같이 구조화된 형태로 제공되는 것을 의미한다. 

반정형 데이터는 고정된 필드로 저장되어 있지는 않지만, HTML이나 XML과 같이 메타 데이터나 스키마를 포함한 것을 말한다. 

비정형 데이터는 동영상, 이미지와 같이 구조화 되어 있지 않은 것을 의미한다. 


빅데이터 분석에서 기본적으로 정형, 반정형 데이터를 기반으로 하지만, 비정형 데이터도 처리할 수 있어야 한다


데이터 연산

다양한 데이터 연산이 있지만 간략하게 네 가지만 살펴보기로 한다. 

첫째, 데이터 부분집합(subsetting)으로 전체 데이터의 일부분을 가져오는 것을 의미한다. 

보통 특정 조건을 만족하는 데이터 셋을 가져오는데 사용한다. 


둘째, 데이터 추출(substructure extraction)로 데이터 일부분을 가져온다는 측면에서 부분집합과 유사하다. 

그러나 데이터 구조를 나타내는 필드 중 특정 조건에 적합한 일부 필드만을 가져온다는 차이점은 있다. 


셋째, 유니온(union)으로 데이터간 결합을 의미한다.

일반적으로 동일한 데이터 필드를 가진 두 개의 데이터 셋을 결합할 때 사용하며, 

중복을 제거하고 새로운 데이터 셋을 생성하게 된다. 


넷째, 조인(join)으로 데이터를 결합하는 연산이 있다. 

유니온과 달리 서로 다른 필드를 가진 데이터 셋 결합도 가능하며, 보통 두 데이터셋을 연결하는 키(key)를 가지고 있다. 


데이터 제약조건(constrains)

제약조건은 논리적으로 데이터의 특성을 나타내는 역할을 한다. 

예를 들어, "영화는 제목을 하나 가지고 있다."와 같은 부분이 제약조건이라고 할 수 있다. 


데이터 타입에 대한 제약조건으로 Value constraints, Uniqueness constraints, Cardinality constraints가 있다. 

Value constraints: 나이는 음수가 나올 수 없다. 

Uniqueness constraints: 영화는 제목이 하나만 나온다. 

Cardinality constraints: 혈액형은 O형, A형, B형, AB형으로 나눈다. 


또한 세부 데이터가 아닌 데이터 구조에 따른 제약조건도 있다. 

행렬을 구조적으로 표현하기 위해 다음과 같은 제약조건을 활용할 수 있다. 

신고



Trackback 0 And Comment 0

빅데이터 가치 창출을 위한 데이터과학의 5단계 프로세스 #2

|



이제 본격적으로 빅데이터 가치 창출을 위한 5단계의 프로세스를 살펴보기로 한다. 

이것은 일반적인 빅데이터 분석 과정인 "데이터 획득 - 데이터 준비 - 데이터 분석 - 시각화 - 활용"을 의미한다. 


데이터 획득 (Acquire)

데이터 획득은은 단순히 데이터를 수집하는 것만을 의미하지 않는다. 

먼저 데이터 셋을 명확하게 정의해야 한다. 

어떤 데이터들이 있고, 해당 데이터의 특성이 무엇인지를 명확하게 설정해야 한다. 

그리고 나서 데이터를 검색해보거나 쿼리를 할 수 있어야 한다. 


개인적으로는 이 단계에서 데이터 속성을 파악하는 것이 중요하다고 생각한다. 

데이터에 어떤 항목들이 포함되어 있고, 그것이 무엇을 의미하는 지를 알아야 올바른 가설 또는 문제를 정의할 수 있다. 


데이터 준비 (Prepare)

데이터 준비 단계는 "데이터 탐험"과 "전처리"의 두 가지로 구성된다. 

데이터 탐험은 데이터의 의미를 이해하는 과정이다. 

데이터 시각화를 통해 사전 분석을 해보기도 하면서 데이터 본질을 이해하려고 노력하는 것이다. 

획득 단계에서 파악한 속성들이 실제로 어떤 분포를 보이는지 준비 단계에서 다시 한번 확인하는 것이라 할 수 있다. 


전처리는 수집된 데이터를 분석할 수 있도록 재구성하는 과정이다. 

데이터를 명확하게 정리하고, 통합하고, 그룹화해서 실제 분석에 활용할 수 있는 형태로 구성한다. 

필요할 경우, 이 단계에서 개인정보 비식별 처리를 할 수도 있다. 


데이터 분석(Analyze) 

다양한 데이터 분석 기술들 중에서 앞서 파악한 데이터 특성에 적합한 것을 선택하고 분석 모델을 구성하는 단계이다.  

데이터 모델은 한번에 완성되는 것이 아니다. 

여기에서 정의하고 있는 5단계 프로세스는 계속 반복해서 이루어져야 하며, 

특히 이 단계에서 구성하는 데이터 모델을 발전시켜 나가는 과정이라고 봐야 한다. 


데이터 시각화(Report)

데이터 시각화 단계는 분석 모델의 결과를 서로 논의해보는 단계라 할 수 있다. 

다른 사람들과 공유할 수 있도록 시각화해서 제공하면서 

그 결과에 대한 해석을 해보는 것이다. 

데이터 과학은 주로 분석에 초점이 맞추어져 있지만, 실제로는 이 단계의 논의와 해석이 더 중요한 것 같다. 

통찰(insight)은 바로 이 단계에서 나오는 경우가 많기 때문이다. 


데이터 활용(Act)

활용 단계는 이전 단계에서 찾은 통찰을 실제로 적용해 보는 것이다. 

앞서 강의에서 행동하지 않는 분석은 무의미하다고 이야기했다. 

분석의 결과물을 적용할 수 있어야 진정한 데이터 과학이 완성되었다고 할 수 있다. 


신고



Trackback 0 And Comment 0

빅데이터 가치 창출을 위한 데이터과학의 5단계 프로세스 #1

|



빅데이터는 초기의 개념 정의, 그리고 기술 적용의 단계를 넘어 활용으로 나아가고 있다. 

가치 창출을 위한 빅데이터 활용 측면에서 빅데이터 모델링에 대해 살펴보고자 한다. 


알리스테어 크롤과 벤저민 요스코비치가 쓴 린 분석(Lean Analytics)에 보면, 

"행동을 변화시키지 않는다면 잘못된 지표이다" 라는 이야기가 나온다. 

빅데이터 분석만 하고 아무런 행동도 하지 않는다면 무의미하다는 것이다. 


즉, 빅데이터 분석의 최종 목표는 반드시 실행이어야 한다. 

다양하고 수많은 데이터에서 인사이트를 찾고 이를 실행에 옮기는 것이야말로 진정한 빅데이터의 활용이자 데이터 과학이라 할 수 있다. 


그러나 빅데이터에서 인사이트를 찾아내는 것 자체가 어려울 수 있다. 

인사이트를 찾기 위해서는 무엇을 해야 할까? 


당연히 분석을 잘 해야 한다. 그리고 더 중요한 것은 "왜?" 라는 질문을 하는 것이다. 

일반적으로 통찰은 우리가 예상하지 못한 질문과 답변이 나왔을 때 무릎을 치면서 "아하~" 하고 외치는 경우 발생한다. 


데이브 마컴의 "비즈니스 씽크"를 보면 제퍼슨 기념관의 벽 부식 문제를 "왜?"라는 질문으로 해결하는 것이 나온다. 

보통 5why 라고 이야기 하는데 인사이트는 끝없는 "왜?"라는 질문에서 발견할 수 있다. 

즉, 데이터를 모으고 계속적으로 질문하고 분석함으로써 인사이트를 얻을 수 있는 것이다. 


앞으로 UC San Diego의 "Big Data Modeling and Management System" 강의를 기반으로 

빅데이터 모델링에 대한 나름대로의 생각을 정리해 보려고 한다. 

신고



Trackback 0 And Comment 0
prev | 1 | next